快速入门Coze平台开发智能体

快速入门Coze平台开发智能体h4 h4 Coze 是由字节跳动出品 面向 C 端 也就是个人 的一款智能体开发平台 他的特点就是零代码或者低代码 能快速上手 插件丰富 工作流强大 免费使用 可以无限调用大模型 多渠道发布 我认为这对初学者是非常友好的 具备低门槛 高能力 广覆盖的特性 链接 https www coze cn home 项目开发模块会显示我们已经开发的智能体

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

Coze是由字节跳动出品,面向C端(也就是个人)的一款智能体开发平台,他的特点就是零代码或者低代码

能快速上手,插件丰富,工作流强大,免费使用(可以无限调用大模型),多渠道发布,我认为这对初学者是非常友好的,具备低门槛,高能力,广覆盖的特性

链接:https://www.coze.cn/home

项目开发模块会显示我们已经开发的智能体

模板商店中有官方提供的免费模板,如果你意向的智能体功能与之相似,就可以直接复刻

搭建步骤:

  1. 让agent听懂人话

重点:实现提示词工程

  1. 让agent变得专业:

重点:实现RAG应用

  1. 让agent做事

重点:实现插件制作

  1. 让agent工作

重点:实现工作流的编排

  1. 让agent应用

是开发者赋予agent的身份,能力和行为规范,他决定了agent的响应质量和风格

提示词帮助用户控制语言模型输出,生成适合的特定需求

提示词调整提供了对模型行为的直观控制,但对提示的确切措辞和设计敏感,因此需要精心定制的准则以实现期望

提示词两大分类:

提示词可以分为系统提示词和用户提示词,顾名思义,系统提示词一般是由开发者自己设置好的一个ai的人设,用户提示词就是用户在对话框中提出的具体指令

前者是大模型的角色定位和回复逻辑,并且回持续影响整个会话

后者是用户对话框输入,用于指导模型执行特殊任务

四个关键要素

  1. 角色定位:明确agent的身份,建立专业形象
  2. 技能描述:清晰的目标,让agent知道做什么
  3. 输出格式:结构化回复要求,确保输出规范
  4. 约束条件:限制不当行为,保证安全合规

Coze目前支持的提示词设计方法:直接编写,使用模板,通过ai自动生成

常用方法是,自己编写提示词+AI调优

案例演示:

点击创建按钮,会弹出如上界面,我们可以为智能体取名并且写介绍,一般会创建在我们的个人工作空间,最底下的图标,我们可以自己上传,也可以让ai帮我们生成,全部确认完毕后,点击确认

进入该界面,我们可以点击头像旁边的编辑去编辑前面设置的信息,也可以更改智能体的模式,是单agent还是多agent

最左边是我们写系统提示词的地方,中间模型选择默认的豆包1.8,最右边的就是我们测试的一个地方

我们可以发现,即使我们没有做任何配置,他也能进行一些基础的问答,他的核心就是底层的大模型

在进行系统提示词的设定后,智能体就会按照我们设定的人设进行回答

这个灯泡图案的按钮是提示词库,相当于给了你一个模板

我们可以在其中进行一些比较规范的填写

右边的提示词对比,我们可以给出两种提示词,然后进行对话,让我们自己判断哪个提示词更优

最右边的这个星星就是最重要的ai优化功能,对我们原本的提示词进行优化

可以看到ai对我们原本的提示词进行了一个全方面的拓展和改进

全称:Retrieval-Augmented Generation 检索增强技术

RAG是一种结合知识检索和语言生成的人工智能技术,主要用于解决大语言模型幻觉问题

在没有RAG时,我们处理问题就是直接将问题丢给大模型,得到结果

但是有了RAG之后,第一步是先将用户的问题和知识库进行相关性检索,检索出和问题相关的上下文

随后将问题和上下文进行一个融合拼接,再得到一个结果喂给大模型,最后得到结果

  1. 文档准备

支持纯文字类型,表格或者照片

给定的文档建议进行一些预处理,比如清理无关内容,按照主题分类整理,文件命名规范(含关键信息)

  1. 文档切片

切片,是为了适应大语言模型的上下文长度限制,并提升检索的精确度和效率

切分一般有三种方式

按字符数切分,按符号切分,按语义切分

我们一般选择按照符号和字符长度一起切分,尽量选择合适的长度,因为长度太小,会导致上下文不完整,检索不准,如果长度太长,又会导致无关信息过多,干扰判断

  1. 文档向量化

将切分后的文本进行向量数字化,便于计算问题和文档相似性

传统的匹配关键字很容易出现找不到答案的情况,但是RAG检索不会

假设你有这些文档:

文档A:Java是一门面向对象的编程语言

文档B:Python适合做数据分析和AI

文档C:Redis是一种高性能缓存数据库

你问:我想学AI,用什么语言好?

传统搜索:找不到(没有文档包含AI或语言)

向量搜索:

你的问题向量化后,会和文档B的向量靠得很近

因为AI和Python在语义空间里是关联的

系统检索到文档B,然后大模型基于它回答:Python适合做AI...

简单来说,他会把你的问题以及知识库中文档全部转换成一组向量,两组向量的距离越近,语义就越相近,他的实现是通过嵌入模型(Embedding Model)

比如

苹果 → [0.23, -0.45, 0.67, 0.12, ...](几百维的向量)

香蕉 → [0.21, -0.43, 0.70, 0.08, ...](很接近)

汽车 → [-0.52, 0.89, -0.12, 0.67, ...](差很远)

这个嵌入模型是怎么工作的呢?

他会先从海量的文本中训练,比如他读了很多篇文章,发现

苹果经常和水果、好吃、甜一起出现

苹果也经常和手机、乔布斯、库克一起出现

模型就会学到:这些词之间有某种关联。

结果:把这些关联编码成向量

语义相似的词/句子,向量就会靠近。

查阅ai目前有以下这些常见的模型

如果我们要用bge-large-zh模型

在python中的代码格式简单来说是这样:

from sentence_transformers import SentenceTransformer

model = SentenceTransformer('BAAI/bge-large-zh')

text = "我喜欢吃苹果"

vector = model.encode(text)

print(vector)

他会输出一个1024维度的向量

不同的模型输出的向量维度也不同,维度越高,语义信息就越丰富,同样的计算成本也会提高

那他会怎么去衡量相似度呢?

最常用的就是余弦相似度:相似度 = cos(向量A, 向量B)

范围:-1 到 1

1:完全相同

0:不相关

-1:完全相反

实际用的时候,值越接近1,说明越相似。

举个例子就是

他的相似图大概如下:

综上,我们就指导了,向量化的作用就是进行语义理解,相似度计算,以及快速检索

  1. 创建知识库

有时候第四第五步是一体执行

  1. 让智能体应用知识库

先进入智能体,随后构建提示词,选择知识库,最后通过调试,验证结果

一个智能体是可以关联多个知识库的,设置优先级可以控制检索的顺序

让大模型不再只会回答,而是可以执行任务

该功能是指在语言模型中集成外部功能或API的调用能力,这意味着模型可以在生成文本的过程中调用外部函数或服务,获取额外的数据或执行特定的任务

这个功能解决了大模型信息实时性以及数据局限性的问题,因为大模型训练的数据集无法包含最新的信息也无法覆盖所有领域,通过这个功能,模型就可以实时获取最新数据,提供更加时效的服务并获取特定领域的详细信息

当没有函数调用功能的时候,我们调用大模型构建ai应用非常的简单

用户发送请求给到服务->服务将提示词给到大模型->重复执行

上述图片我们可以看到,如果知识库中没有对应的信息,我们就无法得到想要的答案

有了函数调用之后:

发送请求给到我们的服务->我们的服务将提示词以及可用的工具给到大模型,大模型呢就会根据提示词来判断是否需要用到工具,随后发送请求给到服务,说我要调用这个工具,服务就去执行对应的函数,再将结果返回给大模型,大模型将提示词与得到的数据进行连贯的文本响应,将答案返回,这就是之前实操过的天气助手,他底层的沟通就是通过MCP协议

文本连贯性响应就是让输出保持一致性和逻辑性

总结就是大模型的Function call本身不会调用函数,只返回函数的参数,开发者利用模型输出的参数在后台调用函数

在Coze中,函数调用被包装成了插件,一个插件就是一个工具集,包含一个或者多个工具,每个工具=一个可调用的API

说到插件,我想推荐一下Claude code 的头脑风暴插件

直接去到github中搜索superpower,第一个就是,里面有详细的安装教程,这个插件启动就在cc提示词直接说就行,他会通过商议以及给方案的模式不断引导对话者,我个人用下来还是不错的,在进行架构设计这样的工作很好用

回到正题

Coze插件生态较为完善

有官方插件,第三方插件,也可自定义插件,里面有免费也有付费,我们可用自定义集成所有我们想要的API

我们进行一个简单的案例

业务需求是AI旅行规划助手

流程图如上

随后我们创建智能体,流程不变

可以看到,一个初始的小助手,只能依赖大模型本身来进行回答,他并没有给我们每天具体的天气

接下来我们对他进行优化

首先是提示词部分

现在,我们在系统提示词中就告诉了他要用什么工具去进行搜索,那么现在我们还没有这些插件,我们去进行添加

这里不一一演示

名称如下

联网问答:search_url

高德地图:Search_around

墨迹天气:DayWeather

简易计算器:calculate

想要搞来玩的同学可以参考

添加完毕

最后对提示词做一点小改动

再要调用的api位置输入一个大括号,然后会弹出现有插件,我们选择需要的就可以

可以看到,通过插件以及系统提示词的完善,现在智能体已经能够输出我们想要的答案

什么时候我们要自定义插件?

官方插件没有想要的功能

付费插件费用太贵

感觉自己做的比外面的好,总之肯定会有场景需要

具体步骤:

进入资源库 -> 新建插件(插件命名->IDE Python插件) -> 元数据操作(定义输入参数->定义输出参数) -> 代码编写 ->测试代码 -> 发布插件

实战演练:

目标:开发天气查询助手

具体设置如下

确认后进入界面

随后我们进行工具创建

他会有几行默认的要求

大概就是每个工具都需要有handler函数,要在元数据中声明函数输入和输出

我们具体的实现可以用千问阿豆包这样的大模型,或者直接叫cc生成对应的功能代码

需要注意的是生成代码之后,我们需要手动去添加对应的依赖包

对输入和输出进行声明

随后我们对功能进行测试

可以看到非常完美没有问题,星期四是测试当天的日期

这个源码只有北京和天津的数据,如果需要别的地区需要自主添加

好的测试通过我们就发布

随后再创建一个智能体来调用一下

首先可以看到没有插件的智能体无法查询

安装插件之后,智能体就成功调用了并返回了结果

将一个复杂的任务分解成一系列可管理的,按顺序或按条件执行的步骤,并通过图形化界面将这些步骤连接起来,有两种形式:对话流和工作流

节点是工作流的核心组件,每个节点是一个具有特定功能的独立组件,负责处理数据,执行任务

不同的节点有不同的功能,比如流程控制,能力调用,数据处理等等

我们就是要将这些不同功能的节点连接起来,从而精确的控制数据流向和任务执行顺序.实现复杂的业务逻辑

工作流常见的四种形式:

  1. 多步骤任务

特征:需要按顺序执行多个操作

案例:生成行业分析报告

步骤:搜索资料、提取信息、整理成文、格式化输出

  1. 条件分支

特征:根据不同情况走不同路径

案例:智能客服分流

步骤:判断问题类型、选择处理方式、返回结果

  1. 批量处理

特征:对多个对象执行相同操作

案例:批量生成图片

步骤:读取提示词列表、逐个生成图片、汇总输出

  1. 数据转换

特征:多环节的数据清洗与加工

案例:表格数据分析

步骤:读取数据、清洗格式、计算统计、可视化呈现

Step 1:创建工作流

操作路径:资源库 → +资源 → 工作流

设置内容:

工作流名称(清晰明确)

功能描述(帮助AI理解)

Step 2:编排工作流

核心操作:

在可视化画布中添加节点

连接节点形成数据流

配置每个节点的输入输出参数

设置内容:

开始节点 → LLM节点 → 插件节点 → 结束节点

Step 3:测试并发布

测试方法:点击测试按钮 → 输入测试数据 → 检查节点状态

发布流程:

测试通过后点击发布

发布后其他用户可以使用该工作流

核心功能设计:

  1. 智能意图识别
  2. 知识库智能检索:

命中相关内容->基于内容回答

未命中相关内容->基于通用知识回答

工作流程:

接下来开始进行创建,流程还是和之前一样

可以看到这个智能体我们选择了对话流的模式,界面与之前有所不同

未配置对话流他是无法工作的

我们选择创建对话流

之后我们进入这个界面,可以看到默认就有两个节点

开始节点中有用户输入和对话名称,这个不是重要的,重要的是我们的意图识别,作为一个客服,用户无非就三种常见需求,打招呼,找人工,问问题

他问问题时,我们才去进行RAG检索

那怎么去做这个意图识别呢

我们就需要去添加插件节点,其中的主要插件由我们自己定义

我们将鼠标放在下方添加节点,选择插件,然后创建插件,他会进入到我们的资源库,我们创建插件的流程与之前一样

注意元数据的部分要定义好

随后将代码进行测试,其实这种意图识别我们利用大模型来做会好一些,不过这也只是为了熟悉流程,我们测试完毕之后就可以发布,对应的代码我会一并发在群里

接下来将插件添加,我们在拖拉拽操作之后呢,要对意图识别节点的输入进行一个定义,选择的是开始节点的用户输入部分,同样的结束节点也需要定义,定义为识别的回复结果部分

添加完毕后,我们试运行

可以看到,这个对话流已经建好了

接下来我们进行知识库的构建,去实现RAG检索

根据前面所说,我们的意图识别可能会有三种结果,所有我们要添加一个选择器节点,去分析是否需要进行RAG检索

同样的,选择器的输入也需要定义,我们是判断问题的类型,类型的名称要与插件中定义的一致

接下来我们先添加一个知识库检索节点,再去创建我们对应的知识库

注意这里要选择的输入是原始问题

接下来创建知识库

选择表格形式

导入完之后,我们需要勾选一下question这个部分的内容,这个勾选是用于与用户问题检索的

随后下一步,等待数据处理完毕

这样我们就基本完成,下一步就是需要一个大模型来处理我们的信息最后输出,但是给大模型处理前呢,我们还需要进行一个判断,那就是知识库能不能检索出答案,如果可以就将问题和上下文一起给大模型

如果不能,直接把问题丢给大模型,那么这里就又需要一个选择器

随后对模型进行处理,确定输入以及系统提示词,还有用户提示词

最后改变一下结束节点的输出变量

把所有回答都进行设置

现在,整个跨境电商助手的对话流agent已经基本完成

整体预览:

效果演示:

最后我们发布,再添加到我们的智能体中

到此,Coze平台大部分功能已经学习完毕

第一次写博客,如有不足欢迎指正

小讯
上一篇 2026-04-19 19:42
下一篇 2026-04-19 19:40

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/271589.html