【动手学大模型开发】使用 LLM API:讯飞星火

【动手学大模型开发】使用 LLM API:讯飞星火h4 id name strong 嗨 我是青松 很高兴遇到你 strong h4 希望用我的经验 让每个人的 AI 学习之路走的更容易些

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 

🌈 嗨,我是青松,很高兴遇到你!

 希望用我的经验,让每个人的AI学习之路走的更容易些~

专栏:|


目录

3.1 API 申请指引

3.2 通过 SDK 方式调用(推荐使用)

3.3 通过 WebSocket 调用


讯飞星火认知大模型,由科大讯飞于 2023 年 5 月推出的中文大模型,也是国内大模型的代表产品之一。同样,受限于中文语境与算力资源,星火在使用体验上与 ChatGPT 还存在差异,但是,作为与文心不分伯仲的国内中文大模型,仍然值得期待与尝试。相较于存在显著资源、技术优势的百度,科大讯飞想要杀出重围,成为国内大模型的佼佼者,需要充分利用相对优势,至少目前来看,星火并未掉队。

3.1 API 申请指引

讯飞星火平台提供了 Spark3.5 Max、Spark4.0 Ultra 等多种模型的免费额度,我们可以在平台领取免费 tokens 额度,点击:

领取免费试用包后,点击进入控制台并创建应用,创建完成后,就可以看到我们获取到的 、 和  了:

星火提供了两种调用模型的方式,一种是 SDK 方式调用,上手难度小,推荐初学者使用;另一种是 WebSocket 方式调用,对企业友好,但对初学者、新手开发者来说调用难度较大。下面会具体介绍这两种调用方式。

3.2 通过 SDK 方式调用(推荐使用)

首先执行以下代码,将密钥加载到环境变量中。

Copy to clipboardErrorCopied

然后我们使用 SDK,封装一个  函数供后续使用。

Copy to clipboardErrorCopied
Copy to clipboardErrorCopied
Copy to clipboardErrorCopied

3.3 通过 WebSocket 调用

通过 WebSocket 进行连接的方式相对来说配置较为复杂,讯飞给出了调用示例 ,点击对应的语言调用示例下载即可。这里我们以 Python 调用示例为例进行讲解,下载后我们可以得到一个  文件,文件中包含了服务端封装和客户端调用的实现。

需要注意的是,直接运行官方示例的  文件会有报错,需要做如下修改:

(1)注释掉如下行:(代码中并未使用到这个包,如未安装,则会提示 ModuleNotFoundError);

(2)修改  函数(该函数接收 3 个入参),修改后的函数如下:

Copy to clipboardErrorCopied

然后我们运行一下修改后的官方示例代码。注意:在运行之前,还需要把在上一节中获取到的 API 的密钥赋值给  函数的入参 、、。

执行 ,可以得到如下的输出结果:

可以注意到,官方示例的输出结果中除了 LLM 的回答内容外,还包含标识回答结束(“# 关闭会话”、“ close ”)的打印日志,如果只想保留原始输出内容,可以通过修改源代码来进行优化。

我们基于  文件,同样封装一个  函数,用于后续章节的调用。

首先执行如下代码,读取  文件的密钥配置。

Copy to clipboardErrorCopied

星火大模型 API 当前有 V1.5、V2.0、V3.0 和 V3.5 四个版本,四个版本独立计量 tokens。 函数封装如下:

Copy to clipboardErrorCopied
Copy to clipboardErrorCopied
Copy to clipboardErrorCopied

需要注意的是,在官方示例  文件中, 参数并不支持外部传入,而是固定值为 0.5,如果不想使用默认值,可以通过修改源代码实现支持外部参数传入,这里就不额外讲解了。

小讯
上一篇 2026-04-01 23:14
下一篇 2026-04-01 23:12

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/226871.html