2026年经验分享-如何使用http调用chatGPT-3.5-turbo模型API

经验分享-如何使用http调用chatGPT-3.5-turbo模型APIp 今天上午 就在工作群里收到了关于 openAI 发布 chatGPT 官方模型的消息分享 openAI 这次的动作真的很快啊 没想到这么快就直接发布了 chatGPT 目前所使用的模型 api 据 Open AI 在官方消息 本次开放了 ChatGPT 和 Whisper 的模型 API p

大家好,我是讯享网,很高兴认识大家。



 <p>         今天上午&#xff0c;就在工作群里收到了关于openAI发布chatGPT官方模型的消息分享。openAI这次的动作真的很快啊&#xff0c;没想到这么快就直接发布了chatGPT目前所使用的模型api。据Open AI在官方消息&#xff0c;本次开放了ChatGPT和Whisper的模型API&#xff0c;可以供用户使用并集成到他们的应用程序之中。本次发布的chatGPT的模型为[GPT-3.5-turbo]&#xff0c;从openAI的官方网站上查询&#xff0c;已经可以查到这个模型的使用示例。本次发布的模型&#xff0c;能力上和目前我们用到的chatGPT是一模一样的&#xff0c;比之前开放的模型能力要强很多&#xff0c;同时在价格上还要更低&#xff0c;价格为0.002美元/每1000tokens &#xff0c;比 之前的模型整整便宜了10倍&#xff01;又好又便宜的典范&#xff01;&#xff01;</p> 

讯享网

        废话少说,本文就简单的讲讲如何使用最新的[GPT-3.5-turbo]模型吧。

        从openAI官方文档里查阅了一下示例代码,官方提供了Python的示例代码,我们可以从中提取到所需要发送的报文内容。

讯享网

Python示例代码

        可以发现,GPT-3.5-turbo的api需要发送的报文主体有“model”以及“messages”两个部分,其中messages可以发送多条记录。在message示例文本里,有三种角色,通过实测,这三种角色分别代表:

        ①system:可以理解为AI的人设

        ②user:用户发送的信息

        ③assistant:模型返回给你的信息

        这样,我们就知道通过上述信息,知道http需要发送的报文格式了(Json):

 

发送的报文格式样例

接口的访服务地址是什么呢?我问了下chatGPT,给我的答案是:

https://api.openai.com/v1/chat/completions

Header信息:

①ContentType:application/json

②Authorization:Bearer 你的apikey

        使用api调试助手实测一下,在Header里写入你的api key;raw信息选择json,根据你的需要发送Json报文,openAI返回的数据格式如下所示:

讯享网

接口返回的报文格式

        拿到接口返回的Json数据,根据自己的需要解析就可以了,这里“content”里的文本就是接口返回给你的回答了。

        注意:有一点要注意,观察发送的报文格式,可以发现,接口是希望我们把每次提问和接口返回的信息都放在报文里的,这样做可以让模型联系上下文,所以在自己编写代码的时候,记得把提问记录并更新到发送的报文主体里。


小讯
上一篇 2026-03-09 16:02
下一篇 2026-03-09 16:04

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/209412.html