功能:创建一个聊天接口地址:POST https://api.openai.com/v1/chat/completions (Beta)
请求参数(Request body):
model: string 必须
使用的模型,只有 gpt-3.5-turbo 和 gpt-3.5-turbo-0301 两个取值
messages:array 必须
需要传入的内容,里面包括role,centent两个字段,举例:
PowerShell
“messages”: [{“role”: “user”, “content”: “Hello!”}]
temperature:number 可选 默认 1
数字0~2之间
数字越大,答案越随机,开放,比如1.8
数字越小,答案越固定,聚焦,比如0.2
建议不要同时和top_p修改
top_p:可选 默认 1
和temperature差不多,数字越大,答案越随机,开放
数字越小,答案越固定
建议不要同时和top_p修改
n:number 可选 默认 1
产生的结果个数
stream:boolean 可选 默认 false
设置为true,则结果为数据流,和官网chatgpt一样,产生一个字符返回一个字符,服务端需要支持server-sent events
stop:string or array 可选 默认 null
最多4个序列,API将停止生成更多tokens
max_tokens:integer 可选 默认值 inf
结果最大能产生的tokens数,默认可以返回 4096-输入tokens
presence_penalty number 可选 默认 0
数字介于-2.0和2.0之间。正值根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。
frequency_penaley:number 可选 默认 0
数字介于-2.0和2.0之间。正值根据文本中的现有频率惩罚新标记,从而降低模型逐字重复同一行的可能性。
logit_bias:map 可选 默认 null
修改完成时出现指定标记的可能性。
接受一个json对象,该对象将token(由令牌ID指定)映射到-100到100之间的相关偏差值。在数学上,在采样之前,将偏差添加到模型生成的逻辑中。每个模型的确切效果会有所不同,但介于-1和1之间的值应该会降低或增加选择的可能性;像-100或100这样的值应该会导致相关token的禁止或独占选择。
user:string 可选
唯一终端用户身份,可以帮助openai监测滥用
调用官方API接口需要获取APIkey,获取地址:chat.xingtupai.com
请求示例:
curl:
curl https://api.openai.com/v1/chat/completions </span> -H ‘Content-Type: application/json’ </span> -H ‘Authorization: Bearer YOUR_API_KEY’ </span> -d ‘{ “model”: “gpt-3.5-turbo”, “messages”: [{“role”: “user”, “content”: “Hello!”}] }’
讯享网
python:
部署源码:https://github.com/openai/openai-python
调用示例:
Python
讯享网import os import openai openai.api_key = os.getenv(“OPENAI_API_KEY”)
completion = openai.ChatCompletion.create( model=“gpt-3.5-turbo”, messages=[
<span class="p">{</span><span class="s2">"role"</span><span class="p">:</span> <span class="s2">"user"</span><span class="p">,</span> <span class="s2">"content"</span><span class="p">:</span> <span class="s2">"Hello!"</span><span class="p">}</span>
] )
print(completion.choices[0].message)
node.js:
部署源码:https://github.com/openai/openai-node
调用示例:
JavaScript
讯享网import os import openai openai.api_key = os.getenv(“OPENAI_API_KEY”)
completion = openai.ChatCompletion.create( model=“gpt-3.5-turbo”, messages=[
<span class="p">{</span><span class="s2">"role"</span><span class="o">:</span> <span class="s2">"user"</span><span class="p">,</span> <span class="s2">"content"</span><span class="o">:</span> <span class="s2">"Hello!"</span><span class="p">}</span>
] )
print(completion.choices[0].message)
讯享网{ “model”: “gpt-3.5-turbo”, “messages”: [{“role”: “user”, “content”: “Hello!”}] }
{ “id”: “chatcmpl-123”, “object”: “chat.completion”, “created”: , “choices”: [{
讯享网<span class="nt">"index"</span><span class="p">:</span> <span class="mi">0</span><span class="p">,</span> <span class="nt">"message"</span><span class="p">:</span> <span class="p">{</span> <span class="nt">"role"</span><span class="p">:</span> <span class="s2">"assistant"</span><span class="p">,</span> <span class="nt">"content"</span><span class="p">:</span> <span class="s2">"\n\nHello there, how may I assist you today?"</span><span class="p">,</span> <span class="p">},</span> <span class="nt">"finish_reason"</span><span class="p">:</span> <span class="s2">"stop"</span>
}], “usage”: {
<span class="nt">"prompt_tokens"</span><span class="p">:</span> <span class="mi">9</span><span class="p">,</span> <span class="nt">"completion_tokens"</span><span class="p">:</span> <span class="mi">12</span><span class="p">,</span> <span class="nt">"total_tokens"</span><span class="p">:</span> <span class="mi">21</span>
} }
错误结果:
讯享网{ “error”: { “message”: “‘doctor’ is not one of [‘system’, ‘assistant’, ‘user’] - ‘messages.0.role’”, “type”: “invalid_request_error”, “param”: null, “code”: null } }
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/209736.html