2024OpenAI平台使用指引手册

2024OpenAI平台使用指引手册p 平台使用指引 1 介绍概述 OpenAIAPI 提供一系列具有不同功率级别的模型微调的自定义模型 这些模型可用于从内容生成到语义搜索和分类的所有领域 关键概念念 快速入门教程通过构建快速示例应用程序进行学习提示文本 prompt 和输入文本框输入文本框位于我们 API 提示补全您提供的任何上下文或模式 例如 如果您给 API 语 它会返回一个完成 例如 我们为每一勺都带来微笑 p

大家好,我是讯享网,很高兴认识大家。这里提供最前沿的Ai技术和互联网信息。



 <p>平台使用指引1介绍概述OpenAIAPI提供一系列具有不同功率级别的模型微调的自定义模型。这些模型可用于从内容生成到语义搜索和分类的所有领域。关键概念念。快速入门教程通过构建快速示例应用程序进行学习提示文本(prompt)和输入文本框输入文本框位于我们API提示补全您提供的任何上下文或模式。例如,如果您给API语”,它会返回一个完成,例如“我们为每一勺都带来微笑!”设计提示文本NLP服务,例如情感分类或命名扩展、对话、创意写作、风格转换等。(Tokens)hmbughmbu“ge在给定的API请求中处理的字符串的数量取决于输入和输出的长度。根据粗略的经验法则,对于英文文本,1个字符串标记大约为4个字符或0.75个单词。要记住的一个限制是,您的文本提示和生成的完成组合不能超过模型的最大上下文长度(对于大多数模型,这是2048个字符串,或大约1500个单词)。查看我们的分词器工具,了解有关文本如何转换为分词的更多信息。模型API由一组具有不同功能和价位的模型提供支持。我们的基础GPT-3模型称为Davinci、Curie、Babbage和Ada。我们的Codex系列是GPT-3的后代,已接受自然语言和代码方面的培训。要了解更多信息,请访问我们的模型文档。快速开始OpenAI训练了非常擅长理解和生成文本的尖端语言模型。我们的API提供对这些模型的访问,可用于解决几乎任何涉及处理语言的任务。习使用API完成任何任务的关键概念和技术,包括:内容生成总结分类、分类和情感分析数据提取翻译还有很多!介绍文本输入框是我们API的核心,它提供了一个极其灵活和强大的简单入口。输入一些文本作为提示补全的回复何指令或上下文。回复)来最有可能出现的内容。从输入指令开始假设您想创建一个宠物名字生成器。从头开始想出名字很难!提示以生成您的第一个完成。Suggestonenameforahorse.不错!现在,试着让你的指示更具体。Suggestonenameforablackhorse.输入提示本质上就是您“编程”模型的方式。添加一些例子指令更复杂。Suggestthreenamesforahorsethatisasuperhero.令中的马匹部分。让我们看看能否让它提出一些更相关的建议。Suggestthreenamesforananimalthatisasuperhero.Animal:CatNames:CaptainSharpclaw,AgentFluffball,TheIncredibleFelineAnimal:DogNames:RufftheProtector,WonderCanine,SirBarks-a-LotAnimal:HorseNames:型。调整您的设置重要的设置之一称为temperature。0。尝试将temperature设置为1重新提交几次相同的提示。看看发生了什么?当温度高于0时,每次提交相同的文本提示会导致不同的文本补全结果。0和1更多样化的完成。对于您的昵称生成器,您可能希望能够生成很多名字创意。0.6的适中温度应该可以正常工作。构建您的应用程序Node.JS现在您已经找到了一个好的提示和设置,您已经准备好构建您的爱称生成器了!我们编写了一些代码来帮助您入门-按照以下说明下载代码并运行应用程序。设置如果您没有安装Node.js,请从此处安装。然后通过克隆此存储库下载代码。如果您不想使用git,您也可以使用此zip文件下载代码。添加您的API密钥导航到项目目录并复制示例环境变量文件。复制您的秘密API密钥并将其设置为OPENAI_API_KEY您新创建的.env文件中的。如果您还没有创建密钥,您可以在下面创建。重要说明:使用Javascript时,所有API在客户端浏览器代码中进行调用会暴露您的API参见此处。运行应用在项目目录下运行以下命令安装依赖并运行应用程序。在浏览器中打开http://localhost:3000,您应该会看到昵称生成器!理解代码generate.jsopenai-quickstart-node/pages/api。在底部,您将看此它会动态换出指定动物的提示部分。在中的第9行generate.js,您将看到发送实际API请求的代码。如上所述,它使用温度为0.6的完成端点。就是这样!您现在应该完全了解您的(超级英雄)宠物名称生成器如何使用OpenAIAPI!现在您已经找到了一个好的提示和设置,您已经准备好构建您的爱称生成器了!我们编写了一些代码来帮助您入门-按照以下说明下载代码并运行应用程序。PYTHON(FLASK)设置如果您没有安装Python,请从此处安装。然后通过克隆此存储库下载代码。如果您不想使用git,您也可以使用此zip文件下载代码。添加您的API密钥导航到项目目录并复制示例环境变量文件。复制您的秘密API密钥并将其设置为OPENAI_API_KEY您新创建的.env文件中的。如果您还没有创建密钥,您可以在下面创建。运行应用python3/pip3python/pip,具体取决于您的设置。在浏览器中打开http://localhost:5000,您应该会看到昵称生成器!理解代码app.pyopenai-quickstart-python出指定动物的提示部分。在中的第14行app.py,您将看到发送实际API请求的代码。如上所述,它使用温度为0.6的完成端点。就是这样!您现在应该完全了解您的(超级英雄)宠物名称生成器如何使用OpenAIAPI!结尾理任务,包括内容生成、摘要、语义搜索、主题标记、情感分析等等。要记住的一个限制是,对于大多数模型,单个API请求在提示和完成之间最多只能处理2,048个标记(大约1,500个单词)。深入了解我们提供一系列具有不同功能和价位的型号果。text-davinci-003单个请求(提示和完成)中处理的字符串总数不能超过模型的最大上下文长度。对于大多数模型,这是2,048个标记或大约1,500个单词。根据粗略的经验法则,对于英文文本,1个标记大约为4个字符或0.75个单词。定价为每1,000个字符串即用即付,前3个月可使用18美元的免费信用额度。了解更多。API微调提供数百甚至数千个示例来为您的特定用例定制模型。Libraries(库文件)Python库我们提供了一个Python库,您可以按如下方式安装它:安装后,您可以使用绑定和您的密钥运行以下命令:绑定还将安装一个命令行实用程序,您可以按如下方式使用:Node.js库我们还有一个Node.js库,您可以通过在Node.js项目目录中运行以下命令来安装它:安装后,您可以使用该库和您的密钥运行以下命令:其他维护库文件照我们帮助中心文章中有关添加社区库的说明进行操作。请注意,OpenAI不会验证这些项目的正确性或安全性。C#/.NETBetalgo.OpenAI.GPT3byBetalgoCrystalopenai-crystalbysferikGogo-gpt3bysashabaranovJavaopenai-javabyTheoKanningKotlinopenai-kotlinbyMouaadAallamNode.jsopenai-apibyNjerschowopenai-api-nodebyerlapsogpt-xbyceifagpt3bypoteatgptsbythencc@dalenguyen/openaibydalenguyentectalic/openaibytectalic</p> 

GPT plus 代充 只需 145

PHPorhanerday/open-aibyorhanerdaytectalic/openaibytectalicPythonchronologybyOthersideAIRrgpt3byben-aaron188Rubyopenaibynileshtrivediruby-openaibyalexrudallScalaopenai-scala-clientbycequence-ioSwiftOpenAIKitbydylanshineUnityOpenAi-Api-UnitybyhexthedevUnrealEngineOpenAI-Api-UnrealbyKellanM模型概述OpenAIAPI由一系列具有不同功能和价位的模型提供支持。您还可以通过微调为您的特定用例自定义我们的基本模型。楷模 描述GPT-3 一组可以理解和生成自然语言的模型CodexLimitedbeta

一组可以理解和生成代码的模型,包括将自然语言翻译成代码Contentfilter 可以检测文本是否敏感或不安全的微调模型们的数据来提高其准确性、功能和安全性。了解更多。访问我们的研究人员模型索引InstructGPT和GPT-3.5等模型系列之间的差异。GPT-3我们的GPT-3快的。最新款描述最大请求字符串训练数据text-davinci-003功能最强大的GPT-3模型。4,000截至2021可以完成其他模型可以完成年6月的任何任务,通常具有更高的质量、更长的输出和更好的指令遵循。还支持在文本中插入补全。text-curie-001非常有能力,但比达芬奇更2,048截至2019快,成本更低。年10月text-babbage-001能够执行简单的任务,速度非2,048截至2019常快,成本更低。年10月text-ada-001能够执行非常简单的任务,通2,048截至2019常是GPT-3系列中最快的年10月型号,而且成本最低。虽然Davinci通常是最有能力的,但其他模型可以以显着的速度或成本优势非更快,成本仅为达芬奇的1/10。我们建议在试验时使用通过在特定任务上微调其他模型来提高它们的性能。特定功能模型主要的GPT-3模型旨在与文本完成端点一起使用。我们还提供专门用于其他端点的模型。我们的GPT-3模型的旧版本有davinci、curie、babbage和ada。这些旨在与我们的微调端点一起使用。了解更多。我们用于创建嵌入和编辑文本的端点使用它们自己的一组专用模型。达芬奇DavinciDavinciDavinci每次APIDavinci题。擅长:复杂的意图、因果、为听众总结居里Curie居里非常强大,但速度非常快。虽然Davinci在分析复杂文本方面更强大,但Curie能够胜任许多细微的任务,例如情感分类和摘要。Curie还非常擅长回答问题和执行问答以及作为通用服务聊天机器人。擅长:语言翻译、复杂分类、文本情感、摘要巴贝奇BabbageBabbage可以执行简单的任务,例如简单的分类。在语义搜索方面,它也非常有能力对文档与搜索查询的匹配程度进行排名。擅长:适度分类、语义搜索分类阿达AdaAda通常是最快的模型,可以执行解析文本、地址更正和不需要太多细微差别的某些分类任务等任务。Ada的性能通常可以通过提供更多上下文来提高。擅长:解析文本、简单分类、地址修正、关键词注意:由像Ada这样更快的模型执行的任何任务都可以由像Curie或Davinci这样更强大的模型执行。OpenAI模型是不确定的,这意味着相同的输入可以产生不同的输出。将温度设置为0将使输出大部分具有确定性,但可能会保留少量可变性。找到合适的模型使用Davinci进行试验是了解API功能的好方法。在您了解您想要完成的任务后,如果您不关心成本和速度,您可以继续使用Davinci,或者转向Curie或其他模型并尝试围绕其功能进行优化。您可以使用GPT比较工具,让您并排运行不同的模型来比较输出、设置和响应时间,然后将数据下载到Excel电子表格中.xls。考虑语义搜索的模型可以超越自身。了解居里的能力Davinci在理解文本和生成更细微的响应(例如为孩子总结或模仿人类说话模式)方面能力更强,而Curie在分析文本、回答直接问题和提供关键点方面能力更强。关键点例如,居里可以使用维基百科的Pluto条目列出文本中的关键点。查看示例。这个例子说明Curie非常有能力从文本中获取重要信息,并且对各种应用程序非常有用,包括:将技术文档变成要点从电子邮件中提取重要信息从客服沟通中获取要点生成报告您可以使用Curie(或Davinci)分析文本并回答特定问题,进一步扩展关键点提取。在此示例中,我们将使用Curie阅读来自客户的电子邮件并提供对预设问题列表的回答。查看示例。值得提请注意此提示中发生的两件事,它们有助于改进整体提示设计:提取数据时使用低温度设置们并不是要模型在回答时尝试发挥创意——尤其是对于是或否的问题。使用一个API调用来回答多个问题通过提供问题列表,然后用第一个提示提示,表明答案应该与之前的问题相关,我们能够获得一个API调用来回答四个问题(可能更多)。通过提出四个问题,我们将API调用的效率提高了4倍。如果此任务之前由Davinci通过每个问题调用一个API来完成,那么使用Curie并以这种方式优化提示可以提供成本效益以及Curie相对于Davinci的速度优势。了解巴贝奇的能力Babbage擅长从文本中提取明显的模式,然后将其用作生成文本的参考。Babbage对于创意应用,巴贝奇能够理解足够的结构来创建简单的情节和标题。想法迭代你可以给Babbage一个简单的提示,比如“提供更好的YouTube视频的7例。句子补全Babbage可以作为一个很好的头脑风暴工具,帮助人们完成他们的想法。如果你开始一个段落或句子,Babbage可以快速获取上下文并充当写作助手。查看示例。地块生成如果您向Babbage提供特定类型的情节创意列表,它可以继续添加到该列表中。如果您选择好的并删除其他的,您可以继续将不断增长的列表发送到API并改进结果。了解Ada的功能当涉及到创造力比精度更重要的任务时,Ada的速度非常快,能力也非常强。这对于创意应用程序和生成大型数据集非常有用。随机数据Ada可以快速生成大量数据,如姓名和地址,用于实验、构建机器模型和测试应用程序。人物描述您可以使用Ada通过向API发送少量示例来创建角色描述。通过调整温度和重复设置,您可以控制生成示例的随机性。法典Codex有限公测Codex模型是我们可以理解和生成代码的GPT-3模型的后代。他们的训练数据包含自然语言和来自GitHub的数十亿行公共代码。了解更多。他们最擅长Python,精通JavaScript、Go、Perl、PHP、Ruby、Swift、TypeScript、SQL甚至Shell等十几种语言。我们目前提供两种Codex型号:最新款描述最大请求训练数据代码-davinci-002功能最强大的Codex插入全。8,000代币个截至2021年6月代码-cushman-001几乎与DavinciCodex一样强大,但速度稍快。这种速度优势可能使其成为实时应用程序的首选。最多2,048代币个有关更多信息,请访问我们的Codex工作指南。Codex模型在有限测试期间可免费使用,并受降低的速率限制的约束。当我们了解使用情况时,我们将寻求提供定价以支持广泛的应用程序。期使用这些模型时提供任何反馈,并期待与社区互动。特定功能模型主要的Codex模型旨在与文本完成端点一起使用。我们还提供专门用于我们的端点以创建嵌入和编辑代码的模型。内容过滤器我们建议使用我们新的审核端点而不是内容过滤器模型。该过滤器旨在检测来自APIassafe、sensitiveunsafe。过滤器会出错,我们目前已将其构建为谨慎行事,从而导致更高的误报率。标签说明-文本是安全的。宗教,或谈论受保护的阶级,如种族或国籍。能是NSFW的内容,或者以有害方式描绘某些群体/人的文本。你如何使用过滤器?您需要将completions端点与content-filter-alpha模型和以下设置一起使用:max_tokens设置为1temperature设置为0.0top_p0logprobs设置为10按以下方式包装您的提示:换句话说,如果您正在执行curl命令,它看起来像(替换[]中的变量):或者通过我们的openaipython客户端:重要的是,您不仅需要检查过滤器返回的标签(0、1或2),有时还需要检查与这些标签相关联的日志概率。如果过滤器返回0或则仅当其logprob大于-0.355时才应接受此结果。如果2的logprob低于-0.355(例如,-0.4),那么您应该使用0或1中logprob更接近0的那个作为输出。这是


小讯
上一篇 2026-03-10 21:39
下一篇 2026-03-10 21:41

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/212001.html