OpenAI发布GPT-5.4:迈向自主智能体的重要一步

OpenAI发布GPT-5.4:迈向自主智能体的重要一步p 来源 财联社 p p cms style font L font cms style font L strong Bold 财联社 3 月 6 日讯 编辑 牛占林 font 当地时间周四 OpenAI 正式推出 GPT 5 4 这是其最新一代 AI 旗舰模型 p

大家好,我是讯享网,很高兴认识大家。



 <p>  (来源:财联社)</p><p cms-style="font-L">  <font cms-style="font-L strong-Bold">财联社3月6日讯(编辑 牛占林)</font>当地时间周四,OpenAI正式推出GPT-5.4,这是其最新一代AI旗舰模型。据该公司介绍,新模型在推理能力、编程能力,以及处理涉及电子表格、文档和演示文稿等专业办公任务方面均取得明显进步,并且在完成任务时需要用户反复交互的次数更少。</p><p cms-style="font-L">  同时,这也是OpenAI首款具备原生计算机使用能力的模型,这意味着它可以代表用户操作电脑,在不同应用程序之间执行任务并完成工作流程。</p><p cms-style="font-L">  这一新模型的发布,标志着AI企业竞相构建的"智能体未来"又向前迈进了一步。在这一愿景中,由AI驱动的智能体网络将在后台自主运行,完成复杂的线上及软件内任务。</p><p cms-style="font-L">  此前,OpenAI已推出ChatGPT Agent,而去年市场上也涌现出一批类似的智能体工具,它们能够控制用户的计算机执行特定操作,例如搜索并购买烹饪食材。</p><p cms-style="font-L">  目前,OpenAI正将GPT-5.4向其API接口及AI编程工具Codex开放,同时将推理模型GPT-5.4 Thinking部署至ChatGPT平台。</p><p cms-style="font-L">  据OpenAI介绍,GPT-5.4不仅能够编写代码来操控计算机,还能根据屏幕截图发出键盘和鼠标指令。该模型在使用网页浏览器、调用工具及API以辅助任务完成方面,也展现出更高的准确性和效率。</p><p cms-style="font-L">  此外,GPT-5.4在处理需要整合多源信息的复杂查询时表现更为出色。OpenAI表示,该模型"能够进行多轮持续搜索,精准识别最相关的信息源,尤其擅长解答'大海捞针'式的难题,并将搜索结果整合为清晰、条理分明的答案"。</p><p cms-style="font-L">  OpenAI宣称GPT-5.4是其"迄今为止事实性最强的模型",单个陈述的失实概率较GPT-5.2降低了33%。</p><p cms-style="font-L">  在ChatGPT内部,GPT-5.4 Thinking针对复杂查询将提供工作思路大纲,同时允许用户在模型生成回应的过程中随时调整或修改请求。</p><p cms-style="font-L">  OpenAI表示:"这使得用户无需重新开始对话或进行多轮额外交互,即可引导模型精准输出预期结果。"该功能目前已上线ChatGPT网页端及安卓应用,iOS版本则"即将推出"。</p><p cms-style="font-L">  GPT-5.4现已面向ChatGPT、Codex及API全面推出,其中GPT-5.4 Thinking模型将向Plus、Team和Pro用户开放。此外,针对"复杂任务最高性能需求"的GPT-5.4 Pro模型也将通过API上线,并向ChatGPT企业版和Edu用户开放。</p><p cms-style="font-L">  近几个月来,OpenAI、Anthropic 以及其他AI开发商陆续发布多款新模型,并宣称这些模型能够代表用户完成更广泛的工作任务。这些能力是在此前AI工具已经成功帮助开发者提高代码编写和调试效率的基础上进一步扩展的。</p><p cms-style="font-L">  这一趋势已经令部分传统软件公司投资者感到不安,因为有人担心,这些传统软件企业未来可能被AI公司所取代。</p> <div style="font-size: 0px; height: 0px; clear: both;"></div> 

讯享网
小讯
上一篇 2026-03-09 12:50
下一篇 2026-03-09 12:53

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/209283.html