<p> (来源:智东西)</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/141/w660h281//65d4-1e031894fc13dd93ebbc64f287ee5b86.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="281" wh="2.35"/></div><p cms-style="font-L align-Center strong-Bold"> 智东西</p><p cms-style="font-L align-Center strong-Bold"> 编译 程茜</p><p cms-style="font-L align-Center strong-Bold"> 编辑 李水青</p><p cms-style="font-L"> 智东西3月6日消息,今日凌晨,OpenAI<font cms-style="font-L strong-Bold">GPT-5.4</font>系列模型来了,ChatGPT、API和Codex同步上线,这是其<font cms-style="font-L strong-Bold">首款具备原生、最先进计算机使用能力</font>的通用模型。</p><p cms-style="font-L"> 根据OpenAI的官方测评结果,GPT-5.4在电脑操控、知识工作、工具使用等综合任务上<font cms-style="font-L strong-Bold">全面领先GPT-5.2、Claude Opus 4.6、Gemini 3.1 Pro</font>等顶尖模型。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/235/w660h375//2e41-6bde11c45afe631d105ade4f43.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="375" wh="1.76"/></div><p cms-style="font-L"> OpenAI联合创始人、CEO萨姆·阿尔特曼(Sam Altman)在社交平台X上称,GPT-5.4在知识工作和网页搜索方面做得更好。OpenAI高级研究科学家、德扑AI之父Noam Brown也发帖称,GPT‑5.4在电脑操控能力与具备经济价值的任务上实现了巨大飞跃,他们看不到能力天花板,预计今年AI的整体性能仍将持续大幅提升。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/211/w660h351//94f8-e4e118ec6b184f881a897f86b.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="351" wh="1.88"/></div><p cms-style="font-L"> GPT-5.4今天将逐步上线<font cms-style="font-L strong-Bold">ChatGPT、Codex、API</font>,但其思考模型仅正式向ChatGPT Plus、Team及Pro用户开放,替代原有GPT‑5.2思考模式。GPT‑5.2思考模式将在模型选择器的旧版模型专区为付费用户再保留三个月,随后将于2026年6月5日下线。</p><p cms-style="font-L"> GPT-5.4 Pro适合需要在复杂任务中达到最大性能的开发者,将为Pro与企业版用户提供。</p><p cms-style="font-L"> 定价方面,GPT-5.4的<font cms-style="font-L strong-Bold">单token定价高于GPT‑5.2</font>,但OpenAI博客提到,它更高的token效率可降低多数任务的总token消耗量。</p><p cms-style="font-L"> 值得一提的是,Codex中的GPT‑5.4已实验性支持<font cms-style="font-L strong-Bold">100万上下文窗口</font>,超出标准272K上下文窗口的请求,将按正常用量的2倍计入使用额度。此外,批量处理与弹性计费价格为标准API费率的一半,优先处理则为标准费率的2倍。</p><p cms-style="font-L"> 输入价格,GPT-5.4相对GPT-5.2涨幅超过<font cms-style="font-L strong-Bold">40%</font>,输出价格涨幅为<font cms-style="font-L strong-Bold">7.14%</font>。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/175/w660h315//3d8c-b4f699f7f18ce93dbdc3ae93325b89a2.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="315" wh="2.10"/></div><p cms-style="font-L"> 参与早期测试的开发者、AI写作助手公司HyperWrite CEO Matt Shumer对GPT-5.4开启了夸夸夸模式,称其是世界上最好的模型,并且相比Pro更常用GPT-5.4的标准版,<font cms-style="font-L strong-Bold">编程能力好到离谱</font>。</p><p cms-style="font-L"> 还有网友称苹果发了MacBook Neo,OpenAI转头就上线100万token上下文+原生电脑操控,“笔记本正经历存在主义危机”。但有开发者吐槽,GPT-5.4的<font cms-style="font-L strong-Bold">价格太疯狂了,完全没法基于它做开发</font>。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/210/w660h350//f641-b3fea802a851e46eb419.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="350" wh="1.89"/></div><p cms-style="font-L"> <font cms-style="font-L strong-Bold">一、OpenAI首个能原生操作电脑的模型上线,token使用效率更高</font></p><p cms-style="font-L"> GPT‑5.4继承了OpenAI近期在推理、代码生成与智能体工作流领域的顶尖技术成果。</p><p cms-style="font-L"> 该模型继承了GPT‑5.3‑Codex的编程能力,并优化了模型在各类工具、软件环境及专业任务中的协同表现,涵盖表格、演示文稿与文档处理等场景。这使得GPT‑5.4能够精准、高效、可靠地完成复杂的实际工作,直接交付用户想要的结果。</p><p cms-style="font-L"> ChatGPT的推理模式中,GPT-5.4思考模式可以提前展示思考规划,用户可以在模型运行过程中调整方向,无需额外交互轮次,就能实现更符合需求的输出。</p><p cms-style="font-L"> 面对更长、更复杂的查询,ChatGPT中的GPT‑5.4思考模式会先以一段前置说明来规划解题步骤。用户可以在回复过程中补充指令或调整方向,无需重新开始或多轮追问,就能引导模型得到你想要的精确结果。</p><p cms-style="font-L"> 针对复杂任务,该模型能进行更长时间的思考,同时更好地记住对话前期步骤。这使其能够处理更长的工作流与更复杂的提示词,并始终保持回答连贯、切题。</p><div class="img_wrapper"><img src="https://n.sinaimg.cn/spider/759/w1000h559//1364-gif3f6efd49f018b1.gif" w="1000" h="559" wh="1.79"/></div><p cms-style="font-L"> GPT‑5.4思考模式增强了深度网络检索能力,尤其针对高度专业化的查询,同时在需要更长思考过程的问题上更好地维持上下文连贯性。</p><p cms-style="font-L"> 在Codex和API中,GPT-5.4是OpenAI首个具备原生、最先进计算机使用能力的通用模型,使Agent可以操作计算机并执行跨应用的复杂工作流。</p><p cms-style="font-L"> 其支持100万个token的上下文,允许Agent执行长时间的规划、执行和验证任务,其还能通过工作搜索提升模型在大型工具和连接器生态系统中的工作,帮Agent高效找到和使用工具。</p><p cms-style="font-L"> GPT-5.4是OpenAI迄今为止最高效的token推理模型,相比GPT-5.2,新模型用的token数量明显更少,从而能减少token使用并加快速度。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/326/w660h466//1213-3a2f375f0f032c9.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="466" wh="1.42"/></div><p cms-style="font-L"> <font cms-style="font-L strong-Bold">二、知识工作成果:PPT生成效果更强,单个错误出现概率降低33%</font></p><p cms-style="font-L"> GPT‑5.4、GPT‑5.3‑Codex和GPT‑5.2三款模型在不同专业任务上的性能对比表,</p><p cms-style="font-L"> 评估模型在真实经济价值任务的GDPval测试上,大模型需在44个职业中产出规范的知识工作成果,GPT-5.4在83.0%的比较率下,其表现达到或超越了行业专业人士的水平,而GPT‑5.2的这一比例为70.9%。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/382/w660h522//1d1c-01d8cd1346eeecf8c9d1b1a5a5c0c864.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="522" wh="1.26"/></div><p cms-style="font-L"> 对于创建和编辑电子表格、PPT、文档的任务,在一项模拟初级投行分析师所做的电子表格建模任务内部基准测试中,GPT‑5.4的平均得分达到87.3%,GPT‑5.2为68.4%。在一组PPT评估任务中,人类评审在68.0%的情况下更偏好GPT‑5.4生成的演示文稿,原因是其美学表现更强、视觉形式更丰富,且图像生成的运用更具效果。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/507/w660h647//8780-63c4a4fc575d7820efb8d43dd81c0d28.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="647" wh="1.02"/></div><p cms-style="font-L"> 在消除幻觉方面,OpenAI官方称,OpenAI是其迄今事实准确性最高的模型:在一组用户标记过事实错误的去标识化提示测试中,与GPT‑5.2相比,GPT‑5.4的单个事实陈述出现错误的概率降低了33%,整段回答包含任何错误的概率降低了18%。</p><p cms-style="font-L"> <font cms-style="font-L strong-Bold">三、计算机使用与视觉:操控电脑超人类水平,视觉输入支持最高1024万像素</font></p><p cms-style="font-L"> GPT‑5.4是OpenAI首款具备原生计算机操作能力的通用模型,OpenAI称其是目前开发者构建可在各类网站与软件系统中完成真实任务的智能体时,可选用的**模型。</p><p cms-style="font-L"> 该模型擅长通过Playwright等库编写控制计算机的代码,也能根据截图下达鼠标与键盘指令。模型行为可通过开发者指令灵活调控,开发者可根据具体场景调整其行为逻辑。开发者还能通过自定义确认策略,配置模型的安全行为,以适配不同的风险容忍等级。</p><p cms-style="font-L"> GPT‑5.4在各类计算机操作场景的基准测试中,成绩相较前代模型都有所提升。在通过截图与键鼠操作评估模型在桌面环境中的执行能力的OSWorld‑Verified测试中,GPT‑5.4的成功率达到75.0%,远超GPT‑5.2的47.3%,同时超过了人类水平的72.4%。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/348/w660h488//1475-3077f421c05aaff51153d6995ca35dcc.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="488" wh="1.35"/></div><p cms-style="font-L"> 在测试浏览器使用能力的WebArena-Verified基准中,GPT‑5.4在同时采用DOM与截图交互时,成功率达到67.3%的,GPT‑5.2为65.4%。</p><p cms-style="font-L"> GPT‑5.4更强的计算机操作能力,建立在模型通用视觉感知能力的提升之上。在测试模型视觉理解与推理能力的MMMU‑Pro基准中,GPT‑5.4在不使用工具的情况下达到81.2%的成功率,优于GPT‑5.2的79.5%。</p><div class="img_wrapper"><img src="https://n.sinaimg.cn/spider/754/w1000h554//5bd4-gif81d2e2b20316db2b19d4348fb5c39f99.gif" w="1000" h="554" wh="1.81"/></div><p cms-style="font-L"> 其视觉感知能力的提升也转化为更出色的文档解析能力。在OmniDocBench测试中,不启用深度推理的GPT‑5.4平均误差为0.109,优于GPT‑5.2的0.140。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/259/w660h399//e6e7-18252fa7e51f2978b216a9e80907abe4.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="399" wh="1.65"/></div><p cms-style="font-L"> OpenAI还针对高分辨率、信息密集型图像优化了视觉理解能力,确保完整保真度。</p><p cms-style="font-L"> 从GPT‑5.4开始,OpenAI将推出原始图像输入精度模式,支持最高1024万像素或最大边长6000像素(取较低值)的全保真感知;原有的高图像输入精度模式现已支持最高256万像素或最大边长2048像素。</p><p cms-style="font-L"> 在面向API用户的早期测试中,研究人员观察到,使用原始精度或高精度模式时,模型在定位能力、图像理解与点击准确率上均有显著提升。</p><p cms-style="font-L"> <font cms-style="font-L strong-Bold">四、编程:表现超越GPT‑5.3‑Codex,token生成速度最高可提升1.5倍</font></p><p cms-style="font-L"> GPT‑5.4融合了GPT‑5.3‑Codex的代码能力优势,以及知识工作与计算机操作能力,这些能力在长时间运行的任务中尤为关键,模型可自主调用工具、迭代推进任务,大幅减少人工干预。</p><p cms-style="font-L"> 在SWE‑Bench Pro测试中,GPT‑5.4的表现持平甚至超越GPT‑5.3‑Codex,同时在各类推理任务中延迟更低。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/343/w660h483//f157-b938d0d15c47925ffdc738bf4e.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="483" wh="1.37"/></div><p cms-style="font-L"> 在Codex中开启/fast模式后,GPT‑5.4的token生成速度最高可提升1.5倍。模型与智能水平保持不变,仅速度更快。这意味着用户可以在编码、迭代与调试过程中保持流畅状态。</p><p cms-style="font-L"> 开发者可通过API的优先处理功能,以同等高速体验使用GPT‑5.4。</p><p cms-style="font-L"> 在评估和内部测试中,研究人员发现GPT-5.4在复杂的前端任务中表现出色,其美观效果和功能性均优于我们之前发布的任何模型。</p><p cms-style="font-L"> 为展示模型计算机操作能力与代码能力协同提升的效果,OpenAI还同步推出一项实验性Codex技能,名为“Playwright(交互式)”。该功能让Codex能够以视觉方式调试网页与Electron应用,甚至可以在应用开发过程中,边构建边测试。</p><div class="img_wrapper"><img src="https://n.sinaimg.cn/spider/753/w1000h553//0784-gif0208e42c28d63f73d9a2da2254c81039.gif" w="1000" h="553" wh="1.81"/></div><p cms-style="font-L"> ▲一款仅通过简短提示词、由GPT‑5.4生成的主题公园模拟游戏, 开发过程中使用 Playwright Interactive 进行浏览器端实机测试,并通过图像生成创建等距视角美术资源。</p><p cms-style="font-L"> <font cms-style="font-L strong-Bold">五、工具使用:能快速搜索调用,完成长时间多轮复杂任务</font></p><p cms-style="font-L"> 基于GPT-5.4,智能体现在可在更庞大的工具生态中运行,更可靠地选择合适工具,并以更低成本、更低延迟完成多步骤工作流。</p><p cms-style="font-L"> 在API中,GPT-5.4引入了工具搜索功能,使模型在拥有多种工具时能够高效工作。借助工具搜索功能,GPT‑5.4会先获取一份轻量化的可用工具列表,并具备工具检索能力。当模型需要使用某一工具时,可实时查询该工具的定义,并将其即时加入对话上下文。</p><p cms-style="font-L"> 这可以减少工具密集型工作流所需的token数量,并能有效利用缓存,让请求更快、成本更低。智能体也可以能够稳定适配规模更庞大的工具生态系统。</p><p cms-style="font-L"> 为展示效率提升效果,OpenAI选取了Scale旗下MCP Atlas基准测试中的250项任务,在启用全部36台MCP服务器的情况下,采用两种模式进行评估:将所有MCP函数直接暴露在模型上下文、将所有MCP服务器置于工具搜索机制之后,对比结果如下:</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/178/w660h318//7330-f8e20da46974d33c7ad5eca73.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="318" wh="2.08"/></div><p cms-style="font-L"> GPT-5.4还改进了工具调用,在测试AI智能体如何使用真实工具与API完成多步骤任务的Toolathlon基准测试中,相比GPT‑5.2,GPT‑5.4以更少的交互轮次实现了更高的准确率。其任务包含智能体需要读取邮件、提取任务附件、上传文件、进行评分,并将结果记录到电子表格中。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/349/w660h489//a729-3e58bab827ff6fa2fa792baba36da91e.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="489" wh="1.35"/></div><p cms-style="font-L"> 对于偏好无推理模式、对延迟敏感的应用场景,GPT‑5.4相比前代模型实现了进一步优化。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/481/w660h621//cc10-479b3be39e08f1c0f61750c91f1892b8.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="621" wh="1.06"/></div><p cms-style="font-L"> 网页搜索中,在衡量AI智能体持续浏览网页以寻找难以定位信息能力的指标BrowseComp上,GPT-5.4跃升了17%,GPT-5.4 Pro达到89.3%。这意味着GPT-5.4可以更持久地跨多轮搜索,找出最相关的来源。</p><div class="img_wrapper"><img src="https://k.sinaimg.cn/n/spider/500/w660h640//1bc5-260c10aaec95b1bc6304f713b1dcd0e8.jpg/w700d1q75cms.jpg?by=cms_fixed_width" w="660" h="640" wh="1.03"/></div><p cms-style="font-L"> <font cms-style="font-L strong-Bold">结语:OpenAI巩固行业主导权</font></p><p cms-style="font-L"> GPT-5.4此次在计算机操作能力上、GDPval 83%的胜率都说明,AI在执行经济价值任务、原生电脑操控方面的天花板进一步被拉高,让进一步证明AI已能稳定完成高价值的知识工作,如数据分析、客户服务、业务流程处理等,直接产生经济效益。</p><p cms-style="font-L"> 从当前的测评表现来看,GPT‑5.4的发布进一步巩固了OpenAI的行业头部地位,其测评表现远超前代模型及竞对公司的顶尖模型,或为其规模化商业化与AGI路线图奠定关键基础。</p> <div style="font-size: 0px; height: 0px; clear: both;"></div>
讯享网
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/209269.html