OpenAI深夜发布GPT-5.5,这次主打“干活不废话”

北京时间4月24日凌晨,OpenAI静悄悄地发了新模型——GPT-5.5。
说“静悄悄”其实不太准确。毕竟距离上一版5.4发布还不到两个月,这个节奏本身就挺让人意外的。按以往的经验,这种级别的更新怎么也得间隔三四个月。
主要变了啥?
先说结论:没有花里胡哨的新功能,主要是在“做事”这个环节上变强了。
之前的模型,你要让它干一件复杂的事,得把步骤拆得很细,一步一步喂给它。现在GPT-5.5的改进在于——你可以给一个模糊的、多步骤的任务,比如“帮我整理这份财报里异常的数据并生成图表”,它能自己规划路径、调用工具、检查结果,最后直接给你成品。
OpenAI自己管这叫“自主智能体能力”。翻译成人话就是:更像一个能独立干活的实习生,而不是一个句句都要你确认的机器人。
实际用起来怎么样?
有个例子挺直观的。
英伟达内部用它的编程版本Codex做测试,一个工程师说了一句话:“失去它感觉像被截肢。”
话有点夸张,但意思很明确:这东西已经嵌入到他们的日常工作流里了。据说英伟达有超过1万名员工在用GPT-5.5支持的Codex干活,覆盖工程、产品、甚至法务部门。原本需要几天的调试,现在几个小时能搞定。
另外在科研领域,有数学家拿它试了试组合数学里一个几十年的老问题——拉姆齐数(简单说就是“找规律”类的数学难题),结果它给出了一个新证明,而且已经被形式化验证工具确认是正确的。
安全怎么办?
说到这里,很多人会问:模型变强了,会不会被滥用?
确实有同行选择了很保守的路——比如Anthropic直接把他们的先进模型关在很小的圈子里,只有少数人能接触。
OpenAI这次走了一条不一样的路线:模型能力向所有付费用户开放(ChatGPT Plus/Pro),但每个用户的身份都是可追溯的。
他们搞了个“KYC(了解你的客户)”机制——说白了就是实名制。你可以用,但如果滥用,会留下痕迹,能被追责。
这种思路的逻辑是:技术本身很难藏住,与其建一个“精英俱乐部”,不如建立一个可追溯的责任体系。
价格呢?
不便宜。
API输入定价每百万Token 5美元(约34元人民币),Pro版本更贵,要30美元。
这个定价策略其实传递了一个信号:OpenAI认为这种能自主干活的模型,价值已经远超过一个聊天机器人。换句话说,它不是给没事聊两句的人用的,是给真正要解决工作问题的人用的。
GPT-5.5没有改变世界,但它确实改变了一些人的工作方式——尤其是那些需要处理复杂任务的程序员、研究员和数据分析师。
至于普通用户,如果你只是日常聊天、写邮件、翻译文档,5.4可能已经够用了。省下的钱可以去吃顿好的。
夜雨聆风