我刚刚读到一篇昨天发表于《纽约客》的调查报道,令许多人震惊。罗南·法罗(Ronan Farrow)和安德鲁·马兰茨(Andrew Marantz)采访了100多人,拿到了从未公开过的内部备忘录,甚至还有多达200多页的个人笔记——这些笔记来自Dario Amodei (——Anthropic的创始人,他曾离开OpenAI)。结果基本上就是一枚炸弹。



一切始于一份70页的文件:2023年秋天,OpenAI的首席科学家Ilya Sutskever编写了这份文件。他把Slack消息、与人力资源部门的沟通、会议记录等材料汇集到一起。目的?回答一个很简单的问题:由可能掌握史上最危险技术的人——Sam Altman——控制的这些技术,值得信任吗?Sutskever在第一页第一行的回答是:Sam展现出一种一贯的……谎言模式。

例子非常具体。2022年12月,Altman向董事会保证,GPT-4的功能已经通过了安全审查。当他们被要求提供批准文件时,发现两项最具争议的(定制调整和个人助理部署)从未获得批准。随后又出现了印度的案例:微软在安全审查结束前就推出了ChatGPT。Sutskever还记下,Altman据称对CTO Mira Murati说过:安全流程没那么重要,因为法律顾问已经批准了。Murati什么时候向法律顾问核实?他的回答是:“我不知道Sam从哪里得出的这个结论。”

但最令人发冷的是关于“超对齐”团队的内容。2023年中,Altman联系了一名伯克利研究AI对齐的学生——他对这个问题非常担忧,并谈到要给出10亿美元的研究奖。那个人从学校毕业,加入了OpenAI。然后Altman又改变主意:搞一个内部团队,而不是发奖,并公开宣布,公司将拿出其计算能力的20% (——潜力超过10亿 )。措辞极其严肃,甚至谈到:如果对齐问题得不到解决,就会出现“人类灭绝”。

真实情况呢?在那儿工作过的四个人说,实际上分配到的只是总算力的1-2%,而且硬件还是老旧的。团队在没完成任何东西的情况下被拆掉。后来当记者请求采访“存在性安全(existential safety)”研究的负责人时,新闻发言人的答复是:“这根本不是一个真的存在的东西。”

还有更多。OpenAI的CFO Sarah Friar在IPO问题上与Altman出现了严重分歧。她认为还没到时候——大量悬而未决的流程,以及Altman关于投入6000亿美元算力的承诺风险太高。但Altman想把节奏加速到今年第四季度。荒谬之处在于?Friar不再直接向Altman汇报。从2025年8月起,她改向Fidji Simo汇报——后者是应用业务的CEO。Simo则从上周开始休病假。

一名前董事会成员这样描述Altman:他在面对面的互动中有极强的讨好欲望,但与此同时,他对欺骗后果几乎是近乎“社交病态”的漠视。这种组合实在太罕见了。但对一个销售员来说?这简直是天赋。甚至连微软的高管都受够了,称Altman“歪曲事实、违背承诺,并且不断撤销协议”。其中一人甚至把他拿去类比Bernie Madoff,或SBF。

那为什么这件事如此重要?因为OpenAI并不是普通的科技公司。它正在开发能够重塑全球经济的技术,能够规模化制造生物化学武器,或发动网络攻击。所有安全机制如今基本上都只是形式而已。非营利使命变成了冲刺IPO。前首席科学家认为Altman不可信。安全负责人离开后成立了Anthropic,原因是对于AI应当如何被开发存在根本分歧。

纽约大学(NYU)的AI教授Gary Marcus后来写道:如果OpenAI未来的模型真的能制造生物化学武器,或发起灾难性的网络攻击,那么你真的会觉得安心——把是否发布这一决定交给Altman自己单独决定吗?

OpenAI的回应?基本上是忽略了具体指控:没有否认那些备忘录,只是质疑消息来源的动机。Altman没有直接回应。

用一句话概括OpenAI这10年:一群理想主义者成立了一个担忧AI风险的非政府组织,取得了显著进展,吸引了巨额资本;资本要求回报,使命让位,安全团队被解散,异见者被驱逐;非营利架构变成盈利实体,本来有能力随时结束公司的董事会,如今却满是CEO的盟友。超过一百名证人用同一个标签来描述这位主角:“不受真相的约束”。而现在,公司正准备以8500多亿美元的估值走向IPO。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论