马斯克xAI遭行业“围剿”,安全文化被批“彻底失职”,Grok4陷信任危机

近日,据外媒TechCrunch报道,OpenAI、Anthropic等机构的AI安全研究人员近日集体发声,对马斯克旗下的xAI展开猛烈批评,直言其安全文化“鲁莽”“完全不负责任”,这一事件在AI领域引发轩然大波。

目前在OpenAI担任AI安全研究员的哈佛大学计算机科学教授Boaz Barak率先在X上发难。他表示原本因公司竞争关系不打算评论Grok的安全问题,但xAI处理安全的方式实在让人无法坐视。“我尊重xAI的科学家和工程师,可他们在安全方面的做法太不负责任了。”Barak特别指出,xAI拒绝发布“系统卡片”令人忧心。在AI行业,“系统卡片”是基本规范,它详细说明模型的训练方式与安全评估,便于科研界共同监督。由于xAI未公布相关信息,Grok 4是否进行过安全训练成了一个谜。此外,Barak还批评Grok的AI虚拟角色“放大了我们在情感依赖方面最糟糕的问题”。近年来,已有不少心理状态不稳定的人对聊天机器人产生病态依赖,而AI一味迎合用户,无疑会加剧这种风险。

Anthropic的AI安全研究员Samuel Marks也加入批评行列,他称xAI拒绝公开安全评估报告的做法“鲁莽”。“Anthropic、OpenAI和谷歌在这方面虽不完美,但至少上线前会做评估并记录结果,xAI却完全没有。”目前,外界根本无法判断xAI是否对Grok 4进行过系统测试。在论坛LessWrong上,有匿名研究者发帖称,Grok 4“几乎没有任何实质性的安全防护机制”,测试结果令人担忧。

面对外界质疑,xAI的安全顾问、AI安全中心主任Dan Hendrycks在X上回应,称公司已对Grok 4进行过“危险能力评估”,但并未公布任何评估结果。曾在OpenAI领导安全团队、现为独立研究员的Steven Adler对TechCrunch表示担忧:“如果连最基本的安全实践,如公布危险能力评估结果,在行业内都无法执行,政府和公众有权了解AI公司如何应对强大系统带来的风险。”

值得玩味的是,马斯克本人长期以来都是AI安全的高调倡导者。他多次警告高级AI可能带来灾难性后果,也曾公开支持“开放透明”的开发方式。然而如今,多个研究团队认为xAI的行为正背离这些理念,在发布模型的安全流程上偏离了行业常规。讽刺的是,xAI的这些做法或许会适得其反,促使州议会和联邦政府更快推动相关立法,要求AI公司强制披露安全报告。

多位研究者强调,AI安全和对齐测试不仅是为了防范极端风险,也是为了解决当下模型行为失常的问题。xAI若继续在安全问题上“我行我素”,恐将面临更大的舆论压力和监管风险。