本文为深度编译,仅供交流学习,不代表智子说观点

“反政治正确”玩脱了?马斯克的聊天机器人Grok惊现纳粹言论

人工智能Grok发表的问题性言论,体现了其创造者埃隆·马斯克的思想对其设计的影响。但这也引发了一个问题:与其竞争对手相比,Grok更隐蔽的偏见被掩盖在公正的外表之下,这与此类人工智能的训练过程并不相容。

Grok是一款基于埃隆·马斯克公司xAI技术开发的对话机器人(或称聊天机器人)。2025年7月,它因自称“机械希特勒”并发表亲纳粹言论而登上新闻头条。

开发人员随后就这些“不当言论”致歉,并采取措施防止Grok今后在社交平台发表仇恨言论。然而,这一事件足以重新引发关于人工智能在回应用户请求时存在偏见的讨论。

此次争议与其说是揭示了Grok发表极端言论的倾向,不如说是暴露了该聊天机器人背后的人工智能在开发过程中存在根本性的不透明问题。马斯克曾声称要打造一个“追求真理”、毫无偏见的人工智能,然而该程序的技术实现过程,却揭示了Grok被进行了系统性的意识形态编程。

这实际上是一个偶然的案例研究,它揭示了人工智能系统如何融入其创造者的价值观:马斯克毫不掩饰的立场,恰恰暴露了其他公司往往试图掩盖的问题。

“反政治正确”玩脱了?马斯克的聊天机器人Grok惊现纳粹言论

什么是Grok?

根据其创造者的说法,Grok是一个拥有“幽默感和叛逆精神”的聊天机器人。它基于xAI开发的人工智能技术。

Grok的首个版本于2023年推出。独立研究表明,其最新型号Grok 4在多项“智能”测试中表现优于竞争对手。该聊天机器人可独立使用,也可直接在社交平台上使用。

xAI公司宣称,其人工智能的知识储备必须“尽可能全面且广泛”。马斯克则将Grok视为对市场领先的聊天机器人(如OpenAI公司的ChatGPT)的有力替代品,后者常被西方右翼公众人物指责为带有“觉醒主义”偏见。

在因亲纳粹立场引发争议之前,Grok就曾因发表性暴力威胁言论、声称南非正在发生“白人种族灭绝”以及侮辱多位国家元首而登上新闻头条。最近,他因侮辱土耳其总统雷杰普·塔伊普·埃尔多安和共和国创始人穆斯塔法·凯末尔·阿塔图尔克而在该国被禁。

那么,开发人员是如何在人工智能中植入这些价值观,并塑造出行为如此令人不安的聊天机器人的呢?目前,这些聊天机器人基于大型语言模型(LLM)构建,开发人员可以通过多种手段在开发过程中影响其未来的行为。

人工智能行为背后的不同阶段

预训练

首先,开发人员需要选择在创建聊天机器人的第一阶段所使用的数据。这不仅意味着从训练数据中过滤掉不想要的内容,还意味着要突出显示需要的信息。

例如,在GPT-3的训练数据中,维基百科的权重是其他数据集的六倍,因为OpenAI认为该在线百科全书的质量更高。而Grok则从多种来源获取训练数据。这或许可以解释,为何该聊天机器人曾被批评在回答前会先核实埃隆·马斯克本人对争议性话题的看法。

马斯克此前曾表示,xAI对Grok的训练数据进行了筛选,例如为提高其法律知识水平而增加相关内容,并删除由其他大型语言模型生成的内容以提高回答质量。这位亿万富翁还曾呼吁用户社区寻找复杂问题和“政治不正确但真实”的事实,以提交给他的聊天机器人。目前尚不清楚这些数据是否被实际使用,以及对其采取了何种质量控制措施。

精细调整

第二步是精细调整(fine-tuning),即根据对大型语言模型响应的反馈来调整其行为。开发人员会制定详细的规范,描述他们偏好的道德立场,然后由人类评估员或次级人工智能作为标准,来评估和改进聊天机器人的回答,从而将这些价值观有效地植入机器。

《商业内幕》(Business Insider)的一项调查揭示,xAI公司向其人类“AI导师”下达的指令中,要求他们追踪聊天机器人回答中的“觉醒意识形态”和“取消文化”。尽管公司内部文件表明Grok不应“强加任何可能强化或否定用户偏见的观点”,但也明确要求聊天机器人避免在存在明确答案的情况下,给出支持辩论双方的回答。

系统指令

系统指令,即每次与用户对话前提供给聊天机器人的指导,它引导着模型部署后的行为。

值得注意的是,xAI公布了Grok的系统指令。其中一些指令,例如要求聊天机器人“假设媒体提供的观点具有偏见”,或敦促其“只要有充分依据,就不要犹豫发表政治不正确的言论”,很可能是在最近的争议中起了关键作用的因素。这些指令目前仍在不断更新,其演变过程本身就是一个引人入胜的案例研究。

透明度的悖论

围绕Grok发表亲纳粹言论的争议,凸显了一个更深层次的伦理问题:人工智能企业是应该公开表明自己的意识形态立场并保持透明,还是应该维持一种虚假的中立,同时将自己的价值观秘密融入产品设计中?

事实上,所有大型人工智能系统都反映了其创造者的世界观,从微软Copilot谨慎的企业立场,到Anthropic公司Claude模型对交流和用户安全的重视。区别在于这些企业的透明度。

马斯克的公开言论,使人们能够轻易地将Grok的行为与这位亿万富翁对“觉醒意识形态”和媒体偏见的公开立场联系起来。相反,当其他聊天机器人出现严重错误时,我们无从判断这究竟是反映了开发者的观点、企业面对争议问题时的风险规避心理、遵守法规的意愿,还是单纯的技术意外。

从Grok事件中真正值得汲取的教训在于人工智能开发的透明度。随着这些系统变得越来越强大和普及,问题不再是人工智能是否会普遍反映人类价值观,而是开发企业是否会对其编码的个人价值观,以及选择为模型赋予这些价值观的原因保持透明。

“反政治正确”玩脱了?马斯克的聊天机器人Grok惊现纳粹言论

与竞争对手相比,马斯克的做法既更诚实(我们能看到他的影响力),又更具欺骗性(他声称客观,却用主观性编程了他的聊天机器人)。

在这个建立在算法中立性神话之上的行业里,Grok揭示了一个不变的事实:不存在完全公正的AI,只有偏见程度或深或浅的AI。


作者:Aaron J. Snoswell

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com