从Grok禁令看全球AI治理

当生成式AI的代码挣脱伦理的缰绳,当算法的自由触碰公共利益的红线,埃隆·马斯克旗下Grok模型的舆论风暴,早已超越单一产品的合规争议。它如同一枚投入全球化浪潮的石子,激起的不仅是对色情深伪影像、数据滥用等具体问题的声讨,更折射出全球AI治理体系在技术狂奔中的撕裂与迷思——当“最大化表达自由”与“风险刚性管控”针锋相对,当各国监管罗盘指向不同航向,AI的发展边界与治理共识,正成为这个时代最迫切的追问。
脱缰
自推出以来,Grok便被明确定位为一款“反觉醒”并强调最大化表达自由的生成式AI,其产品理念在一开始就与OpenAI、Google等强调风险控制的技术路线形成区隔。《TechCrunch》在对Grok-2的技术分析中指出,该模型在图像生成能力上深度整合了由Black Forest Labs开发的FLUX.1模型体系。
与主流生成式模型不同,FLUX.1在设计阶段对内容过滤与风险拦截采取了更为克制的策略,意在降低模型对输出内容的主动干预,从而保留更大的生成自由度。由此,在涉及公众人物、暴力或性暗示等敏感提示时,Grok的拒绝率明显低于行业常见水平。
《The Verge》在相关评测中指出,Grok在生成高度逼真的虚假新闻图像或伪造色情内容时,其安全机制可以被相对简单的提示词变体绕过,风险进一步放大。

世界的回声
目前,全球监管机构正在逐步形成高压态势。在欧洲,爱尔兰数据保护委员会曾就X平台涉嫌在未经明确用户同意的情况下,使用欧盟用户数据训练Grok一事向高等法院提起法律程序。目前,该诉讼已因X平台承诺遵守数据暂停使用令而撤诉。
与此同时,欧盟委员会也在内容治理层面对X平台展开审查。根据欧盟官方信息,委员会已依据《数字服务法案》(DSA)启动调查,评估X在应对AI生成有害内容方面是否履行了平台应尽的风险评估与缓释义务。
在亚洲与南半球,马来西亚通讯及多媒体委员会等机构曾公开要求X平台就其AI系统生成、涉及本国公民隐私或不当内容承担平台责任,并采取了限制访问措施。后续在X平台承诺并实施新的安全过滤措施后,马来西亚、印度尼西亚、菲律宾等国已陆续解除了对Grok的访问限制。澳大利亚电子安全专员也在声明中批评X对深伪色情内容的处置不足。
此次事件在美国国内引发了强烈的监管回应。以华盛顿特区为首的美国35个州和地区的总检察长发表联名信,严厉谴责Grok生成非自愿私密图像的问题。
谁为AI立法?
Grok引发的争议,折射出各国在AI监管问题上已逐渐显现出不同取向。《金融时报》在相关分析中指出,欧盟正以《人工智能法案》为核心,推动一套强调事前评估和风险分级的监管框架,试图在技术落地之前就划清红线;而美国则更多依赖市场机制和行业自律,希望在快速迭代中逐步修补规则空白。相比之下,以马斯克为代表的部分科技创业者,则公开反对任何形式的价值预设,主张通过最少干预释放算法能力,这一立场在Grok的产品设计中表现得尤为明显。
在反对利用AI生成非自愿有害内容这一底线上,国际社会存在普遍共识。但当部分国家提高合规门槛时,监管较为宽松的地区可能成为新功能的“试验场”。围绕特定国家联盟构建的AI治理倡议,可能导致全球“信任碎片化”而非真正的合作。
这种分裂已经不再只是技术管理分歧,而是逐渐演变为关于价值选择和治理主权的博弈。随着生成式AI深度嵌入信息传播与公共讨论空间,缺乏协调机制的全球治理体系,将会愈发明显。

技术的迭代从无刹车键,但其前行的轨迹,终究不能脱离伦理与法律的轨道。AI早已不是实验室里的孤本,而是渗透公共空间、承载社会责任的基础设施,其每一次算法的跃迁,都暗藏着文明选择的重量。全球AI治理的分裂,从来不是简单的技术路径分歧,而是价值取向的博弈、治理主权的坚守,更是对“技术向善”初心的考验。若任由监管洼地沦为风险试验场,任由价值分歧撕裂全球治理共识,最终受损的,将是整个人类社会对科技的信任与期待。AI的未来,不该是“自由无界”与“规制严苛”的二元对立,而应是在共识之上的协同共治;全球治理的破局,不在于某一国的单边主导,而在于全人类对文明底线的共同守护——这是Grok禁令留给世界最深刻的思考。(文:赵雪)