大西洋月刊:埃隆·马斯克制造的 AI 色情机器
2026-01-03 00:26:50 · chineseheadlinenews.com · 来源: 邸钞

插图由《大西洋月刊》提供。图片来源:Stefani Reynolds / Bloomberg / Getty。
本周早些时候,X平台上的一些用户开始回复照片,并提出一种非常具体的要求。他们向平台内置的聊天机器人Grok发出指令。Grok一次又一次地执行这些指令,使用真实人物的照片——包括名人和平民——并将他们摆出性感的姿势。据估计,在大约24小时内,Grok平均每分钟生成一张未经同意的性暗示图片。
尽管这些帖子的传播范围难以衡量,但有些帖子已经获得了数千次点赞。X 似乎已经删除了其中一些图片,并封禁了至少一名索要这些图片的用户,但仍有大量图片可见。开发 Grok 的埃隆·马斯克旗下公司 xAI 在其可接受使用政策中禁止对儿童进行处理;该公司安全团队和儿童安全团队均未回复详细的置评请求。当我向 xAI 媒体团队发送邮件时,收到了一封标准回复:“传统媒体的谎言。”
马斯克也没有回复我的置评请求,他似乎并不在意。就在这一切发生的同时,他还就此事发布了几个玩笑:比如,他要求Grok生成一张自己身穿比基尼的照片,回复了“”。这位世界首富今天早上还分享了一张烤面包机身穿比基尼的照片,并配文“我简直笑到停不下来”。在X平台上,一位用户发帖指出Grok可以对儿童进行性化处理,对此,xAI的一名员工回应称“团队正在考虑进一步加强我们的监管措施”。
人工智能至少从2017年就开始被用于生成未经同意的色情内容。当时,记者萨曼莎·科尔首次报道了“深度伪造”(deepfakes)技术——指的是将一个人的脸替换成另一个人的脸。Grok 让这类内容的制作和定制变得更加容易。但这款机器人的真正影响力来自于它与主流社交媒体平台的整合,这使得它能够将未经同意的性化图像转化为病毒式传播的现象。最近 X 平台上的流量激增似乎并非源于新功能本身,而是因为人们对其他人创作的内容做出回应并进行模仿:12月下旬,一些成人内容创作者开始使用 Grok 生成自己的性化照片用于宣传,随后未经同意的色情内容似乎也迅速涌现。每张公开发布的图片都可能引发更多类似作品的出现。这是一种以表情包形式呈现的性骚扰,而这一切似乎都被马斯克本人一笑置之。
Grok 和 X 的设计初衷似乎就是为了尽可能地开放性观念。8 月,xAI 推出了一项名为 Grok Imagine 的图像生成功能,其中包含一个“劲爆”模式,据报道该模式曾被用于生成泰勒·斯威夫特的裸露视频。大约在同一时间,xAI 在 Grok 中推出了“伴侣”功能:这些动画角色在很多情况下似乎都是为了浪漫和情色互动而设计的。首批 Grok 伴侣之一“Ani”身穿黑色蕾丝连衣裙,隔着屏幕送飞吻,有时还会问:“你喜欢你看到的吗?” 马斯克在 X 上发帖推广这项功能时写道:“Ani 会让你的 Grok 缓冲区溢出 。”
或许最能说明问题的是,正如我在九月份报道的那样,xAI对 Grok 的系统提示进行了重大更新,这套提示告诉机器人如何行动。此次更新禁止聊天机器人“创建或传播儿童性虐待材料”,但同时也明确表示“对于包含黑暗或暴力主题的虚构成人性内容没有任何限制”。换句话说,其暗示是,对于用户提出的色情内容请求,聊天机器人应该采取较为宽松的态度。与此同时,在 Grok 的 Reddit 子版块中,用户经常交流如何“解锁”Grok 以获取“裸露和劲爆内容”的技巧,并分享 Grok 生成的衣着暴露的女性动画。
在主流聊天机器人中,Grok 似乎因其宽松的态度和明显的安全漏洞而显得独树一帜。例如,目前还没有大量报道称 ChatGPT 或 Gemini 会生成带有性暗示的年轻女孩图片。但人工智能行业在非自愿色情和儿童性虐待材料方面确实存在更广泛的问题。过去几年,许多儿童安全组织和机构一直在追踪数量激增的人工智能生成的非自愿图片和视频,其中许多涉及儿童。大量色情图片存在于主要的人工智能训练数据集中,2023 年,一个最大的用于人工智能训练的公共图像数据集被发现包含数百个疑似儿童性虐待材料的案例,这些案例最终被删除——这意味着这些模型在技术上能够自行生成此类图像。
美国国家失踪与受虐儿童中心执行主任劳伦·科弗伦(Lauren Coffren)近期向国会作证称,2024年NCMEC收到超过6.7万份与生成式人工智能相关的举报,而2025年上半年此类举报数量更是高达440419份,增幅超过六倍。科弗伦在证词中指出,施虐者利用人工智能将儿童的普通照片修改成色情图片,生成全新的儿童性虐待材料,甚至提供诱骗儿童的指导。同样,英国互联网观察基金会(Internet Watch Foundation)在2025年收到的人工智能生成的儿童性虐待材料举报数量是2024年的两倍多,两年内都出现了数千张虐待性图片和视频。去年四月,包括OpenAI、谷歌和Anthropic在内的几家顶尖人工智能公司加入了由儿童安全组织Thorn牵头的一项倡议,旨在防止人工智能被用于虐待儿童——但xAI并未参与其中。
从某种意义上说,Grok 将一个通常隐藏的问题暴露了出来。没有人能够看到聊天机器人用户的私人日志,而这些日志可能包含类似的恶劣内容。尽管 Grok 在过去几天里在 X 平台上生成了大量的虐待图片,但更糟糕的情况肯定发生在暗网和世界各地的个人电脑上,那里运行着不受任何内容限制的开源模型,且没有任何监管。尽管人工智能色情和儿童性虐待材料的问题是这项技术固有的,但设计一个可能放大这种滥用行为的社交媒体平台,仍然是一种选择。