全球近 50 亿网民,正在成为 AI 成人内容的受害者( 三 )


撤下未经本人同意的 AI 色图,往往是靠受害者自行发现,或者平台事后补救 。
按照 Google 的服务条款,如果证据充分,用户可以请求 Google 删除某条具体的链接 。然而「野火烧不尽」,这就像一个没有终点的打地鼠游戏 。
不过,Google 也在改进排名系统,减少此类内容的出现 。

全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
Google 的服务条款.
提供 AI 模型的平台们也并非没有意识到,技术存在被滥用的可能,但前所未有的内容规模,已经不允许平台只是沿用以前的审核策略 。
404 Media 采访人员发现,某 AI 模型网站的服务条款允许色情内容,也允许真人内容,但不允许两者兼而有之的真人色情内容,尤其涉及到未成年时 。
然而,此类内容仍然不断发布,部分被平台删除,部分已经「幸存」了几个月 。
某 AI 模型网站的服务条款.
只能说,意识到位了,但方法没有 。对技术的规范,总是相对技术落后半步 。
类似地,生成真人色情图像,违反了 Discord 的社区规则,但管理起来并不容易,靠的主要是用户自觉 。
Discord 的信任与安全团队,负责检查用户、版主或采访人员的报告,如果有人确实违反了社区准则,那就发出警告、删除内容、关停账号等,存在一定的被动性 。
全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
Discord 的社区准则,上为原文下为翻译.
讽刺的是,把 AI 色图分享到 Discord,也会被 AI 模型网站的用户内部批评,不是问心有愧,而是因为这坏了规矩,有可能让社区被禁:「你可以在网站上创建它,但不能在这里分享 。」
甚至法律也不一定派上用场,就像 Deepfake 存在这么久了,美国只有几个州在为它立法,但因为杂乱无章,很难真正执行,并且有些创作者想尽办法隐藏身份,既然找不到人维权,很多时候受害者只能吃下哑巴亏 。
好在几个更加主流的文生图工具,用技术为技术事先附加了制约 。
OpenAI 旗下的 Dall-E,尽可能减少了训练数据中的裸体图像,并且在实际使用过程中,阻止某些提示词的输入,以及在图片显示给用户之前扫描输出结果 。
Midjourney 也有屏蔽词和人工审核,还计划推出更先进的、能够关联上下文的过滤功能 。
Stable Diffusion 背后的公司 Stability AI 也曾回应过类似的问题,「对任何开源代码所做的事情都是无法控制的」 。
尽管如此,Stability AI 认为,识别此类行为并将其定为犯罪,还有很多事情可以做,开发者社区和互联网基础设施提供商也应该参与进来 。
简言之,对技术的规范就像钝刀子割肉,不能立刻起效,而 AI 色图的问题远比以前严重,靠的是一条运行顺畅的「生产链」:
提供训练图像的内容社区;
生成色图的开源技术;
将 AI 模型和图片商业化的平台;
自从 Deepfake 问世,我们就遇到了同样的问题 。人性难测,技术的普及和滥用只有一步之遥,工具更加容易上手了,商业模式也走通了,那么创建和分发色图的动力就更大了 。
很多时候,互联网的成人行业已经被「非人化」地看待,当真正非人的 AI 取而代之,继续满足刻板印象,可能导致物化更上一层楼,而不是停止物化 。
就像《攻壳机动队》提出的问题那样,真实和虚假不再沟壑分明 。完全像你的人做出了你从来不会做的事,但你很难证明那不是你,数据就是你,存在过的痕迹就是你 。
每当 AI 被最先应用到色情产业,总有人说,这会加速技术普及,或者不再需要真人 。有人用金钱兑换欲望,有人不经意被投入技术熔炉,却没有谁会为伤害买单 。




推荐阅读