谷歌自相矛盾?自家研究揭露 AI 正在污染互联网
近期,谷歌研究人员发布了一篇耐人寻味的论文,对生成式 AI 技术发出警告,指出其生成的海量虚假内容正在污染互联网环境。颇具讽刺意味的是,谷歌自身一直积极地向用户推广 AI 技术。
这篇 尚未经过同行评审的论文 (由 404 媒体 发现) 指出,绝大多数生成式 AI 用户正在利用该技术 “模糊真实与欺骗的界限”,在互联网上发布虚假或篡改过的 AI 生成内容,例如图像或视频。研究人员还深入研究了先前发表的有关生成式 AI 的研究,以及大约 200 篇报道生成式 AI 滥用的新闻文章。
“在现实世界中,操纵人物肖像和伪造证据是 AI 滥用最普遍的策略,” 研究人员总结道。“这些行为大多是为了影响公众舆论、进行诈骗或欺诈活动,或纯粹为了牟利。”
更令人担忧的是,生成式 AI 系统日益先进,并且易于获取——“只需要很少的技术知识”,研究人员表示,这种情况正在扭曲人们“对社会政治现实或科学共识的理解”。
然而,这篇论文似乎刻意避开了谷歌自身在使用 AI 技术时犯下的 尴尬错误。作为全球科技巨头,谷歌的失误往往会造成巨大的负面影响。
AI 虚假内容:技术进步的阴暗伴生物?
阅读这篇论文后,人们不禁会想,生成式 AI 的“滥用”是否恰恰反映了该技术的预期用途。人们之所以热衷于使用生成式 AI 制作虚假内容,是因为它 非常擅长这项任务,结果导致互联网上充斥着 AI 垃圾。
而谷歌自身也难辞其咎,该公司不仅允许 虚假内容 proliferate,甚至还亲自制造虚假内容,无论是 虚假图片 还是 虚假信息。
研究人员表示,这种混乱也给人们辨别真假的能力带来了巨大挑战。
“此外,大量低质量、垃圾邮件式和恶意 AI 生成内容的出现,有可能增加人们对数字信息整体的怀疑,并迫使用户承担繁重的信息验证任务,” 他们写道。
更令人不寒而栗的是,由于虚假 AI 内容的泛滥,“知名人士甚至可以将对自己不利的信息解释为 AI 生成的,从而以一种极其昂贵和低效的方式转移举证责任,” 研究人员指出。
随着像谷歌这样的科技巨头继续将 AI 技术整合到各种产品中,我们可以预见,上述问题将会变得更加严重。
更多关于谷歌的信息:谷歌被发现手动删除奇怪的人工智能答案