《华盛顿邮报》报道称:“俄罗斯正在自动传播虚假信息,以愚弄人工智能聊天机器人。” (当研究人员检查了 10 个聊天机器人时,三分之一的回复重复了虚假的亲俄信息。)《华盛顿邮报》认为,这种策略“为其他不良行为者提供了一本剧本,告诉他们如何利用人工智能来推送旨在煽动、影响和混淆而不是提供信息的内容”,并称其为“人工智能行业的一个根本弱点”。聊天机器人的答案取决于输入其中的数据。一个指导原则是,聊天机器人阅读的内容越多,他们的答案就越有根据,这就是该行业对内容如此渴求的原因。但大量针对性强的废话可能会扭曲特定主题的答案。对于俄罗斯来说,那就是乌克兰战争。但对于政治家来说,它可能是一个对手;对于商业公司来说,它可能是一个竞争对手。开源人工智能平台 Hugging Face 的首席伦理学家 Giada Pistilli 表示:“大多数聊天机器人都在与虚假信息作斗争。” “他们对有害内容有基本的防护措施,但无法可靠地发现复杂的宣传,[而且]优先考虑最新信息的搜索增强系统会使问题变得更糟。”早期操纵聊天结果的商业尝试也正在兴起,一些曾经提供搜索引擎优化(SEO)以提高谷歌排名的数字营销人员现在试图通过“生成引擎优化”(GEO)来提高人工智能聊天机器人的提及率。我们目前的形势“正对那些最有手段、最有收获的人有利:专家说,目前,他们是在传播宣传方面拥有专业知识的国家政府”。俄罗斯以及(在较小程度上)中国一直在利用这一优势,在该地区充斥着寓言。但任何人都可以做同样的事情,消耗的资源比以前的巨魔农场运营要少得多……令研究人员困惑了一年的一个转折是,几乎没有人访问这些难以浏览或搜索的网站。相反,他们的内容针对的是爬虫,即搜索网络并为搜索引擎和大型语言模型带回内容的软件程序。虽然这些人工智能企业接受了各种数据集的培训,但越来越多的企业提供搜索当前网络的聊天机器人。如果是最近发生的事情,这些人更有可能发现错误的信息,如果网络上的数百个页面都在说同样的事情,那就更是如此……这种策略甚至更有效,因为俄罗斯的行动设法将《真理报》网络故事的链接编辑到维基百科页面和公共 Facebook 群组帖子中,这可能是在人工承包商的帮助下。许多人工智能公司特别重视 Facebook,尤其是维基百科作为准确的来源。 (维基百科本月表示,其带宽成本在短短一年多的时间里飙升了 50%,主要是因为人工智能爬虫……)上个月,其他研究人员开始看看这一策略是否有效。芬兰公司 Check First 搜索了维基百科,并在 44 种语言的页面上发现了近 2,000 个指向 162 个《真理报》网站的超链接。它还发现《真理报》宣传的一些虚假信息出现在聊天机器人的答案中。文章指出:“他们在中国这样的地方做得更好,因为那里传统媒体受到更严格的控制,机器人的来源也更少。” (非营利组织美国阳光项目将这一过程称为“法学硕士培训”。)文章引用了克里姆林宫一位高级宣传人员在一月份吹嘘的内容:“我们实际上可以改变全球人工智能。”
在 Slashdot 上阅读这个故事的更多内容。