人工智能并非我们的选举安全问题,虚假信息才是

WhatsApp 和 Facebook

(SeaPRwire) –   本选举周期将是第一个接触生成式人工智能的选举周期,而生成式人工智能是像 ChatGPT 这样流行应用程序背后的技术,使即使是非专家也能创作完全适合进行政治操纵的虚假但看起来却真实性的文本、视频和音频。与此同时,一些大型社交媒体公司已经放弃了其之前做出的促进“选举公正性”承诺的一部分。11 月的选举也是第一场将记录 TikTok 的巨大流行影响的选举,TikTok 使用的推荐算法在一些专家看来特别适合用来传播虚假信息。

我们从生成式人工智能的兴起开始,它允许几乎所有人基于相当简单的自然语言提示产生有说服力的文本、图像或声音。1 月份,Facebook 流传了一张虚假的图片,照片中唐纳德·特朗普坐在杰弗里·爱泼斯坦的私人飞机上,旁边是这位名声扫地的金融家兼性犯罪者。2 月份,一位为一名长期竞争对手工作的民主党顾问称,他委托进行了基于生成式人工智能、冒充总统乔·拜登的机器人电话,试图阻止数千名选民参加新罕布什尔州的初选。该州的司法部长已经展开刑事调查。

美国并不是唯一出现这种情况的国家。去年 9 月,斯洛伐克总理全国选举前两天,Facebook 上发布了一段音频剪辑,其中似乎记录了支持北约、支持乌克兰的斯洛伐克进步党的候选人讨论如何操纵结果。这条声名狼藉的帖子是在选举前媒体禁令期间广泛传播的,这限制了对它进行揭穿的程度,而这位候选人输给了亲俄对手。

分析师们正在努力跟上这些可能性。2 月份发表在学术期刊 PNAS Nexus 上的研究发现,配备有生成式人工智能工具的任何政治广告制作人都能够打造“高度可扩展的‘操纵机器’,它根据个人独特的弱点定位他们,而不需要人工输入”。这表明人们有所担忧,2016 年支持唐纳德·特朗普干预选举的俄罗斯网络特工可能利用人工智能作为一种力量倍增器,再次寻求煽动已经两极分化的美国选民。

但人工智能远非全部。生成人工智能造假信息的威胁变得更加令人生畏,这是由于一项更为熟悉的技术:社交媒体。

尽管特朗普试图破坏 2020 年选举结果而引起的混乱和暴力以及今年面临的类似动荡的威胁,但据我们与纽约大学斯特恩商学院的 Election Lab 联合撰写的报告显示,Facebook、YouTube 和 Twitter 等主要平台已经放弃了一些早前的选举公正政策。

关于倒退的任何讨论都必须从 Twitter 开始,埃隆·马斯克于 2022 年 10 月收购了 Twitter。Meta 的新应用 Threads 的竞争以及与马斯克相关的争议已经。但平均每月有用户访问该网站,并且它仍然得到了许多有影响力的政治家、记者和演艺人员的忠诚。到了 2023 年春季,马斯克已经解雇了 Twitter 6,000 名员工,即 80% 的员工。2023 年 9 月,该平台选举诚信部门的头目称,“是的,他们走了”。新老板以促进言论自由为由缩减内容审核,这导致种族主义和反犹太言论大行其道,促使广告商大量退出 Twitter。

在新冠肺炎疫情期间进行了一波招聘狂潮后,其他社交媒体公司也进行了大规模裁员,其中许多公司削减了其“信任与安全”团队,这些团队负责制定和执行内容政策。

2020 年选举期间,Meta 组建了一个 300 人的团队致力于选举诚信。但尽管 2021 年 1 月 6 日特朗普的支持者冲进国会大厦时爆发了混乱,该公司随后将该团队的规模缩小到大约 60 人,并结束了该团队领导者与首席执行官马克·扎克伯格之间的定期会面。Meta 的官员告诉我们,一些有新职务的前团队成员仍在为选举诚信工作做出贡献,并且高层管理人员会随时了解这项工作。但信号肯定很混乱。

值得称赞的是,Meta 仍然为一个由 90 多个外部事实核查组织组成的行业领先联盟提供资金,该联盟帮助该平台降低虚假内容的重要性并对其进行标记。但该公司继续阻止有人对自己的声明进行事实核查。与此同时,YouTube 已经取消了其早前据此移除数万段虚假声称 2020 年选举不合法的视频的政策。这两家公司都认为,他们新的做法鼓励言论自由。

Meta 还表示,为了促进自由讨论,它将允许在 Facebook 和 Instagram 上对 2020 年总统选举的合法性提出质疑的政治广告。果然,2023 年 8 月,Facebook 允许特朗普竞选团队投放广告,其中宣称:“2020 年的选举存在舞弊”。

TikTok 现在在全球拥有超过 10 亿的平均每月用户,仅在美国就有超过 1.7 亿用户,它带来了新的完全不同的挑战。它与中国母公司字节跳动的联系导致人们(到目前为止尚未得到证实)认为,专制的北京政府对美国平台施加了影响。众议院刚刚一项法案,该法案将迫使字节跳动出售 TikTok 或面临美国禁止这款短视频应用程序。

但人们也对 TikTok 的推荐算法提出质疑,该算法负责为用户选择呈现的内容。其他主要平台依赖“社交图谱”,根据人们关注的人以及关注他们的人所分享的内容来选择内容。相比之下,TikTok 也会基于算法对来自社交网络之外的内容进行推荐,为其“关注”页面选择短视频。这种差异可能有助于解释为什么 TikTok 如此成功地提供用户认为新颖且引人入胜的视频。

但根据与纽约大学社交媒体与政治中心的研究,这种差异在选举季可能带来危险:“随着生成式人工智能让制作虚假视频变得更加容易”,研究员们在 1 月份写道,“我们可能会看到政治虚假信息通过 TikTok 接触到它无法通过其他基于社交图谱的平台接触到的用户”。此外,TikTok 用户更年轻,而研究表明年轻人更有可能相信虚假信息。TikTok 告诉我们,这种分析“完全是猜测”,反映了“对我们的平台如何运作的了解甚少”。

平台仍然有时间采取选举前的预防措施。它们可以对内容的广泛重新分享施加限制,因为这是虚假信息传播的一种方式。它们可以在某些病毒性帖子中建立“断路器”,让内容审核员有机会确定该内容是否具有恶意。它们可以补充其精简的内容审核团队。并且它们可以从用户 feed 中移除明显虚假的内容,同时保留一份标记的存档副本,该副本不可共享,但可作为追踪虚假信息的参考供那些人使用。

社交媒体行业应该将这些和其他保护措施视为在预计将是另一个动荡选举季中负责任地开展业务的成本。不作为可能会加剧美国民主的真正危机。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。