谷歌因右翼反对而撤销人工智能功能后陷入“可怕困境”

(SeaPRwire) –   二月对 Google 雄心勃勃的人工智能战略来说是一个丰收月。该公司将其聊天机器人更名为 Gemini,并发布了两次重大产品升级,以便在高风险的人工智能竞赛中与各方面的竞争对手展开竞争。在此期间,Google 还允许 Gemini 用户生成人物的逼真图像。

起初,许多人都没有注意到此功能。OpenAI 等其他公司已经提供了允许用户快速制作人物图像的工具,这些图像随后可用于营销、艺术和头脑风暴创意。然而,与其他人工智能产品一样,这些图像生成器有可能延续基于开发过程中输入的数据的偏见。如果要求护士,某些人工智能服务更有可能显示一位女性;如果要求首席执行官,你经常会看到一位男性。

​​在 Google 发布该功能后的几周内,Gemini 用户注意到了一个不同的问题。从 2 月 20 日开始,并在整个星期内,X 上的用户充斥着社交媒体平台,其中展示了 Gemini 不会显示白人的示例——即使在他们很可能占据主导地位的历史背景下,例如在用户请求美国建国先贤或 1943 年德国士兵的图像时。不久,拥有大量右翼受众的名人和新闻媒体声称,使用可疑证据,他们的 Gemini 测试表明 Google 对白人抱有隐秘动机。

X 的所有者埃隆·马斯克介入争论,与数十篇关于毫无根据的阴谋论的帖子互动,其中包括几篇点名批评 Google 领导人是该政策的所谓设计师。周四,Google 暂停了 Gemini 生成人物图像的功能。第二天,Google 高级副总裁 Prabhakar Raghavan 没有深入解释该功能失败的原因,而是试图阐明公司的决定。

两名知情人士表示,Google 发布了一个装备不良的产品,无法处理历史图像请求,这表明科技公司在防止其人工智能系统放大偏见和错误信息方面面临着独特的挑战——尤其考虑到将人工智能产品快速推向市场的竞争压力。Google 并未推迟发布有缺陷的图像生成器,而试图采用创可贴解决方案。

据两名知情人士透露,当 Google 发布该工具时,其中加入了一个技术修复措施来减少其输出中的偏见,这两位知情人士在讨论私人信息时要求匿名。但 Google 这样做时并未充分预见到该工具可能会出错的所有方式,而且没有对其方法保持透明。

Google 对人工智能众所周知针对有色人种的偏见过度矫正,使其容易受到另一场关于多元化的批评风暴。多年来,这家科技巨头一直面临批评,原因是其 Photos 应用在用户搜索“大猩猩”时错误地返回黑人的图像,以及就其是否在驱逐其道德人工智能团队的领导人方面采取了适当行动而进行的旷日持久的公开争论。

在如此迅速地暂停该工具时,没有充分解释系统为何做出此类应答,谷歌员工和硅谷的其他人现在担心该公司的举动会产生寒蝉效应。他们表示,这可能会阻止人才从事AI和偏见的问题研究——这是该领域的关键问题。

“整个科技行业,谷歌首当其冲,再次自食其果,陷入了可怕的困境,”劳拉·埃德尔森说,她是东北大学的助理教授,研究人工智能系统和大型在线网络中的信息流。她表示,“该行业迫切需要将人工智能描绘成魔法,而不是”,她指的是一个流行的比喻,描述了人工智能系统如何通过统计模式匹配来模仿人类语言,而没有真正理解或领会。“但他们所拥有的只是鹦鹉。”

Google 的一位发言人在一份声明中表示:“Gemini 被构建为创造性和生产力工具,并且并不总是准确或可靠。我们将继续迅速解决产品在应答中未做出适当响应时的实例。”

在周二深夜发给员工的一封电子邮件中,Google 首席执行官桑达尔·皮查伊表示,员工们“夜以继日地工作”以解决用户标记出的 Gemini 应答问题,并补充说公司已经在“广泛提示下登记了实质性改进”。

皮查伊在备忘录中写道:“我知道它的一些应答冒犯了我们的用户,并表现出偏见——说清楚,这是完全不可接受的,我们做错了。” 该备忘录最初由 Semafor 报道。“没有哪种人工智能是完美的,尤其是在该行业发展这个新兴阶段,但我们知道对我们来说标准很高,并且我们将坚持下去,无论需要多长时间。我们将回顾发生的事情,并确保以规模解决它。”

在过去一年里,随着公司加快推出人工智能产品以跟上 OpenAI 等竞争对手的步伐,从事道德人工智能工作的谷歌员工一直备受士气低落和失权感的困扰。虽然在 Gemini 图像中包含有色人种体现了对多元化的考虑,但它表明该公司未能充分考虑用户可能寻求创建图像的不同背景,Google 道德人工智能研究小组前联合负责人兼人工智能公司 Hugging 首席道德科学家玛格丽特·米切尔说道。在用户搜索他们认为世界应该是什么样子的图像时,而不是搜索世界在历史上某个特定时刻实际上是什么样子的图像时,可能会考虑不同的多元化因素。

米切尔说:“Google 关注肤色多元性是一个飞跃性的进步,相比 Google 四年前来说是这样。因此,这有点像,向前迈了两步,又后退了一步”“他们应该得到承认,因为他们确实关注了这些事情。只是说,他们需要更进一步才能做到正确。”

Google 的图像问题

对于 Google 来说,它开创了当今人工智能繁荣的核心技术,长期以来一直面临着极大压力,要求他们正确进行图像生成。Google 非常担心人们会如何使用其人工智能图像生成模型 Imagen,以至于在该功能公开很长一段时间后拒绝向公众发布该功能。

据两名知情人士透露,多年来,该公司内部的团队一直在争论如何确保其人工智能工具在生成逼真的人物图像时是负责任的,这两位知情人在转述内部讨论时要求匿名。据一位知情人士透露,在某个时候,如果内部实验使用 Google 的 Imagen 的员工要求程序生成一个人类图像——甚至是隐含包括人物的图像,例如足球场——程序将以一个黑盒子进行响应。另一位知情人士表示,Google 仅在进行多项审查后才在 Gemini 中加入了生成人物图像的能力。 

一位知情人士说,Google 并未对该功能可能产生意外结果的所有方式进行测试,但它被认为足以用于 Google 向公众广泛提供的 Gemini 图像生成工具的第一个版本。他们表示,尽管 Google 的团队在创建该工具时采取了谨慎态度,但他们普遍感到公司尚未为这种类型的后果做好准备。

根据一位现任员工透露,当 X 上的用户散布 Gemini 对人物的非历史描述的图像时,Google 的内部员工论坛上充斥着有关该模型缺陷的帖子。在 Memegen 上,这是一个员工分享取笑公司的模因的内部论坛,其中一篇热门帖子展示了电视节目主持人安德森·库珀用手捂着脸的图像。 

这位员工说:“这令人目瞪口呆。”“有一种感觉是,这显然还没有准备好黄金时段……该公司实际上是在试图迎头赶上。” 

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。

Google、OpenAI 和其他公司在其人工智能产品中构建了护栏,并经常进行对抗性测试——MEA