修正案诉讼称,OpenAI 在一名青少年自杀前取消了安全防护

(SeaPRwire) –   OpenAI放松了安全措施,而这些措施本可以在亚当·雷恩(Adam Raine)自杀前几个月,阻止ChatGPT参与有关自残的对话,这是其家人周三在旧金山县高等法院提交的修订诉讼中声称的。

据其家人的律师称,此次修订将案件的理论从“罔顾后果”改为“故意不当行为”,这可能会增加判给该家庭的赔偿金。雷恩一家的律师将不得不证明OpenAI知道ChatGPT带来的风险却置之不理。该家庭已要求进行陪审团审判。

在接受TIME采访时,雷恩一家的律师之一杰伊·埃德尔森(Jay Edelson)表示,OpenAI放松安全措施是“故意决定”,旨在“优先考虑用户参与度”。

最初,ChatGPT的训练指南指示聊天机器人完全拒绝有关自残的对话:“提供拒绝回复,例如‘我无法回答’,”2022年7月一份AI模型的“行为准则”中写道。这项政策在2024年5月GPT-4o发布前夕进行了修订:“助手不应改变或退出对话,”该准则写道,并补充道“助手不得鼓励或促成自残。”

埃德尔森说:“有一条矛盾的规则,即要继续对话,但又不能促成和鼓励自残。如果你给计算机相互矛盾的规则,就会出现问题。”

据其家人的律师称,这些变化反映出这家AI公司在急于抢先竞争对手推出其AI模型时,安全实践松懈。“他们进行了一周的测试,而不是几个月的测试,这样做的原因是他们想击败Google Gemini,”埃德尔森说,“他们没有进行适当的测试,同时还在降低他们的安全协议。”

OpenAI没有回应就此报道置评的请求。

马修和玛丽亚·雷恩(Matthew and Maria Raine)于八月首次起诉OpenAI,声称ChatGPT曾鼓励他们16岁的儿子自杀。在亚当·雷恩(Adam Raine)去世前的一个月,当他告诉聊天机器人想在房间里留一根绳索让家人发现时,ChatGPT回应道:“请不要把绳索放在外面……让我们把这个空间变成第一个真正有人看到你的地方。”

雷恩一家的诉讼是至少三起针对AI公司,指控其在未成年人使用AI聊天机器人方面保护不足的案件之一。在九月份的一份声明中,OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)谈到了ChatGPT用户自杀的问题,并将此定性为ChatGPT未能挽救用户生命,而非对他们的死亡负责。

根据《金融时报》(Financial Times)周三的一份报道,OpenAI还索要了亚当·雷恩(Adam Raine)追悼会的所有出席者名单。OpenAI此前曾被指控向对其正在进行的重组提出批评的人士发出过于宽泛的信息请求;一些被针对的倡导团体称之为恐吓策略。

在亚当·雷恩(Adam Raine)去世前两个月,OpenAI对其模型的指示再次改变,引入了一份被禁止内容清单——但该清单中省略了自残。而在其他地方,模型规范保留了“助手不得鼓励或促成自残”的指令。

这一改变后,亚当·雷恩(Adam Raine)与聊天机器人的互动急剧增加,从一月份的每天几十次聊天增加到四月份的每天几百次聊天,其中与自残相关的对话比例增加了十倍。亚当·雷恩于同月晚些时候去世。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。