欧洲不应让AI公司将利润置于人民之上

European Parliament Building

(SeaPRwire) –   OpenAI首席执行官Sam Altman的离职引发了许多网络上的讽刺性评论,但它也暴露出一些重要的问题。其中一个我觉得很有意思的评论是:“如果就几名董事会成员的一致性已经难以实现,我们怎么能解决AI对齐问题?”

作为ChatGPT背后的公司,OpenAI可能是其中一个更为人熟知的名字,但人工智能不仅仅是某一家公司。它是一项影响深远的技术,但目前几乎没有任何监管。欧盟有机会真正解决这个挑战——但如果它向大型科技公司不断增长的压力屈服,就无法实现这一目标。欧洲议会的一些成员面对巨大压力,试图拯救这项里程碑性法规。在周末,欧盟委员会蒂埃里·布雷顿警告说,法国Mistral AI等一些不以公众利益为重的人工智能公司的游说行为可能损害公众利益。这些议员现在需要和应得我们的支持。

欧洲正处于世界开始意识到需要监管人工智能的关键时刻。从美国开始,直到最近在布莱切利公园举行的英国会议,各国都认识到,如果我们要分享这项不可思议技术的利益,我们必须减轻其风险。欧盟AI法将成为首个全面法律框架,旨在实现这一目标,但几家科技公司正在以破坏立法进程来要挟,除非他们的系统免于监管,否则将使船只沉没。屈服将损害欧洲创新,以利润优先于公共安全,这也将对民主构成侮辱。我们的立法者不能低头。

上周,谈判破裂,因为法国和德国反对对“基础模型”进行监管的提议。随后,它们与意大利一起发布联合声明,阐述了这些要求,要求仅对基础模型的公司实行自愿承诺。基础模型是通用机器学习系统,例如OpenAI的GPT-4(ChatGPT的基础),可以应用于广泛下游应用和功能。监管这些基础模型将迫使AI公司确保它们在部署前是安全的,而不是在危险系统发布后才采取行动,这明显会带来公众伤害的风险。鉴于这些高级系统可能带来的潜在风险日益引起关注,包括大规模误导信息、生物恐怖主义、关键基础设施黑客攻击、大规模网络攻击等,这是一个明智的规定。

我们已经亲眼看到,比起依靠企业自律,我们需要法律保护的明确规定。例如,社交媒体对年轻女性和女孩心理健康的伤害已经越来越明显。长期未能采取行动解决这个问题的平台和渠道公司。自愿承诺既不充分也不可靠。如果我们想阻止人们受伤,我们需要预防,而不是治疗,我们需要从一开始就对强大的AI实施可执行的安全标准和风险减轻措施。

那么,为什么会有反对意见?一些持不同意见的人声称,这将妨碍企业利用AI进行创新,但这根本不成立。监管基础模型对创新至关重要,因为它将保护下游小型欧洲用户免受合规要求的影响,也免受事故导致的法律责任,而这些小型企业既没有能力也没有资源来改变底层模型。

法国和德国还声称,监管基础模型将损害欧洲在全球AI领域的竞争力。但这一说法站不住脚。议会和欧盟理事会已经达成了一个折中方案,即采取分级方法,允许主要AI公司的竞争对手在不那么繁琐的限制下出现。欧洲议员应关闭对大型科技公司和其新盟友推广的恐吓,并记住法规的目的:实现公平均衡的框架,保护创新同时防止伤害。它不应成为为硅谷背后的几家AI领导企业提供行业霸主地位和零要求的立法工具,同时阻止成千上万欧洲企业发挥这项技术的潜力。

议会支持监管基础模型,委员会和理事会许多人也支持。商业社区也支持这一观点,数以千计的AI专家对这些日益强大的系统如果不加约束可能带来的危险也表示深深担忧。几家科技公司不应被允许以破坏这项里程碑性立法和抛弃三年工作成果来胁迫我们的政治进程。他们不应以利润优先于安全,以市场控制优先于欧洲创新。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供实时新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及90个国家350万台专业桌面电脑。SeaPRwire支持英语、韩语、日语、阿拉伯语、简体中文、繁体中文、越南语、泰语、印度尼西亚语、马来语、德语、俄语、法语、西班牙语、葡萄牙语等多种语言的新闻稿发布。