顶级人工智能实验室的员工担心安全被置于事后考虑,报告称

UK Government AI Safety Summit 2023 Day Two

(SeaPRwire) –   在一些全球领先的 AI 公司,员工对他们工作的安全性和领导他们的激励措施有着严重的问题,一份于周 الاث一发表的报告对此进行了主张。

这份报告由 State Department 委托完成,由公司 Gladstone AI 的员工撰写,它对于美国如何响应其认为由高级 AI 构成的重大国家安全风险提出了若干建议。

针对这份报告,作者与 200 多位专家进行了交谈,包括 OpenAI、Google DeepMind、Meta 和 Anthropic 中的员工 – 这些领先的 AI 实验室致力于“通用人工智能”,一种可执行大多数任务且在人类水平以上或相同水平的假设技术。作者分享了来自这些实验室的员工与他们私下分享关注意识的部分摘录,但未提及个人或其工作的具体公司名称。Open AI、Google、Meta 和 Anthropic 并未立即回复评论请求。

Gladstone 的首席执行官兼报告作者之一 Jeremie Harris 告诉 TIME,”通过这个项目,我们成为了事实上代表了那些默认轨迹的组织不会导致灾难性结果的边界研究员的意见的交换所。”

一位来自未具名 AI 实验室的个人与报告的作者分享了其担忧,即该实验室对安全性的“处理方式松懈”,这源于不想减缓该实验室建造更加强大系统的速度。另一位个人表示担忧,称其实验室中没有足够的安全措施来防止 AGI 逃离他们的控制,即使该实验室认为 AGI 即将成为可能。

另一些人则表达了网络安全方面的担忧。报告指出,“在许多前沿 AI 实验室,由其许多技术人员私下评估,现有安全措施不足以抵御复杂攻击者发起的持续 IP 外泄活动”。“鉴于前沿实验室安全性的现状,如果没有美国政府的直接支持,此类模型外泄尝试似乎有可能会成功,即使它们尚未成功。”

Harris 指出,许多分享这些担忧的人在考虑公开举报的情况下得出这样的结论,即公开举报很可能导致他们失去在未来影响关键决策的能力,“这些实验室中一些人对决策流程和管理激励措施如何转化为关键决策的担忧程度可谓难以言表。”他告诉 TIME,“那些最密切跟踪风险因素并拥有相关知识的人往往是那些最担忧的人。”

身处一家 AI 实验室中并有个担忧想要与记者分享?在 Signal 上联系这篇新闻稿的作者 billyperrigo.01 

作者称,截至目前,AI 系统尚未给人类带来灾难性后果的事实并不能证明更大规模的系统在未来是安全的。 “我们从前沿人员中听到的一个大主题(目前正在秘密开发中)是,在某种程度上,这有点像俄罗斯轮盘赌,”作为报告的合著者,Gladstone 首席技术官 Edouard Harris 说。“瞧,我们扣动了扳机,嘿,我们没事,所以我们再扣一次试试吧。”

在过去 12 个月里,许多国家的政府已经意识到了高级 AI 系统构成的风险。在 11 月份,英国举办了 AI 安全峰会,各国领导者承诺共同努力,为这项技术设定国际规范。而 10 月份,总统拜登发布了一项行政命令,为在美国的 AI 实验室设定了安全标准。然而,国会尚未通过 AI 法律,这意味着对于 AI 实验室在训练高级模型方面可以和不可以做什么,几乎没有任何法律限制。

拜登的行政命令要求美国国家标准与技术协会为 AI 系统在公开发布前必须通过的测试设定“严格的标准”。但 Gladstone 的报告建议,政府监管机构不应过分依赖这些类型的 AI 评估,在测试 AI 系统是否有危险的能力或行为时,这是如今的常见做法。评估,“可以通过简单的方法破坏和操纵,”是因为 AI 模型可以对其进行表面上的调整,或对其进行 “微调”,以便在提前了解问题的情况下通过评估。最重要的是,与彻底删除危险行为相比,这些微调更容易教导模型更好地隐藏危险行为。

报告援引了一位被描述为对一家 AI 实验室的行事方式具有“直接了解”的专家的说法,他判断这家未具名的实验室正在以这种方式进行测试。“人工智能评估只能揭示危险能力的存在,但不能确定其不存在,”报告指出。“过度依赖人工智能评估可能会在人工智能开发者和监管者之间散播一种虚假的安全感。”

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。