要阻止AI毁灭我们所有人,首先应该规范深假,研究人员康纳·利希说

(SeaPRwire) –   康纳·利希(Connor Leahy)还记得他第一次意识到AI会杀死我们所有人的时候。

是2019年,开放AI的GPT-2刚刚发布。利希在慕尼黑技术大学学习时,将这个初期的大语言模型下载到自己的笔记本电脑上,并带到了一场黑客马拉松。在一个狭小拥挤的房间里,他坐在沙发上,周围围着四个朋友,启动了AI系统。即使它几乎无法连贯地组织句子,利希还是在GPT-2中看到了之前所有其他AI模型都没有的东西。“我看到了一种普遍性,”他说,后来笑着回想GPT-2今天看起来有多么笨拙。“现在我可以说这话而不会听起来疯了。当时,我听起来确实很疯。”

这次经历改变了他的优先事项。他说:“我以为我还有整个正常的职业生涯、家庭生活等等时间。但是一切都不一样了。就是现在紧急时期。”

今天,利希是Conjecture公司的CEO,这是一家AI安全公司。他留着长长的胡子和肩长的头发,在AI界也许是最具代表性的“存在风险”人士之一,不断发出警告说AI正朝着一条可能很快超越人类控制能力的轨道发展。1月17日,他在达沃斯世界经济论坛年会的边缘活动上发言,达沃斯是全球决策者每年聚集讨论威胁全球的风险的场所。今年达沃斯的重点大多放在中东冲突升级和气候变化影响加剧上,但利希认为,高级AI带来的风险也应该列入议程首位。他说:“我们可能有一年,两年,五年的时间。我不认为我们有10年的时间。”

尽管他警告说结束可能就在眼前,但利希并不悲观。他来到达沃斯带来了政策解决方案和政治策略。他的策略是:首先禁止深假,即现在被大规模用于非自愿性地制作大多数女性和女孩的性图像的AI生成图像。利希说,深假是个很好的起点,因为几乎每个人都可以同意它是不好的。如果政客能解决深假问题,他们或许就有机会应对所谓的AGI(人工通用智能)带来的风险。

《时代》杂志在利希抵达达沃斯前采访了他。以下对话经过缩减和编辑以保持清晰。

你来达沃斯做什么?

我将加入一个小组讨论深假和我们可以采取什么行动。深假是更广泛问题的具体体现。如果你想解决这类问题,只追究用户是不够的,这正是深假利益相关者试图推动的。如果一个社会真的想解决这类问题——深假只是其中的一个例子,AGI是另一个例子——我们必须能够追究整个供应链。仅仅惩处,例如,使用这种技术造成伤害的人是不够的。你也必须追究开发这种技术的人。我们已经这样对待儿童色情物品;我们不仅惩处消费者,也惩处生产者、分发者和托管者。这就是你必须对付严重的数字问题所需要的。

我认为应该有责任。我们可以从深假开始,因为这是一个政治上很受欢迎的立场。如果你开发了一套系统可以用于产生深假,如果你分发或托管这套系统,那么你应对其造成的伤害和潜在刑事指控负责。如果你给社会带来成本,那么你就应该承担费用。如果你开发了一个新产品并伤害了100万人,那么这100万人应该得到一定补偿,或者你不应该这样做。目前,AI领域的人日复一日地工作,以避免为他们实际做的事和影响人们带来的后果负责。深假就是一个具体例子。但问题远不止此。我们的社会目前还没有很好地解决这类问题,如果我们想对AGI有希望,我们必须解决好这类问题。

对于深假,一个主要问题是,仅从图像本身很难判断使用了哪个系统进行生成。如果你提出责任追究,如何在法律上可执行地将两者联系起来?

责任和刑事执行的好处在于,如果做得好,你不必每次都抓住,只要存在风险就足够了。所以你试图将这种风险纳入那些开发这类系统的人的决策考量中。目前,研究人员开发出一套新的更好的深假系统时,没有成本,没有下场,也没有风险,不论是否将其发布到互联网。他们不在乎,也不关心这将如何影响人们,也不会有什么后果。如果我们只是增加了被抓住将面临麻烦的威胁,这将极大改变情况。当然,我们不可能抓住所有的人。但我们可以使情况变得很多很多更困难。

达沃斯很多决策者对AI都很乐观,无论从国家安全还是经济角度。你对这些人的消息是什么?

如果你只是冒进地推进AI,就不会有好结果。这不会有好的结局。它会导致更多混乱、困惑,对正在发生的事情越来越少甚至无法理解的控制,直到一切结束。这是一个扩散问题。伤害他人的能力和事故后果的严重性都在增加,社会将变得越来越不稳定,直到社会停止存在。如果我们想作为一种物种有未来,我们不能让一种如此强大的技术肆无忌惮地扩散,专家同意这可能会超越我们作为一种物种。如果你制造出比人类更聪明、在政治、科学、操纵和商业上都更强的东西,而你不知道如何控制它——我们目前还不知道——并大规模生产,你认为会发生什么?

你对应对你看到的AGI风险有具体的政策建议吗?

我在推动实施计算能力上限,通过国际约束性协议,比如非扩散协议,我们可以同意在某个时间段内不建立超过一定规模的计算机,也不进行超过一定计算能力的AI实验。这种方法的优点在于它可以很客观地衡量。供应链很紧密,需要特定的技能和能力来建立这些系统,只有很少数公司真正能进行前沿实验。它们都位于遵守法律的西方国家。所以,如果我们强制要求微软报告每次实验并不进行超过一定规模的实验,它们会遵守。所以这完全可行,将为我们所有人争取更多时间来真正建立长期的技术和社会政治解决方案。这一方案和我关于深假的提议都不是长期解决方案,它们是第一步。

推进AI的人往往会说,减速实际上是不道德的。考虑到AI可以带来的延长寿命的技术、经济增长和科学进步。我相信你听说过这个论点。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。