Meta人工智能负责人Yann LeCun谈论AGI、开源和人工智能风险

(SeaPRwire) –   公司首席人工智能科学家,在周日获得了另一个增加他长期荣誉的TIME100影响力奖,这是对他在人工智能领域的贡献的肯定。

在杜拜颁奖典礼前,LeCun与TIME进行了交谈,讨论了实现“人工通用智能”(AGI)的障碍,Meta开源方法的优点,以及他认为人工智能可能对人类种群带来灭绝级威胁这一说法“荒谬”。

TIME于1月26日与LeCun进行了交谈。此次对话经过缩减和编辑以保持清晰。

技术界许多人今天认为,通过更多的计算能力和数据来训练大规模语言模型(LLM),将会导致人工通用智能。你同意这个看法吗?

LLM在大规模训练后工作的方式令人惊讶,但它的能力非常有限。我们看到,这些系统会产生假象,它们真的不了解现实世界。它们需要大量数据才能达到一个智能水平,但这个水平仍然不高。它们无法推理。它们除了训练过的东西外,无法规划任何其他事情。所以它们不是通往人称“AGI”的道路。我讨厌这个术语。它们确实有用,但它们不是通往人类级智能的路径。

你提到你讨厌“AGI”这个缩写词。这是一个马克·扎克伯格在1月宣布Meta将人工通用智能作为组织一个核心目标时使用的术语。

在这里有很多误解。所以FAIR的使命是人类级智能。这场战斗已经结束,这是一个我输掉的战斗,但我不喜欢称它为AGI,因为人类智能本身并不是通用的。智能体具有人类和动物没有的特征,比如理解物理世界;规划一系列行动来实现目标;以需要长时间推理的方式进行推理。人类和动物有一个专门用于工作记忆的大脑部分。LLM没有这个部分。

婴儿在出生后的前几个月就能学习这个世界的运行方式。我们不知道如何用AI来实现这一点。一旦我们有技术可以通过观察世界就能学习“世界模型”,并结合规划技术,也许还可以结合短期记忆系统,那么我们可能就有通往不仅仅是通用智能,而是比如猫级智能的路径。在达到人类水平之前,我们必须先通过更简单形式的智能。我们现在离这个目标还很远。

在某种程度上,这个比喻是合理的,因为一只猫可以看到外界,学习LLM根本无法学习的东西。但同时,人类知识的整体总结并不可供猫使用。这个比喻在哪里有限?

简单来说,一个大型语言模型是根据公共互联网上大部分文本进行训练的。通常训练数据量是10万亿个词元。每个词元大约2字节。所以训练数据量是2乘以10的13字节。你可能会说,我的天,这简直不可思议,一个人需要17万年才能阅读完这些资料。但这只是一种错觉。发育心理学家会告诉你,一个4岁的孩子已经醒着16000小时。然后你可以试着量化在4年时间里多少信息进入了它的视觉皮层。视觉神经每秒传输约20兆字节。所以20兆字节每秒,乘以60000小时,乘以每小时3600秒。结果是10的15字节,是170万年文本量的50倍。

你说得对,但文本编码了人类知识的整体历史,而4岁儿童接收的视觉信息只编码基本的3D信息、基本语言知识等。

但是你说的不对。人类知识的绝大部分不是用文本表达的。它存在于你潜意识的部分,你在能说话前的第一个年头就学习到了。大多数知识实际上与我们对这个世界的经历和运行方式有关。我们称之为常识。LLM没有这个,因为它无法获得这些知识。所以它们会犯很愚蠢的错误。这就是产生假象的原因。对我们来说理所当然的东西,对计算机来说复杂到难以实现。所以AGI或人类级AI不会就在眼前,它需要一些深层次的感知变革。

让我们谈谈开源。在你的职业生涯中,你一直是开放研究的大力支持者,Meta也采取了实际上开源其最强大语言模型的政策,最近例如 。这一策略使Meta与谷歌和微软区分开来,后两者不公开其最强系统的所谓权重。你认为随着Meta AI系统能力不断增强,甚至可能接近人类水平,Meta的这种方法将继续适用吗?

首先,是的。原因在于,未来每个人与数字世界和更广泛的知识世界的交互都将通过AI系统进行中介。它们基本上将扮演人类助手的角色,随时陪伴我们。我们不再使用搜索引擎,而是直接向助手提问,它会帮助我们的日常生活。所以我们整个信息来源都将由这些系统进行中介。它们将构成人类知识的仓库。你不能依赖于专有的封闭系统,特别考虑到世界各地在语言、文化、价值观和兴趣方面的多样性。这就像说,可以由一个位于美国西海岸的商业实体来制作维基百科吗?不可以。维基百科之所以可行,就是因为它是众包的。未来AI系统也必须通过全球各地人员的帮助进行训练或微调。人们只会为开放平台做出贡献,而不会为专有系统工作。所以未来必须开源,如果不是为了文化多样性、民主多样性,就是为了多样的AI助手所需,就像我们需要多样的新闻来源。

一个常听到的批评是,开源可能会让非常强大的工具落入错误使用它们的人手中。如果攻击能力远大于防御能力,那么这对社会整体来说可能会很危险。你如何确保这种情况不会发生?

关于这个问题说的很多都是完全虚构的。RAND公司最近发布了一项研究,研究现有系统是否会使恶意人士更容易制定生物武器配方,答案是不会。原因是当前系统真的不够聪明。它们是根据公开数据进行训练的。所以基本上,它们只能重复训练数据中大致内容,这意味着你可以从谷歌那里获得。人们一直在说,“天哪,我们必须监管LLM,因为它们将变得那么危险。”这完全不对。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。

当然,未来系统情况不同。所以,也许一旦我们有一个非常聪明的系统,它将帮助科学、医学、商业,消除文化壁垒通过同时翻译。所以有很多好处。所以风险-利益分析是:试图保密技术,希望坏人无法获取,是否有效?