
(SeaPRwire) – 我们现在正深入AI时代,每周都有AI能够完成的新功能或任务出现。但鉴于我们已走了这么远,我们更需要跳出来,提出更大的问题:我们正走向何方?随着这项技术的发展,我们如何才能最大程度地利用它?以及,当我们共同进化时,我们又如何才能最大程度地发挥自身的潜力?
最近Sam Altman出现在Tucker Carlson的播客上,有一个颇具启发性的时刻。Carlson向Altman追问ChatGPT的道德基础。他认为这项技术具有某种基线的宗教或精神成分,因为我们假设它比人类更强大,并向它寻求指导。Altman回应说,对他而言,这没有任何精神层面的东西。“那么,如果它不过是一台机器,仅仅是其输入物的产物,”Carlson说,“那么两个显而易见的问题是:输入物是什么?这项技术中内置的道德框架是什么?”
Altman随后提到了“模型规范”(model spec),即赋予AI模型的一组指令,用于管理其行为。他说,对于ChatGPT而言,这意味着在“人类的集体经验、知识和学习成果”上进行训练。但他补充道,“然后我们确实需要将其调整为某种行为方式。”
当然,这便引出了著名的对齐问题——即为了防范AI接管的生存风险,我们需要将AI与人类价值观对齐。这个概念实际上可以追溯到1960年和AI先驱Norbert Wiener,他这样描述对齐问题:“如果我们使用一个我们无法有效干预其操作的机械机构来实现我们的目的……我们最好非常确定输入机器的目的是我们真正想要的。”
但实际上,存在一个比1960年更久远的更大范围的对齐问题。要将AI与人类价值观对齐,我们自己首先需要明确我们所认同的普世价值观。我们的输入是什么?我们的模型规范是什么?我们正在用什么来训练自己,以便过上有意义的生活?
在我们决定让AI汲取哪些输入之前,这些都是我们需要回答的问题。即使我们能将AI与人类目前的状况完美对齐,结果也并非最优。因此,现在是时候在我们构建一项旨在融入和反映我们价值观的技术之前,先澄清我们的价值观了。
因为现在我们正经历着深刻的错位。在我们的现代世界中,我们已经失去了与我们文明(无论是西方还是东方)赖以建立的精神基础的联系。我们已经生活在其余晖中数百年,但现在连余晖也已黯淡,我们变得无所依靠、无所羁绊。
那个基础随着启蒙运动和工业革命开始缓慢瓦解,但仍然汲取着这些永恒的真理。我们比以往更少地表达它们——甚至更少地相信它们——但我们仍然受到它们的指引。但现在,这种联系已经被切断,为了训练AI与人类价值观对齐,我们首先需要发掘并重新连接这些价值观。
在他的新书 中,Paul Kingsnorth探讨了每种文化是如何建立在一种神圣秩序之上的。他写道:“这当然不必是基督教秩序,它可以是伊斯兰教、印度教或道教的。”启蒙运动使我们与这种神圣秩序脱节,但正如Kingsnorth所说,“社会并没有察觉,因为旧神圣秩序的纪念碑仍然矗立着,就像罗马帝国衰落后的雕像一样。”我们确实看到的是,当这种秩序崩溃时,社会所付出的代价:“社会各个层面的动荡,从政治层面一直到灵魂层面。”
这难道不正是现在正在发生的事情吗?“这将解释这个时代奇怪、紧张、破碎和令人沮丧的基调,”Kingsnorth写道。
在他与Carlson的对话中,Altman谈到AI是基于人类的“集体经验”进行训练的。但我们自己是否真的在接触作为人类的全部集体经验呢?
当我们正在构建一项将改变我们生活一切的变革性技术时,我们需要确保我们以定义我们人类身份的基本且不变的价值观来训练它。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。
