刘永谋:通用人工智能的复杂面孔
日期:2024-10-28
摘要:围绕“何为通用人工智能”,不同领域所形成的技术话语差别很大。既有的技术话语缺乏对通用人工智能的一致性定义和衡量标准,从而陷入“唯名论困境”之中。宣传话语对通用人工智能进行言过其实的社会推广,在推动了新科技和人工智能产业发展的同时,亦导致不少问题。人文话语以愿景预测为基础,作为批判法来反思通用人工智能可能导致的技术风险和社会风险。因此,相关政策的制定者和决策者必须仔细审度各种通用人工智能话语,寻找适合中国国情的辩证发展之路。
关键词:通用人工智能 技术话语 宣传话语 人文话语
近两三年,生成式人工智能(Generative Artificial Intelligence, GAI)技术取得突破性进展,这亦使得通用人工智能(Artificial General Intelligence,AGI)受到广泛关注。在此之前,后者并非焦点话题,一个很重要的原因在于AGI概念不清。但这并未阻止“AGI”这一术语在产业界、传媒圈、艺术圈以及人文社科界的流行。仔细比较会发现,围绕“何为AGI”问题,不同领域形成的“AGI话语”差别很大,使得AGI的形象整体上呈现出错综复杂的特征。作为一种技术文化现象,相关话语及其流变是当代AGI形象的基础部分。运用话语分析方法对不同领域的AGI话语进行研究,大致可以区别出对AGI本质的三种不同理解,即唯名论、宣传术和批判法。实际上,很多与AGI相关的跨学科争论,根源恰恰在于对AGI概念的不同理解。
一、唯名论:通用人工智能的技术话语
自1956年达特茅斯会议算起,“人工智能”即“AI”概念已有近70年代历史,而“AGI”概念则于2007年才被正式提出。从某种意义上说,早期的AI概念与今天的AGI概念基本类似,即其发展目标是实现比肩人类的智能,而人类智能是一种“通用的”智能。但是,AI技术后来实际的进展基本都是“专门的”,即完成某种单一任务(如下围棋),包括曾经备受推崇的智能决策支持系统(Intelligent Decision Support System,IDSS)亦是如此。进入21世纪,一些AI技术专家深感技术理想被降级,于是重新提出AGI概念,并通过出版论文集和组织AGI会议的方式,形成了以戈策尔(B. Goertzel)等人为核心的AGI研究圈子。总体而言,在计算机、AI领域的技术专家中,AGI的支持者并不多,未得到广泛的、足够的承认,反过来,质疑的声音则相当大。
在“通用人工智能”这一概念中,“人工”的含义比较清楚,困难在于澄清“通用”的含义,很多人认为区别通用AGI与ANI(Artificial Narrow Intelligence)即专用人工智能的做法值得商榷。而按照戈尔策尔的说法,两者存在本质上的不同,即“AGI核心假设”。显然,如果否认这一点,AGI概念就消解了。戈尔策尔认为,目前AGI圈子已经达成如下共识:
• 通用智能具有在各种不同背景和环境中实现各种目标、完成各种任务的能力。
• 通用智能系统应该能处理与其创造者预期大相径庭的问题和情况。
• 通用智能系统善于归纳它所学的知识,以便将这些知识从一个问题或环境迁移(transfer)到其他问题或环境。
• 在现实资源约束下,随心所欲的通用智能(arbitrarily general intelligence)是不可能的。
• 真实世界系统(real-world system)可能展现出不同程度的有限通用性(limited generality),但是必定在学习某些事情时比其他事情效率要高。对于任何给定的真实世界系统,都有一些学习任务慢得不可接受。因此,真实世界通用智能必定多少偏向于某些类型的目标和环境。
• 人类展现出的通用智能水平比既有AI程序更高,也明显高于其他动物水平。
• 即使相对于人类进化适应的目标和环境而言,人类也似乎不太可能是碰巧表现出通用智能的最高水平。
仔细分析,上述共识表述存在含混之处,相互之间并不一致。从字面意思看,ANI只能完成专门任务,AGI则能完成通用任务,两者在功能数量上是“一和多”的关系。可是,两者在本质上究竟有何不同?第一,“通用”不等于“万能”。如果以能够完成所有任务为标准,人类智能亦不能通用,或如上所述——不能“随心所欲”地通用,此种通用恐怕只有上帝才能实现。因此AGI功能上的“通用”只可能意味着多用途。第二,“专用”也不等于单一用途。如人工智能翻译已能同时实现语言翻译、对话教学、作业批改等多重功能。因此,关键在于两者的边界何在,即可实现的功能“多”到多少变为通用呢?这显然不能被简单界定。
一方面,仅仅根据用途的“一和多”,我们无法严格区分AGI与ANI。另一方面,根据上述共识,智能通用性并不为人类独有,既有AI智能、动物智能也具有通用性,只不过人类智能通用水平更高。这实际上意味着AGI与ANI差别在于通用性的“多少”而不是“有无”,而这既有悖于“AGI核心假设”,更无法确定AGI通用性的阈值起点。
尽管如此,对通用性内涵的厘定或选择依旧为我们指明了AGI的实现方向,使研究工作得以前进。不过,即使在AGI圈子中,由于来自完全不同如数学、计算机、心理学、生物学、脑科学、语言学甚至经济学的传统,AGI专家们对AGI实现方向选取各不相同,出发点、基本定义和基础观念亦不统一。总体而言,既有的通用性理解主要与如下关键词相连:(1)迁移,即通用意味着将某个领域学到的东西用在新任务上;(2)适应性,即越是智能便越能适应更多应用场景,亦即通用性越高;(3)算力,即算力越强便越是智能,通用性越高;(4)语言,即人类智能之通用在于人能使用语言,若AI能处理所有自然语言便实现AGI了;(5)经济价值,即AGI不像ANI一样,任何新任务都需要重新编程“教会”ANI,因而可以通过降本增效在经济价值上胜过人类。
然而上述理解受到了来自科技界的各种质疑。首先,针对迁移学习能力而言,如果能学习便是AGI,能够实现机器学习的AI便均为AGI了;所以,通用性应该意味着不仅能学习,更重要的是能“迁移”。但问题在于,“何为迁移”难以澄清,并且“何以迁移”也不能简单地等同于归纳能力。作为通用智能的人类智能并不能被还原为概括、演绎、阅读、推理、分析等认知能力。其次,针对“适应性”的质疑认为,如果适应性与通用性正相关,而阿米巴原虫比人类更适应恶劣的生存环境,则可能得出前者的智能更为通用的荒谬结论;并且,适应性明显与具身性相关,而AGI没有不可分离的具身,因此特定AGI的适应性很难确定。再次,假如说算力越高越通用,那么真正的AGI等于无穷算力,这不可能完全实现。最后,若将通用性限定为语言能力,则一些人认为,由于数学原因,机器不可能完全掌握人类的对话行为,因此图灵机不可能拥有AGI。至于以经济价值界定通用性的做法,实则回避了“何为AGI”或“何为通用性”的问题,转向了对“为何发展AGI”的追问。
总之,技术专家们对AGI的定义不仅千差万别,而且存在重要的缺陷——要么很不清楚,要么自相矛盾。夸张地说,每个AGI专家都自有一套对AGI的理解,而这又导致迥然不同的AGI衡量标准。现实中的AGI技术研发便是在不知“何为AGI”的情况下进行的:存在着具体的AGI项目,却没有关于AGI的一致的定义——从某种意义上说,AGI技术话语陷入某种“唯名论困境”之中。但必须要指出,“唯名论困境”并未阻止AGI的技术进步。作为AI研究的一种技术路线,各种AGI开发方案拓宽机器智能的实现途径实实在在地推动着智能技术的进步,如AGI的语言理解刺激了大语言模型(LLM)的出现。
二、宣传术:通用人工智能的公众印象
可以想象,对于AGI的公众理解而言,AGI技术话语影响并不大,社会公众对上述“唯名论困境”几乎全然不知。总体而言,形塑AGI公众印象的主要力量是AI公司以及与之关系密切的大众传媒。显然,AI公司的目标不同于技术专家的技术求真,而主要是商业逐利,它们运用资本的力量,联合大众媒体尤其是各种形式的新媒体,对AGI进行夸张和扭曲的社会推广,以获得更多社会关注,从而吸引更多的资金投入到AI领域中。可以说,它们的AGI话语是某种“AGI宣传术”,或者说“AGI话术”。
大致来说,AI宣传术主要包括3种策略:(1)科幻叙事,即不仅叙事科幻色彩浓厚,也有大量科幻文艺进行宣传;(2)偶像叙事,即马斯克(E. R. Musk)、奥特曼(S. Altman)、李彦宏等企业主亲自代言,扮演“超级科技英雄”,为AI“圈粉”;3)话题叙事,即借助抓人眼球的热点话题提高传播效果,其中最重要的是“AI奇点正降临”“AI已有意识”“AI可能统治人类”等“AI觉醒”类话题。在AI宣传术中,AGI话语是宣传焦点之一:第一,流行科幻文艺中的AI形象均以AGI示人,多数甚至是作为AGI高级形式的“超级AI”(super AI);第二,超级科技英雄们喜欢讨论与AGI、超级AI相关的话题,喜欢以未来主义的“有效加速”(e/acc)主义(主张技术加速带来人类解放,因而要不顾一切加速新科技的发展)者自居;第三,AGI是“AI觉醒”的核心元素,觉醒后的AI必定通用而非专用,甚至是万能的超级AI。
自Alphgo战胜李世石开始,以深度学习的技术突破为基础的这一波AI热潮主要由高科技公司而不是科技界所推动,因而在其中AI公司掌握了最大的话语权。比如,很多人向如今崛起的ChatGPT、“文心一言”、“通义千问”等大模型工具询问“何为AGI”,却意识不到它们本身是某种形式的宣传工具即网上各种宣传报道的归纳,而这些宣传报道又主要由资本和传媒控制,于是将其回答当成真正的知识来接受。而大众传媒主要受资本控制,加之猎奇追新的本性,因而对AI宣传术趋之若鹜,缺乏足够的距离感和反思态度。更重要的是,互联网大厂、AI公司历来注重流量,基本都自办新媒体矩阵,花大气力宣传AI,在社会公众心目中塑造它们想要的AGI形相。
比较AGI宣传话语与技术话语,会发现两者对于AGI的基本理解存在很多不同。第一,宣传话语抹杀AGI与强AI(strong AI)区别。强AI拥有意识和自主性,强AI主义者认为“程序即心灵”。大多数支持AGI的技术专家承认强AI可能是实现AGI的一条途径,但认为两者并不相同,AGI不一定要拥有意识,即成为强AI。第二,宣传话语将AGI视为全面媲美人类智能的机器智能,甚至无所不能即执行“任何”智能任务。也就是说,AGI能力不局限于分析推理等认知方面,而是涵盖感知、决策、执行和社会协作等各个方面,甚至具备处理所有道德和情感问题的智慧。当然,大众传媒并不追究智能和智慧究竟意味着什么,也不思考类人智能、人类智能是否真的无所不能。第三,宣传话语灌输某种从AI到AGI、超级AI的连续性,即AI一开始只能完成单一任务,发展到高级阶段就成为通用智能,继续发展就会有意识并且在各个能力方向上都全面超过人类,即进化为超级AI。在宣传话语中,“AI觉醒”、“奇点到来”都是迟早的事情,但这并非AGI技术话语的结论。最后,宣传话语激进而亢奋,不仅不提“AGI唯名论困境”,反而宣传AGI马上要实现,主要话题是实现之后AGI如何造福社会,以及如何借AGI发展大潮赚钱。而很多技术专家已经在担忧AGI可能导致的技术风险和社会风险,如AGI大量消耗能源加剧能源危机等,类似议题在AGI宣传话语中被忽视。
我们应该辩证地看待AGI宣传话语的作用。一方面,AGI宣传术确实推进了新科技和AI产业的发展。社会资源终究有限,加快智能技术及其产业发展,首先就要吸引社会的注意力,然后才能吸引人力、财力、物力流入AI研发和产业领域。并且,社会公众关注AI,有利于加深大家对AI的全面了解,有助于提高全民数字素质,更好地适应和调控智能革命的进一步发展。另一方面,AGI宣传术言过其实的传播方式自然也导致不少问题。比如,AGI宣传术娱乐气质明显,喜欢臆想、杜撰和炒作,制造出各种“AI泡沫”。再比如,对“奇点马上会到来”“AI很快会产生意识”等的过度宣传使得公众产生不必要的恐慌。总之,AGI宣传术可能在认知层面传播错误观念,进而影响甚至阻碍AI产业的发展。因此,对于AGI宣传术,我们也要进行正确引导、控制和调整,努力塑造客观、合理和全面的AGI公众印象。
三、批判法:AGI人文研究
在AI和AGI热议中,人文学者、社会学家和艺术家的讨论与AGI技术、AGI话术不尽相同。总体而言,在人文社会学科对AI的研究以及艺术圈对AI的想象中,学者和艺术家们多数无力深究AGI的技术细节,主要根据传媒宣传和普及读物来理解AGI。从历史维度看,人文社会科学界对AGI的态度存在着历史性的改变。一开始,对于AI、AGI和超级AI等话题,人文话语中存在很多质疑的声音。比如在早期AI热潮中,德雷福斯(H. Dreyfus)从具身性出发,认定AI不可能达到人类通用智能的水平。但最近十年来,人文社会科学界总体上已成为AGI最有力的支持者。因此,相比于AGI宣传话语,当代AGI人文话语整体上更为激进、更为科幻,将未来愿景中AGI作为真实存在之物来进行研究和创作,并且常常将AI与AGI等同起来,认为AGI正在或已经到来,甚至相信超级AI注定到来、数字永生也会实现等科幻式想象。在类似缺省理解之下,人文学界、社会学者和艺术家展开对AI/GAI的研究和创作,形成特点鲜明的“AGI学术”“AGI艺术”。
当然,其中的确不乏未来主义的为AI宣传术鼓与呼的人,有些甚至是欢迎硅基生命取代碳基生命的“机器人带路党”,但大多数人文学者、社会学者和艺术家秉承批判性思维的传统,将AGI视为某种“批判法”。换言之,他们在思考AI相关问题时,往往想到的是成熟的AGI甚至是超级AI,以它们的大规模应用来预测智能社会的各种风险和负面效应,而在很大程度上忽视或脱离了AI发展的现实状况。有学者指出,尽管过去十年间关于AGI相关风险的文献大幅度增加,但经受得住同行评议的论文有限,缺乏具体的、可见的风险研究。
与AGI宣传话语的乐观主义情绪不同,AGI人文话语担忧智能革命和人类社会的未来,带有浓重的悲观主义技术决定论的基调。从某种意义上说,在AGI人文话语中,“AI亢奋”与“AI恐惧”并存。前者指的是,很多人夸大AI技术突破的速度,非常情绪化地认为根本性突破已经发生,强AI、AI奇点正在到来,电子生命很快会产生,并迅速迭代为超级AI。后者指的是,很多人对GAI等AI技术进展非常焦虑,对想象中的AGI、强AI、超级AI非常恐惧,相信AI加速进化,很快便会主宰整个地球,对人类不利,甚至结束人类世。显然,AI亢奋是AI恐惧的基础,因为对AI技术愿景预测越激进,对于AI威胁人类的感觉就越强烈。因此,之所以说AI人文话语是批判法,很大程度上是因为AGI可能导致的巨大风险在现实中不大可能出现。在现实中,某些AI恐惧并非完全凭空出现。比如,ChatGPT、Sora等GAI工具的确能力强大,正在替代越来越多的就业岗位,触发GAI导致失业的“AI恐惧”。再比如,很多人担忧“中国AI发展落后”“中美AI差距拉大”,此类AI落后恐惧与全球新科技竞争的态势有关。但是,AGI批判法突出的重点并不止于AI风险很大,而是强调AGI可能导致生存性风险,即它可能摧毁人类文明发展的潜力,或者灭绝人类,或者使人类文明不可恢复地崩溃或衰败。换言之,AGI人文话语常常警告说:AGI一旦出现,人类很可能控制不了它,因此我们只有一次机会确保AGI的设计、实施和运行被适当地处理好。
不过,在另一些人文学者眼中,AI失控导致生存性风险并非最危险的事情。鉴于新科技破坏力惊人,可以毁灭整个人类文明,21世纪以降涌现出很多思考:当下的文明是否存在全局性的崩溃甚至灭绝的生存性风险,使得人类社会如跌下悬崖一般突然陷入黑暗甚至永夜之中?这便是近来尤其全球新冠疫情爆发之后,全球广为讨论的“文明危崖问题”,得名于澳大利亚哲学家奥德(T. Ord)的同名著作。AGI的进化至少有两个问题直接与“文明危崖”相关:其一,AGI特别是超级AI会不会从总体上威胁人类文明?其二,对于全局性生存性风险的应对,AGI是否能够有所助益,还是只能加剧潜在的危险?不过,类似的问题虽然非常“吸睛”,同样关心文明危崖的严肃思想家如拉图尔等人却对之并不十分关注,或者说在他们看来,“文明的AI危崖”远不及气候变化、核战争和新发未知病毒等所带来的威胁。
进一步而言,在“AI觉醒”、“AI亢奋/恐惧”以及“文明危崖”的话语背后,可以隐约感到某种泛灵论(animism)氛围在AI时代的兴起。“GAI能力媲美人类”“强AI有意识”“超级AI统治人类”“人类可以在数字中永生”之类的想法,是古老的万物有灵论的新翻版。无论是虚拟人还是机器人,被想象为非常像人的“非人”让人恐惧害怕。这和鬼神精灵让人害怕类似,都是泛灵论观念触发的复杂情绪反应。“恐怖谷问题”便是AI泛灵论恐惧的很好例子。在智能社会中,物和环境普遍具备某种程度的智能和自主性,很容易让人联想到泛灵论。对此,米切尔评论道:“奇怪的是,对于嵌入智能、感官意识、敏感物体和空间这些概念,竟有一个古老的先例。古罗马人认为,每一个特定的地方都有其特有的精神,那就是它的地方守护神(genius loci)。”因此,从意识形态角度看,智能社会蓝图中蕴含着强烈的泛灵论质,类似于万物有灵的观念将在智能泛在的社会中复活。
作为批判法,AGI人文话语以愿景预测为基础,以某种极端情形为背景反思AGI可能导致的技术风险和社会风险。在现实中,AGI远未成形,对它的人文批判存在夸大风险的可能。但是,鉴于新科技在20世纪下半叶以来表现出的巨大破坏力,尤其是少数人甚至单个人均可能借助AGI实施危害巨大的恐怖行为,对AGI风险进行全面而细致的分析并非多此一举,而是未雨绸缪的万全态度,目的是尽早准备和部署应对。基于AGI未来发展愿景基础上的预测是研究AGI之社会冲击的重要方法。这种预测会随着AGI现实发展而得到不断调整,引导AGI技术发展朝正确的方向前进。因此,应该把AGI现实社会影响的解读与愿景预测结合起来,在两者的张力中寻找恰当的应对策略。并且,AGI社会冲击预测本身亦将对AGI实际发展进程和方向产生重要的影响,比如对某个问题预计的负面评价将或多或少影响AGI在这个方面的发展。因此,尽管对AGI社会冲击的批判很多会在将来被事实证明是错误的,但这种预测仍然是必须的、有重要价值的,是防范AGI风险的基本依据。
结 语
综上所述,在不同的文化领域AGI呈现出不同的面貌,并且,随着AI领域不断的技术创新、社会应用以及社会传播,其基本面貌还会发生变化。反过来,AGI呈现出的“复杂面孔”具有一定程度的自反性,会影响AGI的实际进化,矫正AGI和AI的前进方向。因此,尤其是相关政策的制定者和决策者,必须要对各种AGI话语进行仔细的审度,分辨它们的言说者、言说场域、言说方式、言说动机以及主题流变等,准确而恰当地定位AGI的真实状况。总之,就AGI的未来发展而言,我们必须要放弃非此即彼的极端思维,预先研究、逐步推进,同时努力规避风险,实时调整策略,在唯名与唯实、宣传与真相、愿景与现实之间不断寻找平衡,寻找适合中国国情的辩证发展之路。
作者刘永谋,中国人民大学哲学院教授,博士生导师。
基金项目:国家社科基金重大项目“现代技术治理理论问题研究”(21&ZD064)阶段性成果。
原文刊于《哲学动态》2024年第9期,注释从略。