摘 要:人工智能作为不假于人的技术,除了可以赋予人以新的力量和可能,也可能因为其“投人所好”、“不为人知”甚至“优越于人”的趋势,把人降格为需要向人工智能“对齐”、被人工智能“指导”、为人工智能“服务”的附庸。这既引申出智能时代的主体降格,也让有益主体升格的教育因应显得尤为重要。面对人工智能的“拟人化陷阱”,汇聚“引人向上”的教育作用可以祛魅人对人工智能的“乌托邦愿望”,以便人工智能和人携手向上“对齐”。面对人工智能的“黑箱化应用”,践行“授人以知”的教育方式可以澄清理解先于应用的面向,以便人工智能可以被人“指导”。面对人工智能的“自动化霸权”,重申“育人为先”的教育目的可以恢复人创造人工智能的责任和自由,以便人工智能始终“服务”于人的发展。由此出发,人非但不会成为人工智能的附庸,反而可以把它转化为人的成长邀约、收获契机和价值证明。
关键词:人工智能;主体降格;教育因应;引人向上;授人以知;育人为先
尽管人工智能是人创造出来的工具,但这并不意味着人一定清楚人工智能之于人的影响,甚至做好了应对其弊的准备。事实上,人们究竟是因为人工智能的神奇效用而把它当作新的偶像来加以崇拜,还是将之视作需要在未知领域予以检验的新工具;是因为看不透人工智能的“黑箱”而处于莫名的忧惧之中,还是因之被激发出一探究竟的智慧与勇气;是因为人工智能有益于省时省力乃至替代人类工作而放弃自身努力,还是因此感到自身被解放,进而投入到新的事业及其征程中。诸如此类于人利弊难料的复杂影响,它们或许无法在人工智能的技术原理中被假设和编译,但却有必要在教育的尺度上被关心和回应。鉴于此,本文试图以智能时代的主体降格为引,以探索有益助人应对人工智能复杂影响的教育因应之策。
一、何谓智能时代的主体降格
人工智能的出现已经迫使越来越多的人意识到,人类不再是逻辑、信息处理和智能行为领域圈毋庸置疑的主宰。并且,随着深度学习这样的机器学习算法的出现,人工智能既不再完全受制于人,也可能产生出人意料的效果。此外,“如今智能机器崛起,能够自己做决定、自己创造新的想法。这也是历史上第一次,权力从人类转移到其他物种手中……过去印刷机或收音机只是人类手中的被动工具,但计算机正在成为一种主动行为者,它能摆脱人类的控制,超越人类的认知,主动塑造社会、历史和文化”。以此观之,人工智能作为不假于人的技术,除了可以赋予人以新的力量和可能,也有可能因此把人降格为它的附庸。
事实上,人工智能之所以能展现出令人震惊的能力,关键在于它不是人却能凭借迥然不同于人的方式解决人类世界的难题。以ChatGPT为例,它的最大价值并非在于其智能水平,而是它代表了计算机科学家们试图突破图灵机架构的梦想,即构建可以自行判断如何执行下一步程序的神谕图灵机(通用人工智能)。所以,即便人工智能不是人,但这并不妨碍它用自己的方式启发人思考问题和帮助人解决问题。除此之外,阿佩尔(Kenneth Appel)和哈肯(Wolfgang Haken)借助计算机证明“四色问题”的故事已经表明,人类的千年经验积累与个人的认知天赋抵不过“不知疲倦”的人工智能。也正是鉴于人工智能表现出不同于人和远甚于人的能力,即便它并不成熟甚至面临着种种非议,都不妨碍它成为驱动人们想象未来愿景的重要力量。
与之相对的另一面则是,人工智能之所以能够拥有不同于人的力量,关键在于那些“可以向人学习”、“与人本质截然不同”、“比人更加高效、准确和客观”的数据、算法以及由此构成的智能应用。如此一来,人工智能越是呈现出“投人所好”、“不为人知”甚至“优越于人”的趋势,就越有可能成为被包装的“拟人化陷阱”、被迁就的“黑箱化应用”和被放任的“自动化霸权”。其中的道理在于,人工智能越是向人学习,它便越可能令人满意地解决问题,进而被包装成诱人向下对齐的“拟人化陷阱”;人工智能越是用不同于人的方式解决问题,人便越可能陷入不明就里的境地,乃至被迁就为可以指导人的“黑箱化应用”;人工智能越是在某件事上被证明比人优秀,人便越有可能被排除在这件事之外,乃至被放任为需要由人服务的“自动化霸权”。
归根究底,不假于人的人工智能是赋予人以新的力量和可能,还是把人降格为它的附庸,最终将取决于人们对以下根本问题的理解:人可不可以在把愿望、理解和权力丢给人工智能的前提下,把成长、收获和价值留给自己?如果答案为是,那么向人工智能“对齐”、被人工智能“指导”、为人工智能“服务”便无法构成主体降格。反之,智能时代的主体降格不仅值得被关注和批判,更亟须被解释和解决。
概言之,如果人们不是按照既有的观念、思路和流程来理解智能时代的主体之变,抑或天真地认为自己可以像操控蒸汽机一样驾驭如今的人工智能,而是将之视作某种前所未有且可以不假于人的独立性力量,那么,智能时代主体降格的问题也将日益凸显。如此一来,有益主体升格的教育因应之策也将显得尤为重要。因为只有汇聚“引人向上”的教育作用,践行“授人以知”的教育方式,重申“育人为先”的教育目的,才更有可能把不假于人的人工智能转化为人的成长邀约、收获契机和价值证明。
二、“引人向上”:教育何以助人祛魅人工智能的“拟人化陷阱”
尽管人工智能可谓这个时代最为先进的科技,但人们理解它的前提却是自身的愿望而非科技的原理。所以,一旦人工智能在人毫无警觉的前提下被披上了科技的光环、流行的叙事以及进步的期待,它便可以始终令人满意地为人之问题提供源源不断的答案。这意味着,人们仿佛只要在人工智能这个概念或者应用面前许下“自己鞭长莫及却心向往之”的“乌托邦愿望”,人工智能便能魔法般地给予回应和实现。也正源于此,人工智能方才能编织出那种以模仿人、迎合人、谄媚人为底色的“拟人化陷阱”。在这个陷阱里,人工智能不仅可以通过收集人的数据并建构与之相匹配的算法,进而轻松勾勒出人“愿意”看到的世界,也能悄然抹除那些人“不愿意”看到的世界;人工智能不仅乐于助人排除“难题”,也善于使人沉耽于“舒适区”;人工智能不仅能粉饰人的不足,也能为人的痛苦提供新的避难所;人工智能不仅能预测人的快乐,也能使人按照它的预测来获得快乐;人工智能不仅可以“个性化”地满足人的欲望,也可以按照人的欲望“定制”它的算法逻辑。在谄媚人方面,如今的生成式人工智能更是表现出了不俗的能力和潜力。
这个“拟人化陷阱”之所以会诱人向下对齐,不仅有其前提方面的缘由,更包括利益和人性的驱使。其一,前提的局限。其因亦如赫拉利(Yuval Noah Harari)所言:“正因为对人类的理解如此狭隘,所以算法创了一个新的社会系统,鼓励我们顺从人类最基本的本能,同时阻碍我们发挥人类完整的潜能。”其二,利益的裹挟。人工智能之所以备受关注,除了可以归结为这项技术的先进性,更大原因还在于这是一项具有高经济价值的技术。所以,人们才会在现实中看到,某些自媒体为了推销人工智能的课程,要么哗众取宠,要么散布谬论,以便混淆人们的视听和放大人们对人工智能的渴求。而这一切的结果无外乎希发基思(Joseph Sifakis)所示:“这是一种‘向下看齐’的洗脑运动,目的是改变人类社会系统的核心价值观……以至于,人们不相信自己的力量,认为任何精神上的追求都是不必要的,乃至将救赎的希望完全寄托在物质财富和转瞬即逝的事物上。”其三,人的本性使然。正因为趋乐避苦是人最原始也最顽固的本性,所以,无论人工智能的初衷是什么,它都将不可避免地被人急功近利、因缺而需、唾手可得的偏好所左右。当人向下沉耽于那些根深蒂固、普遍存在且令人愉悦的物质需求和原始本能之后,任何在精神上可能令人感到困难(不悦)的任务和行为也将顺势被视作亟待人工智能解决的“麻烦”。
沿此逻辑,当人堕入人工智能的“拟人化陷阱”之后,不仅会引申出诱人向下对齐的麻烦,也足以让这样的问题解决展现出超越工具的复杂性。归根究底,人工智能与人拥有截然不同的基本逻辑。作为工具的人工智能必然更加关注进步、效率、有效性、可量化、可计算的工具逻辑,进而忽略或者难以顾及人们关切伦理、审美、信仰的价值逻辑。相应地,把人对美好生活的有意义追求转化为对人工智能的向往,只会从根本上混淆工具的逻辑和人的价值。它预示着,若将人类生活的改善寄望于人工智能的技术方案或者方法集合,即使所有人都拥有了人工智能,其产出的结果未必是人们真正想要的,还有可能带来诸多意料之外的麻烦以及解释不掉的问题。甚至于,即便让人工智能一丝不差地执行人的目的,也可能带来意料之外的麻烦。比如,如果让人工智能忠实执行“人的环保目的”,那么,它很可能会将消灭“带来环保问题的人”视作首要目的。也正是鉴于人与人工智能存在极难调和的价值冲突,所以“让人工智能向人进行价值对齐”这一路径在现阶段仍显得有些一厢情愿。从更深层的角度来看,人机冲突的可能不仅意味着极难解决的技术难题,更指向了更深层的哲学问题。因为,无论是让人工智能向人“对齐”,还是人向人工智能“对齐”,都可能面临模棱两可、相互冲突的可能;而这也反过来促使人们有必要超越人工智能和人的二元对立,以寻求另外一种“对齐”可能。
理性地看,人工智能是向上还是向下引领人性终究是件与人有关的议题——它取决于人对人工智能的判断及选择,而不是人工智能。也正是意识到了这一点,无论是法学、政治学还是计算机科学,它们都在想方设法地为人工智能建章立制,以免其破坏人类社会的公序良俗。只不过,就像弗洛里迪(Luciano Floridi)所隐喻的那般:好的管道能让水流得更顺畅,但却不能改善水质;如果水管生锈或漏水,那么质量再好的水也会浪费。类似地,即便人们为人工智能制定了科学缜密的规章制度,但如果人工智能的使用者们早已习惯了“异想天开”、“不劳而获”甚至“好逸恶劳”,这些合理合法且善于“投人所好”的人工智能只会成为人们“堕落”的诱因。因此,人们在诉诸人工智能的技术改良与法律规制以巩固人性的基础与底线的同时,也有必要诉诸教育的作用以祛魅自身对于人工智能的“乌托邦愿望”,并捍卫人性的底色与品质。如此一来,教育与人工智能在互动中的双向定义不仅可以得到生动的体现,“引人向上”的教育作用也将得以汇聚,人工智能和人一起向上“对齐”的路径更将得以显现。
一方面,反思教育“引人向上”的作用。面对智能时代诱人向下对齐的“拟人化陷阱”,规训、治理和优化人工智能不仅是问题的重要答案,也可能是人们的优先选择。当然,如同卢德分子一样排斥人工智能也不失为某些人的回应。但人们必须明白的是,若总是试图将人的堕落归咎于人工智能而抗拒自身的自省和责任,那么,一旦人工智能“超纲”或者“失控”,是否就意味着它必然会构成人类的灾难,或者必须将其束之高阁。如果答案为否,那么,反思现有教育是否具有“引人向上”的作用就显得不可或缺。它意味着,与指责人工智能是个“拟人化陷阱”相比,人们首先有必要反思教育是否存在为了坚持真理而违背人、为了纠正人的错误而得罪人、为了促进人的成长而冒犯人的可能,以警醒人对人工智能的“乌托邦愿望”;教育能否鼓励人们对人工智能作出自己的探索和澄清,不偏不倚地开出可能的得失清单,以抵御人工智能对人的利益裹挟;教育是否可以正视那些因为人工智能而被拔高的知识门槛、能力标准与职业要求,以使人向上寻找人工智能的应用与价值;教育是否能够拓展、丰富、创新人们对人工智能的伦理知识及哲学洞见,以缓解人机目的的冲突。总之,正因为人工智能很可能会诱惑着人们堕入以快乐与满足为底色的“拟人化陷阱”,所以,“引人向上”既是智能时代必须捍卫的教育作用,也意味着祛魅智能时代“拟人化陷阱”的优选途径。
另一方面,争取人工智能的教育时间及参与者。与印刷机、蒸汽机这些技术相比,人工智能除了影响的范围与规模更大,它留给人类社会的反应时间也越来越短。即便以前的技术也会给人类社会带来诸多意料之外的挑战,但这些麻烦不仅范围窄、规模小,其传播速度也不可同日而语。故而,前人先贤不仅可以通过更长时间观察、实践和思考与种种技术流弊展开斗争,也能著书立说以传播真知灼见。也正因为这个过程较为漫长,所以,教育中人可以将经得起时间检验的先贤观点汇编成册并辅以恰当的方法与途径,来传播知识、思想和真理。然而,人们当下面临的局面却是,科学家都还没搞明白人工智能究竟为何,它便已在千家万户中激起了层层波澜。其结果便是,若人们还想和以前一样等着专家把问题想明白、弄清楚然后编成教材、开设课程的话,最后很可能还没等课开好,人工智能就已经发生了改变,或者人已经被人工智能改变。所以,人们尤有必要认真思考以下问题:越是强大的人工智能,是否越应该保留必要的教育时间?要知道,如果人工智能强大到人根本来不及反应和思考,那么,不管人工智能的目的究竟为何,人类的命运都将因此受制于人工智能。鉴于此,人工智能的创造者有必要清醒地意识到:如果自己准备创造更强大的人工智能,那么,他们是否需要留给人更多教育时间,以便更多人可以理解和驾驭人工智能。随之而来的问题则是,当教材里没有解决人工智能问题的答案,且教师也不知道如何应对人工智能时,人们应该怎么办?也正因如此,祛魅智能时代“拟人化陷阱”的最好办法,或许不是让每个人去学校接受人工智能的原理教育,而是要让更多了解人工智能的人参与其中。是故,与其将人工智能视作“人性的潘多拉魔盒”,不如将之视作一份“关于人类成长的教育邀约”:它将邀请所有关心人工智能真相、为人工智能的误解感到不满、相信人工智能一定会因为战胜谬误而取得更大辉煌,以及不愿意在智能时代等待被影响、被改变和被决定的数学家、科学家、技术工程师、法学家、哲学家及其他同仁,一起祛魅智能时代的“乌托邦愿望”和“拟人化陷阱”,一起同人工智能的谎言、谬论及胡编乱造进行斗争,一起为捍卫人性的高贵与上升而努力。
总之,面对人工智能巨大而迅猛的影响,如果人工智能的创造者不能意识到为教育争取时间的必要性,那么,人工智能很可能凭借自身过于强大的能力给人类社会带来猝不及防的冲击与破坏;与此同时,如果人们不诉诸更广泛的教育参与者以占领人工智能的观念高地、知识领地和思想阵地,那么,世人对人工智能的认知终将被广告、短视频、电视、电影或者其他道听途说所占领。
三、“授人以知”:教育何以助人解蔽人工智能的“黑箱化应用”
随着机器学习算法的不断发展,人工智能将愈发难以解释;并且,从Deep Blue、 Watson、Alpha Go到ChatGPT,其实暗示了这样一种可能:机器可以用一种人无法理解或者无须理解的方法,仅凭更多的数据、更好的算法与更大的算力便能在现实世界产生媲美人甚至超越人的效用。不过也正因如此,越来越多的人将人工智能视作了“黑箱化应用”。它意味着,很多时候人工智能很有用,甚至可以用一种匪夷所思且截然不同于人的方式解决问题,但人们却不知道它为什么如此有用,以及为什么能解决这些问题。对此必须予以澄清的是,人工智能具有“黑箱”的特征,但这并不等于所有人工智能都是“黑箱”。事实上,今日人工智能之所以被冠以“黑箱”之名,其关键在于它采用了依赖数据而非人的机器学习算法,而在机器学习的众多算法中,深度学习又属于其中尤为不透明的算法。与之不同,基于知识表示与推理的经典人工智能(专家系统)便不是“黑箱”。由此可知,在生成式人工智能大火的今天,人们对人工智能的“黑箱”指控其实指向了以深度学习为代表的机器学习。相应地,以深度学习为例揭示人工智能何以构成“黑箱”,亦能为人们解蔽如此“黑箱化应用”提供引玉之砖。
首先,从技术的角度来看,深度学习之所以被称为“黑箱”,原因在于它所依赖的神经网络往往是由大量数值矩阵组合而成,而其中任何一个矩阵都是普通人从直觉上无法理解的,甚至于即便利用复杂的工具,专业人士也往往很难明白它的决策机理。同时,这类将人脑“黑箱”作为算法起点的人工智能,它们对不确定性算法的部分学习将构成智能“黑箱”的另一重不确定性,而这又会反过来削弱其自身的透明性和可理解性。也正因为神经网络无法呈现出人能够理解的作用机制及其解释,所以,基于深度学习的人工智能往往被视作“黑箱化应用”。其次,从人的角度来看,深度学习之所以意味着“黑箱”,其因在于它拥有一套与人截然不同的理解机制。通常而言,人习惯简化世界,以便自身理解;而深度学习则代表了不必将世界简化为人能够理解的可能。辩证地看,立足简化的理解方式固然满足了人追求熟悉、确定和秩序的偏好,但也因此丢掉了由陌生、不确定以及混乱所构成的复杂创新。而基于深度学习的人工智能则不然,它不仅可以从混乱、琐碎、海量的数据中发现那些“深不可测”且“不为人知”的新知识,还驱动着“由归纳演绎向数据分析、由知识理性向计算理性、由人类权威向机器代理的认知转型”。相应地,也正因为基于深度学习的人工智能不是用人类熟悉且擅长的方式对这个世界作出描述、解释和预测,所以,它也不可避免地成为人们眼中的“黑箱化应用”。
从上述人工智能被人视作“黑箱”的缘由来看,这样的“黑箱化应用”既可以视作基于技术演进的人类认知解蔽,也可以视作因为技术上的不可知而带来的人类认知危机。
前者亦如温伯格(David Weinberger)所言:“我们比以往任何时候都对未来更具掌控力,但我们驾驭世界的技术和认知手段,恰恰证明了这世界已经超出我们自欺欺人的理解。”以此推之,如果人们将人工智能视作理解世界的另一种可能和视角,而非真理的证明和世界的真相,那么,所谓“黑箱”无非是人们超越舒适区与熟悉区的全新认知起点。而人工智能不过是把一些思维难题还给了人类,而不意味着它真的代表了不可知的知识或存在。后者则代表了这样的认知危机:人们自身放弃理解人工智能的责任和努力,却坚持让它向自己作出解释,这除了可以折射出“由一知半解的见识、不切实际的期待、推卸责任的说辞、假大空的理论构造所构成的迷思”,也将使得人工智能的不可知、不可信和不可控显得愈发明显。两者之间的根本区别既不在于人工智能的“黑箱”究竟有多黑,更不在于人工智能是否可以为人所用,而是取决于人们是否具有理解人工智能的意愿和能力。
在此意义上,“理解先于应用”也就构成了助人解蔽人工智能“黑箱化应用”的可能面向。如今之人日益习惯于关注人工智能是否有用、能用、管用和好用,仿佛人工智能只要能为人所用,便不必考虑这样的人工智能是否可以为人所理解。这种满足于人工智能应用的图景其实暗含着无从消解的“阿喀琉斯之踵”:在应用上为真的人工智能,既不能确保自身不被滥用,也无法应对“因为有用反而有害”的可能,更不能对那些“后来用途与最初设计不同”的历史、“即便有用,却选择不用”的现实与“在有用与无用之间纠缠不清”的未来作出解释。这也反过来表明,无论人工智能在现阶段展现出多么神奇且巨大的应用效用,人们都不应满足于它究竟能做到什么,而应始终在乎自己从中知道了什么。如此一来,“授人以知”的教育方式也就获得了用武之地。
在教育领域,即便一位新手教师也知道绝不能在教学中只满足于让学生知道答案,还要让他们知道如何得出答案。其中的道理在于,不依靠学生自身理解所获得的东西,既难以被学生掌握,也不值得被学生铭记,更不值得被他们视若珍宝、尽心竭力乃至迎难而上。然而,就是这么一件被无数教育者践行之事,放在人工智能身上却显得无从下手。因为人工智能对此一无所知,它只会基于数据挖掘、知识发现与预测分析或者数据科学“想方设法”地给人提供答案。究其实质,人工智能或许可以轻易完成对问题的表征、搜索及解决,但它既无法在脱离人的处境和经历的前提下仅凭数据和算法对“何谓问题和答案”作出区别;并且,人工智能也无法理解“人能真正认知任何事物的条件乃是它必须由认知者自己所创造”的维柯式观念。所以,人工智能在这方面为人“做得”越多,人“获得”的就越少。为此,乔姆斯基(Avram Noam Chomsky)更是将ChatGPT视为“高科技的剽窃方式、对教育毫无益处的东西、帮助学生逃避学习的‘助手’”。人工智能或许可以替人做很多事,但它无法替人理解这个世界,所以,“授人以知”的教育方式不仅有必要在智能时代被继续践行,也能为教育应用人工智能开启另一种选择,更有可能成为指导人工智能设计的参考。
第一,践行“授人以知”的教育方式。尽 管“黑箱”因为人工智能成为这个时代的流行 词汇,但这并不意味着人们仅仅需要应对人 工智能这一个“黑箱”。如果将“人理解不了”的现象与事物视作“黑箱”,那么,自然显然是 比人工智能更为复杂且令人着迷的“黑箱”。一旦明白了这一点,人理解自然的方式也就拥有了解蔽人工智能“黑箱”的教育价值。更进一步来讲,人工智能不是不可以存在不被人理解的可能,也不是不能被视作“黑箱”,但就像近代科学进步所表明的那般,正因为人们坚信自然是可以被理解的,所以,人的思考才会显得有意义,人们也才愿意前赴后继、孜孜不倦地探索自然。同理,如果人工智能这个“黑箱”真的蕴含着可以被理解的真相,而不是某种神秘莫测的东西,那么,人们也可以像探索自然一般,通过自由的思考、开放的试错、事实的检验和公开的质疑来揭示其中的事实与道理。也正因为相信这一观点的重要性,“授人以知”的教育方式才有必要在智能时代被坚持和践行。它意味着,人们有必要清晰地知道教育是增进人理解力的活动,而不是必须配合人工智能应用的活动;在课程、教学、评价的设计中坚定地把人工智能设定增进人理解力的“磨刀石”,而不是让人把自己想不明白或者懒得去思考的问题丢给人工智能;在组织教育任务、教育活动、教育项目的过程中不断强调和关注“人们究竟能从人工智能中知道什么”,而不是去拼命宣传“人工智能又帮人做到了什么”;始终在教育研究及实践中为人工智能的变化、未知与犯错做好准备,而不是将之视作永恒、已知和正确的答案;等等。总之,践行“授人以知”的教育方式就是要提醒人们不要在教学方式、学习方式、管理方式、评价方式以及教研方式上曲意迁就人工智能的“黑箱化应用”,以便蕴养人们理解人工智能的意愿和能力。
第二,讲好人工智能的教育故事。人工智能除了是可以改变世界的强大工具和优秀应用,也是值得被所有人细细品味的教育故事。在故事里,人工智能的成功固然可贺,但它的失败亦不失教育的价值。就像日本在1982年开启的第五代计算机系统项目,虽然这个看似充满潜力的项目最后并没有实现预期目标乃至被不少人指责为失败的项目,但它却为日本培养了新一代有潜力的计算机研究人员。在故事里,人工智能的进步固然可喜,但它的退步仍不失教育的启示。1987年,IBM大型机之父布鲁克斯(Frederick Phillips Brooks)所写的《没有银弹:软件工程的本质性与附属性工作》(No Silver Bulet-Essence and Accidents of Software Engineering)一文,不仅粉碎了所有奇迹式的冀望,并告诫后来者“进步需要正视真正的困难、按部就班、不辞劳苦和养成良好习惯”。此后,计算机科学家们开始“退一步”研究“计算机在多长时间和多大空间内,才能计算出一个有意义的结论”,从而发展出了可以支撑“图灵可计算数”的计算理论。在故事里,人工智能的性能固然重要,但它的概念更不失教育的旨趣。深度学习作为引领当前生成式人工智能发展的算法基础,虽然在当下收获了无数的鲜花和掌声。但历史地看,它其实源于20世纪60年代的神经网络,只不过受制于硬件和算力,以及明斯基(Marvin Minsky)和帕普特(Seymour Papert)在《感知机》(Perceptron)一书中对神经网络局限的根本性批评,它的热潮很快就过去了,直到辛顿(Geoffrey Hinton)等人找到了利用强大的GPU去大幅提升神经网络的方法,并由此掀起了基于深度学习的人工智能变革。而辛顿有感于神经网络跌宕起伏的历史,他将多层神经网络命名为“深度学习”,旨在激励研究者在一个失宠的领域坚持自己的正确信念。总之,正是考虑到人工智能本身蕴藏着诸多可供言述、体悟和启发的教育故事,教育中人尤有必要从“授人以知”的角度将之讲述为经历了诸多教训的经验宝库、破解了系列难题的成功样板和发现了未知领域的精彩冒险,以便使其从纯粹关于物质的应用工具升华为包含思想意义的教育故事。
第三,设计“授人以知”的人工智能。从人工智能的本质来看,它有两大目标:一是做有益的事情;二是用自己的概念和模型,帮助回答有关人类和其他生物体的问题。前者关乎工具的应用,后者关乎人的理解。与此同时,有用的人工智能为什么会越来越有用,一方面固然是它获取了越来越多的“有用”数据,另一个更为隐秘却更重要的原因则是它的目标函数被设计成了与“现实效用”密切相关的模样。从这个意义来讲,“授人以知”之所以难以在人工智能中占据一席之地,并不是因为人工智能天生“无知”或者无力为继,而是因为“授人以知”并不包含在人工智能的目标函数中。反之,人工智能是否能“授人以知”也是可以被人为设计的。一旦明白了这一点,以教育的概念、方法和案例为启发,设计“授人以知”的人工智能也就构成了值得一试的议题。比如,将人工智能的功能设定为“学生”,以便它从每一个可能存在的信息来源中如饥似渴地学习;从“费曼学习法”中寻求灵感,试图教会人工智能那些人自己都未必清楚的事情,抑或借助人工智能去挑战那些人未必清晰知道答案的复杂问题;借鉴“问题提出教学”的理论构思,让人工智能给人提出问题而不仅仅是回答问题;根据“最近发展区”设计人工智能,让人工智能不断促逼人走出认知的舒适区和熟悉区,而不是将人的满足和快乐作为人工智能的设计原则;从“学科教学知识”的成功实践汲取思路,让人工智能把人已经知道但却不知道如何表达的知识用可视化的方式展现出来;等等。
一言以蔽之,正因为现代人工智能在塑造人的同时,也能被人所塑造。所以,如果未来教育可以在教、学、管、评、研上践行“授人以知”的方式,并围绕“授人以知”的目标函数来设计人工智能,而不是曲意迁就人工智能的“黑箱化应用”,那么,未来世界除了可以收获更多的“好知之人”,更能收获“好知的人工智能”。这既是人“指导”人工智能的底气所在,也预示着人在认知层面的最大收获——就像人通过理解自然的“黑箱”实现自身的认知飞跃一般。
四、“育人为先”:教育何以助人反抗人工智能的“自动化霸权”
1911年,怀特海(Alfred North Whitehead)曾留下一句格言:“文明进步通过增加重要任务的数量来实现,而这些任务我们无须思考就能完成。”这在相当程度上代表了科学家的自动化梦想。建构于控制论之上的现代人工智能,不仅会进一步提升巩固和放大机器的自动化趋势,更有可能构成旨在命令人或取代人在决策中作用的自动化装置。相应地,如果人们接受了人工智能的自动化优势,那么,他们也将必然面临自动化所包含的“压迫”。其中的道理亦如芒福德(Lewis Mumford)在《机器神话》(The Myth of the Machine)中所言:“自动化系统在逐步精密化的同时,也日趋自我满足,同时也日益自我封闭,自成一统。结果它的过程就更不可能容许外因介入,不容许更改步调和方向,不容许外力限定自动进一步扩展,不容许重新调整走向和目标。”其结果则如赫拉利所示:“计算机网络有可能并不会找出关于世界和人的真理和真相,反而会利用它庞大的力量,创造出一套新的世界秩序,并逼迫人类接受。”概言之,人工智能作为自动化机器的集大成者,它除了具有过去自动机器所不具有的优点,更有机会形成前所未有的“自动化霸权”,即人不断被人工智能汲取权力,直至把人排除在决策和行动之外。
追根溯源,“自动化”(automation)一词在1611年被提出时,原意为“具有独立资格和单独行动(迁移)能力的自治人口”,其后却反转成“在一定条件下牺牲自治换来自身运转能力的构造”。类似地,无论如今人工智能所承诺的优势多么诱人,抑或宣称自己受到怎样的人类管控,它在本质上无不以人的更少介入为条件。从这个意义来讲,所谓人工智能无非是个试图将人排除在外的自动机器。反之,如果人对人工智能介入过多,它就失去了自己的价值。然而,人并不是一堆可以任意编写而不付出代价的代码,而是在一定的社会制度和历史条件下形成的或然存在,更包括了难以被计算的传统、文化与常识。所以,一旦人工智能在人毫无准备和警觉的前提下把人排除在诸多事务之外,它也将把某些人的“梦想”变成所有人的“梦魇”。这一切就像某个人被突然拽上一辆无人驾驶的汽车,他要么因为对其中的危险一无所知而沉迷其中,要么则因为在车上无能为力而惊恐不已。
与人类历史上其他自动化技术有所不同的是,人工智能之所以能不断汲取人的权力以形成前所未有的“霸权”,其关键在于数据、算法及其应用。第一,基于数据的权力汲取。“相信数据而非人”是人工智能得以流行的根本原因之一。诸如“数据说话”、“数据驱动决策”、“越多数据、越多真相”、“数据带来美好生活”等说法更是为此提供了充分的注释。如此一来,数据也就拥有了高于人的地位和价值。相应地,数据的占有、处理和输出,也就构成了演化为足以影响人类决策和行为的重要权力。这不仅意味着,数据类型、数据标准和数据质量在社会生活中扮演起了比人的观察、体验和经历更为重要的角色,更将迫使人把选择权、判断权、参与权让渡于数据的选择、设计和应用,抑或数据资源的建设需求。与之相伴的便是由数据资源集中和数据鸿沟(数据获取与利用效能的差异)带来的权力垄断。第二,基于算法的权力汲取。现如今,依托数字平台的搭建、数据资源的挖掘、人—机交互的设计,算法正在从单纯的计算工具向人类事务运行规则予以转变,它不仅从前提上决定了人们关心什么问题,还从根本上决定了什么样的问题有待解释和解决。这种由代码、程序或模型来影响人和规约人的算法权力之所以不同于以往的权力,其独特之处在于,它将由数字系统实施,而非人类;它能够迫使人们无法违反规则,而非简单的事后惩罚;它具备适应性,能够随情况变化而变化;它将用代码来书写,而不必仰仗人的自然语言。相应地,如今的算法完全可以依托上述架构优势、机器优势和预测优势,轻而易举地从人的手中汲取那些原本属于人的权力。再者,基于应用的权力汲取。如今的人工智能应用已经让基于侵入式监视和强制系统的行为干预成为可能。如此一来,那些看似友善的人工智能也将构成令人不寒而栗的“技术凝视”。而这不仅会从根本上削弱人的自主性和自觉性,更有可能迫使人们把自己的权力拱手让给无处不在、无所不能、无休无止的人工智能。因为在不得不服从的人工智能面前,人们既没有权力作出自己的选择,也没有权力终止这样的选择。
沿此逻辑,如果放任人工智能汲取人的权力以形成“自动化霸权”,它除了会像过去的自动技术一般,“改变和丰富人类的社会生活,却也让它在社会生活中占据了僭越于人之上的位置,乃至于让人的自觉之性和自为之力面临着丧失殆尽的风险”。与此同时,人工智能还将如其他自动机器一般,“根据技术需要先将个人选择简单化与标准化,然后为了配合机器把个人选择和创新予以排除,进而从根本上破坏人的多样性、丰富性、可能性及其意义”。加之,考虑到人工智能“媲美于人”甚至“超越于人”的功能定位,这样的“自动化霸权”极有可能孕育出新的价值难题。比如,将任何有待克服的障碍视作人工智能的技术实现问题,而非人由此获得意义的过程;以人工智能的名义助长人对于自己和世界的无知;用人工智能的回答来替代人对问题的实质性理解;通过人与人工智能的比较,不断使人想起自身的局限和不足,并不断暗示自己必须以某种人工智能来消解这样的问题,乃至于让人自身的反省和努力显得没什么价值。其结果便是,如果人们还想在智能时代找到一份工作抑或过上不错的生活,就必须学习和拥有人工智能,向人工智能的不便予以妥协和退让,甚至臣服于它们的指令和偏好。最后,必须指出的是,这种“自动化霸权”之于人类社会的终极恶果并不仅仅在于“它如何把人排除在外”抑或“无视人的存在”,而是它将彻底改变“人对人的看法和态度”。其原因亦如罗素(Bertrand Russell)在《权力论》中论述领袖和追随者时所阐明的那般:“处于支配地位的人学到了运用机械的本领以后,就会向他们学会怎样看待自己的机器那样来看待人类,即把人看成是没有感情的东西……就像人们从摩天大楼的屋顶上俯视纽约街头的往来行人,下面的人就似乎不再是人,而依稀带有了一种荒谬可笑的性质。”类似地,如果一些人被视作不如人工智能的存在,那么,另外的一些人也就没有理由再关心和同情这些人的不幸,以至于任何试图改善他们处境的想法都显得多余或不合理。而这,便是“自动化霸权”于人的最大之恶。
也正是鉴于放任人工智能“自动化霸权”可能危及人的基本价值,所以,人们比以往任何时候都需要重申“育人为先”的教育目的,以便它始终可以为人所牵引。首先,重申这样的目的,就是要恢复人之于人工智能的责任。无论现阶段人们如何鼓吹人工智能的“学习能力”、“强大无比”与“替代人的可能”,他们都有必要知道“人是唯一必须受教育的被造物”;而且,“一个能感觉或能思想的东西不能是一种机械的东西”。由此引申出的观点则是,无论人工智能表现出多么强大的能力,人都不必在其面前感到渺小——因为人工智能本身就是受教育之人的创造物。相应地,人工智能可以被视作教育的结果(而非原因),人对其亦承担着不容推卸的责任。所以,重申“育人为先”的教育目的就是清醒意识到人的主体价值、人接受教育的价值以及教育的人性价值,以恢复人之于人工智能的责任。其次,重申这样的目的,就是要恢复人创造人工智能的自由。人工智能乃是前人的创造物,而非自然的馈赠。这一事实不仅宣示了人创造人工智能的潜力,也揭示了人创造人工智能的自由,更可为人工智能的发展注入继往开来的信念和推陈出新的兴趣。说到底,要真正推动人工智能的跨越式发展或者颠覆式创新,既不是依赖“把人排除在外”的自动化机器,也不是按照某种既定的道路走下去,而是需要可以自由探索人工智能发展路径的“后来者”:他们比前人更理解人工智能,比人工智能更理解这个世界;他们可以用自己独特的方式为人工智能发展作出贡献而不必拘泥于被规划的路径,可以从他们身上期待未曾预料的事情以及完成不可能的任务;他们敢于打破过去的重复、已知的循环和熟悉的延伸,以窥见未来的突破、未知的可能和陌生的机会;他们善于用挑战替代迁就,用改变代替复制,用超越代替循环。所以,重申“育人为先”的教育目的最终是要恢复人创造人工智能的责任、自由以及由此构成的权力,以便在前人基础上创造那些意料之外且令人振奋的人工智能。
言而总之,在图灵架构的范畴、在哥德尔不完备性面前,无论人工智能怎么发展,无论它在哪些方面表现出了代替人或者超越人的能力,它都不是人,所以,也无法如人一般进行有价值的活动。人工智能或许能让一件事变得更快、更多、更精确、更方便,但却无法如人一般顾及如何让它变得更好、更真、更善和更美。而且,无论是在机械时代还是智能时代,人都应该是而且必须是这个世界最可宝贵的存在,而非蒸汽机或人工智能。更重要的是,如今的人工智能依然无法在摆脱人的前提下获得新的发展和达成新的成就。所以,人工智能终究有赖于人的发展,更应“服务”于人的发展。以此推之,一旦人们接受了人之于人工智能的前提性和重要性,那些把人排除在外的“自动化霸权”自然也就失去了向人汲取权力的“魔力”。作为交换,先于人工智能的教育目的不仅能得以确立,何谓对人工智能发展有贡献的教育也将因此得到新的见解。
一是确立先于人工智能的教育目的。在智能时代强调先于人工智能的教育目的就是要明确,人们接受教育的前提不能归结于人工智能需要什么,抑或已经(将要)拥有什么样的人工智能;否则,不仅人会失去依靠,教育也将因此失去方向。其中缘由在于,假如今天的人工智能尤其欢迎会编程之人,教育就一味强调要教人学会编程;那么,明天的人工智能可以自动编程(就像ChatGPT已经表明的那般),那些被教育得只会编程之人又当何以自立?更何况,教育的目的一旦被曲解为人工智能的“准备工作”,那么,人工智能也将从教育的手段僭越为教育的目的;相应地,只要有了更好、更快、更强的人工智能,教育就可以成为甚至必然成为可以被任意替换的东西,其结果便是让人彻底沦为了人工智能的附庸。所以,就算人类社会真的步入了智能时代,人接受教育的目的也应当被归结为先于人工智能的文化传统、现实需求、历史构造、社会条件、政治设计、自身禀赋等技术前见,以便其始终拥有高于人工智能的视角、厚于人工智能的积累、多于人工智能的可能和富于人工智能的余力,而不是误把人工智能视作自己的目的,回避那些与人工智能无关的重要问题,把自身强行扭转到人工智能这条赛道之上乃至用尽全力迎合人工智能的技术偏好。也正因为人工智能的发展无法被预计,所以,智能时代的更好教育并非一味地迁就人工智能,或“服务”于人工智能的发展,而是尽可能地保持教育的多样性和开放性,做好那些无论是否拥有人工智能都应该被重视的教育事项。比如,在教育中蕴养人的心灵。
二是引申教育对人工智能发展的贡献。随着“教育对科技发展的贡献”这一命题在当下越来越被重视,教育究竟能为人工智能发展作出怎样的贡献也便有了可供讨论的现实基础。而这一问题既没有历历可辨的答案,也没有确凿无疑的证据。究其实质,教育除了可以围绕人工智能推进基建、购买设备、开设课程、改变教学、研发教材、创新评价乃至重塑体系以推动人工智能发展,似乎还有必要寻求其他路径。要知道,这些围绕人工智能所作出的教育投入及其改变,都必须建立在精确、清晰且充分的技术蓝图之上。若技术蓝图一旦不明或者出现未知错误,教育的作用不仅事倍功半,还可能徒劳无益。不过,缺乏技术蓝图或者不依照技术蓝图,并不代表教育就失去了对人工智能发展作出贡献的可能。因为,人类社会的技术创新除了依靠蓝图之外,还包括思想的途径。何况,科学革命中最重要的成果无法直接归因于技术革新,而应归功于以开放的心态重新思考传统信息。加之,教育和技术的竞赛一再表明,更新、更复杂的长期技术都在奖励思维敏捷、适应性强且往往年轻并受过教育的人。所以,最终真正撬动人工智能的创新者有可能五花八门且不一而足,但他们绝不可能是没有受过良好教育之人。由此看来,教育对人工智能发展的贡献除了可以解释为围绕人工智能所开展的准备工作,亦可表述为按照“育人为先”的目的办好教育。比如,坚持培养思维敏捷之人,以开放的心态重新思考那些闻所未闻、匪夷所思的人工智能真相;坚持培养乐于求知之人,以学习的态度探索未知、复杂、不确定的人工智能未来;坚持培养多元发展之人,以便从不同经历和视角丰富人工智能的研究及实践;培养具有跨领域、跨学科、跨情境适应能力的人,以便拥抱包括但不限于人工智能的未来。
一言蔽之,正因为人工智能不是被计划而是被创造的结果,所以,对人工智能发展有贡献的教育应始终以人而非人工智能为目的。这既是“育人为先”的教育目的必须在智能时代被重申的缘由所在,也可以引申出人之于人工智能的价值证明,更意味着智能时代主体升格的教育因应之选。
五、结语:应对智能时代主体降格的教育反思
在人工智能优越性被不断强调的当下,笔者探讨由其引发的主体降格,除了意在为人们理解和应对人工智能的复杂影响提供引玉之砖,更是想在此基础上强调和引申以下三个观点。第一,人工智能越是向前发展,人的本性、理解和作用将会显得越发重要。也正是在这个意义上,愿意砥砺人之品格、启迪人之智识、彰显人之价值的教育有必要因为人工智能的流行而在这个时代占据更为重要的位置。第二,人工智能于教育而言,既是夺人眼球的应用工具,也是发人深省的思考契机。它激励着有识之士去想清楚什么样的教育方能培养出足以驾驭和创造人工智能之人,而不会“纵容”出坐在原地等待被人工智能满足的人。第三,人工智能于人的降格之力需要被更多人警惕。要知道,人工智能之所以“智能”,有时并不需要它有多“聪明”、多“能干”;相反,只要人被视作或驯化成不如人工智能的存在也能达到相同的效果。正鉴于此,教育比以往任何时候都更需要展现出“引人向上求知”的升格之力,以抵抗那些为了让人工智能得到更好应用而被编撰出来的降格之力。但这并不意味着仅仅依靠教育就足以制衡人工智能及其背后的降格之力,而是想从“以关心人的成长为底色”、“以增益人的收获为成就”、“以捍卫人的价值为使命”的教育立场抛出这个“因为鼓吹人工智能优越性而无从回避”的主体性问题,以供同仁寻求更好的因应之道。
(本文参考文献略)
How Education Should Respond to the Potential Degradation of Humans as the Subject by Artificial Intelligence
Yang Xin
Abstract: As a technology that is not inferior to humans’ intelligence, artificial intelligence (AI) not only endows humans with new capabilities and possibilities but also risks reducing humans to a subordinate role—requiring humans to align with it, receive guidance from it, and serve it—due to its tendencies toward “catering to humans’ needs,” opaque operations, and perceived superiority. This leads to the degradation of humans as the subject in the era of intelligence, and makes it imperative for education—which helps to upgrade humans as the subject—to respond to these tendencies. In the face of AI’s “anthropomorphic trap,” we must gather upward-guiding educational functions (guiding humans to pursue goodness and progress), which helps to dispel utopian expectations surrounding AI, thereby enabling mutual alignment between AI and humans in pursuit of goodness and progress. In face of AI’s “black-box application,” we must practice educating humans with knowledge, which helps to clarify comprehension prior to application, ensuring humans’ capacity to guide AI. In the face of AI’s “hegemony in automation,” we must reaffirm the educational goal of “giving first priority to talent cultivation,” which helps to restore humans’ responsibility and freedom in creating AI, thus ensuring AI’s perpetual service of human development. Accordingly, far from being reduced to a subordinate role of AI, humans can transform it into an invitation for personal growth, an opportunity to reap harvests, and a proof of human value.
Key words: artificial intelligence; the subject’s degradation; response from education; guiding humans to pursue goodness and progress; educating humans with knowledge; priority over talent cultivation
初审:魏莉莎
复审:孙振东
终审:蒋立松