当前位置: 首页 > 在线期刊 > 2024年 > 第1期目录(总第一百九十九期) > 正文

想象的困境:生成式人工智能世代的价值教育

作者:杨九诠
阅读数:14

来源:《中国远程教育》2024年第2期


摘 要:“道德物化”一直是人工智能的重要取向。以ChatGPT为代表的新一代生成式人工智能也正试图通过牺牲一定通用性能的“对齐税”的策略,来表达人类道德伦理和情感价值。然而,代码系统的横亘,使学生从人工智能所获得的知识技能只能是“二手的非经验”,从而造成学生与生活世界的“短路”,直接面临着“去道德化”的风险。“对齐税”策略似乎并不能够还原与拯救人类价值。知—情—意本当是一个整全。“知识归AI,智慧归人类”的策略一开始就落入了二元分裂的窠臼,而缺乏知识必将扭曲人们构建世界的心智地图,道德伦理和情感价值教育因此可能只是一厢情愿。生成式人工智能世代更应该朝向生活世界,将“人之为人”植根于整体世界的语境中,促进学生的全面而自由的发展。本研究并非作出一系列判断,毋宁是对生成式人工智能世代的价值教育提出的一连串疑问。

关键词:生成式人工智能;对齐税;二手的非经验;生活世界;情感价值


以ChatGPT为代表的生成式人工智能(Artificial Intelligence Generated Content,AIGC)的横空出世,在教育领域激起了巨大而广泛的反响。如果说传统的计算机辅助教学(Computer Aided Instruction,CAI)阶段,技术之于教育教学,本质上还是中介性的、工具性的,是“用”之于“体”的关系;那么,以Chat-GPT为代表的新一代人工智能(Artificial Intelligence),则直接几近于知识生产者和决策者嵌入教育系统,正试图与教学者和学习者构成某种新型关系,有可能彻底改变现有的教育实践。也正是新一代人工智能在“互动本体论”[1]意义上的“主体间性”的嵌入,人们对此普遍怀具道德伦理、情感价值的忧思。人所周知的重大事件是,面对AI可能带来的失业、伦理、道德甚至生存问题,在GPT-4诞生两周之际,特斯拉CEO及OpenAI的联合创始人埃隆·马斯克、图灵奖得主约书亚·本吉奥(Yoshua Bengio)、纽约大学名誉教授盖瑞·马库斯(Gary Marcus)、加州大学伯克利分校教授斯图尔特·罗素(Stuart Russell)等1,000多名专家学者联合签名发出公开信,呼吁暂时叫停AI大模型研究。在关于ChatGPT之教育影响的学术论文中,除了对伦理风险的专题讨论,其他或多或少均涉猎可能引发的伦理、道德和情感教育问题。本文的讨论中所指称的“价值教育”泛指教育中的道德、情感、态度、伦理、责任等作为“人之为人”的有意义的精神、品质和关系、行为,或者说是“最广义上的人文教育的价值”。所指称的“世代”(generation)或曰“时代”,恰如余明锋[2]所示:“所谓‘技术时代’,指的不只是技术发达的时代,而且是技术在根本上支配了我们的感知方式、信念系统以及周遭世界的时代。”在这个意义上,一方面ChatGPT处在我们正在走向的未来教育的“前哨”,另一方面ChatGPT作为生成式人工智能诸神中的最亮的那颗星似乎已然展露出强人工智能的端倪,前路笼罩在一片“图灵谜雾”之中,纯然的“推理”与“测算”反倒可能是“冒险”与“冒失”。也是在这个意义上,我们说生成式人工智能世代的情感与价值教育之想象,毋宁是面对“不确定”的一场“不可知”之旅。

一、“火箭送信”:未来的想象逻辑

乌尔里希·贝克(Ulrich Beck)指出,我们已经身处风险社会。作为“世代”的划分,贝克在“后工业化社会”与“后现代社会”用语的斟酌中选择了前者,认为风险社会是后工业化社会的基本特征。而风险的逻辑就在于:“在风险社会里,‘过去’丧失了它决定‘现在’的权力,取而代之的是‘未来’。”[3]正如1985年罗伯特·泽梅里斯(Robert Zemeckis)执导的科幻电影的片名所示——Back To The Future。是Back To The Future,而非Toward The Future。深有意味的是,2021年9月,经合组织(OECD)发布的《回到教育的未来:经合组织关于学校教育的四种图景》报告,其英文标题即是Back to the Future of Education:Four OECD Scenarios for Schooling。在“未来”决定“现在”的逻辑下,“事后诸葛亮”的“合理性”正在消逝,斩断了来路的“事前诸葛亮”面对前路,已经很难“掐指一算”。1959年,美国邮政局局长高兴地提出:“未来我们用火箭送信。几小时内,信件就可以从纽约到达加利福尼亚。”[4]“火箭送信”,将成为想象未来的逻辑。

一方面,正如熊彼特所说:“无论你如何重组邮政马车,你永远不能因此而得到铁路。”[5]另一方面,早期的英国铁路,斯托克顿-达灵顿专线其实就是在铁轨上跑马车。[6]恰如火车的旧语叫“iron horse”和“horseless carriage”一样,20世纪三四十年代汉语世界里的人们将摩托车称为“电驴”,亦若是。贝克对这一现象做了初步的解释:“‘无线电’用来指收音机,‘不用马拉的车子’用来称汽车。这一现象只不过是一列长单子中的又一项目而已。这个单子说明,每种新发明都要经过一个初级阶段。此间,新的效果要靠老的办法来确保,又要靠某种新的特征来放大或修正。”[7]关于此一情势,布莱恩·阿瑟(Brian Arthur)则试图用“域定”(domaining)、“重新域定”(remained)的概念加以解释。在阿瑟看来,“域不仅定义可能性,而且可以定义一个时期的风格”,就像儒勒·凡尔纳(Jules Verne)的《从地球到月球》中的场景,在天马行空的科幻中,同样折射了19世纪60年代的法国映象:“铸铁的太空船”“用火炮抛送太空船”……,“整个冒险发生在”法国其时其世的“砖和熟铁的建筑结构当中。”[8]

胡泳[9]在为马歇尔·麦克卢汉(Marshall McLuhan)《理解媒介》中译本所写的《理解麦克卢汉》中讲了一则桥段:“一直以来学界对麦克卢汉的争议从未断过。最有名的挑战者是美国社会学泰斗罗伯特·默顿。他在一次会议上与麦克卢汉狭路相逢。拿着麦克卢汉的论文,他气得脸色发紫:‘你的论文的每一处都经不起推敲!’对这种发难,麦克卢汉忍俊不禁:‘哦,你不喜欢这些想法?那么,我还有些别的……’”接着,胡泳[10]妙评道:“不管麦克卢汉是否预测到了互联网时代,这个回答还是蛮有互联网精神的。”“蛮有互联网精神”的意味,多义多向、隐幽不明,令人玩味而又不禁莞尔。

罗伯特·默顿(Robert Merton)与麦克卢汉的对话明显不在同一个频道。麦克卢汉确乎很难用默顿要求的“规范性”论文这样的现代知识生产的基本范式来展开自己的著述与演讲。最早发现这一现象并加以揭示的,恐怕要算开创“范式转换”理论的托马斯·库恩(Thomas Kuhn)了。他在《科学革命的结构》这一影响深远的经典之作中指出,达尔文那个时代之后的科学家“通常以简短的论文的方式出现,只写给专业同事们读,这些人被认为都具有共有范式的知识,惟有他们能够写出论文,也才能读懂为他们写的论文”。[11]以此度之,麦克卢汉显然不在此列,而应该归入库恩所划界的“各门科学发展的早期阶段,即前范式阶段”。未来学领域似乎还带有前范式时期的影子。对于未来学,许多学院派学者都对它嗤之以鼻,认为那不过是些耸人听闻的不经之谈。美国历史学家西奥多·罗斯扎克(Theodore Roszak)在《信息崇拜》一书中,就对约翰·奈斯比特的《大趋势》和托夫勒的《第三次浪潮》不以为然,认为未来学不过是一些虚构的故事,并讥之为“当代文学”。从这个意思上看,麦克卢汉、凯文·凯利(Kevin Kelly)的著述以及我们今天所见的围绕着ChatGPT的纷繁杂多的长论短评,未始没有“当代文学”的意味。

在“未来”的“决定”面前,人们及其“现在”身处不确定乃至不可知的境域,而这样的不确定和不可知包括一直伴随在技术进化左右的道德伦理、情感价值的想象与忧思。技术哲学家巨擘刘易斯·芒福德(Lewis Mumford)1967年就在其代表作《机器的神话》(The Myth of the Machine)中提出了“巨机器”的概念,预言技术发展可能会导致“巨机器”的伦理困境。随着人工智能的迅猛发展,“新兴科技的伦理不确定性”[12]问题,直接抛掷在我们的桌面。但我们似乎只能在冲突的语义、矛盾的逻辑、扰乱的思维中,以“用火箭送信”的方式回到未来(back to the future)。不可避免,或者在旧剧本中扮演新角色,或者在新剧本中扮演旧角色,我们身处伟大的折叠时空,意识到这一点,才能避免理性的自负和经验的自恋。

二、“二手的非经验”:人与世界的“短路”

约翰·杜威(John Dewey)认为,“教育即生活的过程”。马克斯·范梅南(Max Van Manen)则在《生活体验研究:人文科学视野中的教育学》一书中,将“生活世界”(life-world)界定为“我们的生活体验世界”[13]。这不只是应然的规范性命题,从认识论的立场待之,毋宁是实然的规定性命题。马丁·海德格尔(Martin Heidegger)指出:“对世界的认知是此在的一种存在方式,以至于在实存状态上,认识这一存在方式就植根于此在的根本枢机之中,即根植于‘在—世界—中—存在’之中。”[14]“生活世界”的提出是埃德蒙德·胡塞尔(Edmund Husserl)哲学转向的标志。胡塞尔认为,生活世界“作为唯一实在的、通过知觉实际的被给予”[15],是科学世界的根基。生活世界包括人们的“日常生活世界”,是人与世界的统一。科学的认识亦是如此,“科学世界本身也属于生活世界”[16],“各种科学都是此在的存在方式”[17]。这是认识论的,也是本体论的,正如约翰·波洛克(John Pollock)等论述的:“人类如此构造使他们可以直接从知觉印象过渡到关于物理世界的信念。”[18]“人类如此构造”,作者标为黑体以示强调。延用海德格尔的表述,即“此在具有在世界之中的本质性建构”[19],“此在本身就是作为认识着的‘在世界之中’”[20],我们亦可以简明地给予本体论表达:人就是这样的。

完全也可以回过来表述:这不只是实然的规定性命题,从历史境域待之毋宁又是应然的

规范性命题。现代工业化社会以来,“技术对科学的后来者居上”形成的“现代性反噬”[21],对此在的本真性不断形成了遮蔽,“技术越来越把人从地球上脱离开来而且连根拔起”[22]。我们要指出的是,就本文讨论的以ChatGPT为代表的生成式人工智能来说,这里形成了技术世界的新旧分野。作为旧的技术,在海德格尔那里具有“解蔽”与“遮蔽”的双重性。法国技术哲学家贝尔纳·斯蒂格勒(Bernard Stiegler)认为“技术是代具性的”,但“代具性”在抽离人的自然性的同时,作为“补偿”也为人“筑造出不同的周围世界”[23]。但正如蓝江所论:“斯蒂格勒的作为代具性身体的技术概念并不会无休止地补偿……换句话说,在人类发展过程中,技术产生的工具感知和人类的身体感知本身是一种延伸的关系,但在一个奇点(singularity)之上,这种延伸的关系是否会发生翻转?当作为工具的技术延伸到一定程度时,它不仅不再是人类能力的弥补,或者作为人类的代具性的外在器官,而是反过来制约着人的存在,成为对人的思想行为的规训与缧绁。”“在面对数字化设备的时候,我们的主体地位被绕过了,设备在我们无法感知和无法认识的地方(云端)形成了一个庞大的交换和传播网络,我们的身体和主体实际上都已经被新的感知所中介。……我们今天不能如此轻松地认为,今天的数字化设备仍然受到人类主体的支配。”[24]而现今,这个“奇点”似乎已经来临了。

且不论“普通人现在已经无法理解生活中常见的电子设备如何运行。同样的,核电站运行监控人员可能在情急之下就忘记了错误代码的意义和处置方法,飞行员其实并不理解自动驾驶程序的逻辑和代码,所以他们就无法处置自动驾驶的问题”[25]。而说这话的人所从事的正是飞行工程。颇有意味的是,曾任加州大学伯克利分校计算机科学系主任的人工智能领域的顶级专家斯图尔特·罗素(Stuart Russell)教授,面对ChatGPT,竟然也惊呼道:“我们不知道,因为没有人知道这些模型是如何工作的,包括创造它们的人。”“Chat-GPT知道什么?它能推理吗?它在什么意义上理解了答案?我们不知道。”“ChatGPT真正令人印象深刻的是它的泛化能力……但是,我们不知道模型是如何做到这一点的。”[26]人们似乎坠入了“图灵谜雾”中,发出“你说神奇不神奇”“这个,天知道!”的感喟。[27]

笔者在知乎上看到一段对菲利普·奥尔斯瓦尔德(Philip Auerswald)《代码经济》中译本的评价:“这本书英文版出版于2017年,还算是比较新的著作。书中的Code一词翻译为代码,感觉略有点违和,但我想了想,也找不出什么更好的翻译了。”[28]其实“代码”倒是极好的意译,颇得斯蒂格勒“代具性”的神韵,只是这里的“代”可能已主要不是“仍然受到人类主体的支配”的人的功能的延伸,而是一种因“外置”而形成的“隔离”,并且是通过人与知识的隔离导致人与生活世界的隔离,正如威廉·庞德斯通(William Poundstone)在《知识大迁移——移动时代知识的真正价值》一书中指出的:“将知识外包给数字共享平台(digital commons)是21世纪的重大叙事之一。无论你自己掌握哪些专业知识,云端都已经知道了,或是很快就会知道。”[29]卡尔·波普尔(Karl Popper)认为,关于人的认知和知识,有三个世界:“世界1”是人的五官能够感知的现实的物理世界;“世界2”是人的心理和思想的状态和过程;“世界3”则是思想内容,包括知识、语言、逻辑等各种抽象的符号系统。许纪霖[30]认为:“GPT对第三世界的理解掌握,已经远远超过人类了。”这不等于GPT就等同于“世界3”。“世界3”是贯通、整顿“世界1”“世界2”基础上对世界的抽象。而GPT作为“代码”系统,并不是“世界3”的抽象,而只是“世界3”的代码编程。也正因此,许纪霖说:“它不仅无法感知物理的‘第一世界’,也匮乏‘第二世界’的实践知识。”[31]以ChatGPT为代表的生成式人工智能,按照马歇尔·麦克卢汉的意思,只指向“使事情所以然”而不是“使人知其然”[32],所以“很难理解,只能处理”[33]

“你以为AI是在画画吗?它画的是数学。”“抽象代数学和计算机科学的结合,开始颠覆世界。”[34]当你向心仪已久的他/她示爱时,你会心跳加速、脸颊绯红,但AI程序与设备既不会卡顿(心跳加速),也不会升温(脸颊绯红)。AI生成的“我爱你”,只是一串——用赵汀阳的话说——“假装懂”[35]的代码。正如乌尔里希·贝克指出的:“可以说,日常思维的‘经验逻辑’仿佛颠倒了。人们不再由个人经验上升到一般判断,相反,剥离个人经验的一般知识成为了个人经验的核心决定项。……我们着手处理的不是‘二手经验’,而是‘二手的非经验’。”[36]如果说书本知识是“二手经验”,那么生成式人工智能将可能使学生和学习折入“二手的非经验”的“第二现实”[37]境域。然而,人的学习是情境性的。学习者在情境中亦即“在世界中”。知识是人在情境中与各种要素不断互动建构的过程和结果。在“二手的非经验”中,“那个可见的世界”[38]很可能遭致遮蔽,学生和学习与生活世界被外置与隔离。杜威“教育即生活”“教育即经验的改造”思想的真实有效性不免令人疑窦丛生,至少需要在新的世代另作别解。展露出强人工智能的ChatGPT,很可能造成“跳闸”而致使学生与世界的“短路”,学生与知识、与世界关系的“切己的在—世界—中—存在”的存在建构[39],将可能面临极大的挑战。

这是讨论和想象ChatGPT世代道德伦理、情感价值教育的最根本的议题,不管我们是“同意”还是“反对”抑或提供“改正”和“改造”的方案,因为这关涉学生及其学习与生活世界这样的是否“在世界之中存在”的最重要也是紧要的问题。从技术上讲,生成性人工智能是基于算力、算法和数据的规模升级,即高性能GPU运行千亿级参数模型、通过海量数据进行预训练的“大力出奇迹”效应的表达。实际上,ChatGPT尽管能够针对人类的输入产生类似于人类的反应,然而,它并不知道它知道什么,也不知道它不知道什么,并不能真正地理解自然语言;因为,“ChatGPT使用生成式预训练模型从大规模语言数据中获取的大量参数,基本上都是基于自然语言数据的参数,还没有这些语言数据与语言外部的客观世界的千丝万缕联系的参数。因此,ChatGPT只是处理自然语言本身的数据,并不能处理丰富多彩的语言外信息”[40]。这一代码式横亘,有可能阻断人与世界的关联,对教育教学构成系统性挑战。正如蓝江所论:“‘我’和世界的关系,‘我’和‘我’的身体的关系,乃至‘我’和我自己的关系,实际上已经被大量数据疏离化了。”[41]海德格尔指出:“伦理学这个名称说的是它深思人的居留,那么,那种把存在之真理思为一个绽出地生存着的人的原初要素的思想,本身就已经是源始的伦理学了。”[42]。那么,在生成式人工智能世代,人脱离最本源的“居留”状态,人的价值和意义将有可能失去原初性和地基性的境域体验。哈贝马斯认为,相互理解是交往行动的核心,而“交往行为者不可能走出其生活世界境域”[43]。商谈伦理学(discourse ethics)是哈贝马斯交往行动理论体系的要组成部分。哈贝马斯的商谈伦理学“把互主体性提高到中心位置”,“互主体性成为道德基础在伦理学史上具有重要意义。”[44]值得注意的是,教育伦理学创建者之一的瑞士教育家约翰·亨利赫·裴斯泰洛齐(Johann Heinrich Pestalozzi)在其所撰的《隐士的黄昏》中将人神关系与父子关系类比,作为人际关系建构的基础,并且应用到教育关系中。这显著反映了世俗化过程与现代性形成之间的共生关系。而所谓的人际关系,毋宁就是人之在世的世界性表征。那么,随着后工业化社会或后现代性的进入,从前现代的人神关系到现代世俗的人际关系,接下来是什么关系类型?那个代码化的自然语言数据的参数,能够构成“互主体性”的一方吗?诸种对ChatGPT之于教育教学的新的主体间性的想象有没有可能是一厢情愿呢?这对教育伦理学和情感价值教育来说,显然是很难遽然作答的悬疑之题。

三、“对齐税”:能够救济“价值”吗?

“你们的科学家如此专注于他们是否能做到,以至于他们不会停下来想想他们是否应该这样做。”这是1993年科幻电影《侏罗纪公园》中的角色伊恩·马尔科姆博士的一句台词。这样普遍的忧思和忧惧,已然凝结为人们审视技术的“意识形态”。而随着人工智能“奇点”的来临,“远虑”已成“近忧”扑面而来。北京大学智能学院院长朱松纯教授指出:“大型语言模型在处理任务方面的能力有限,它们只能处理文本领域的任务,无法与物理和社会环境进行互动。这意味着像ChatGPT这样的模型不能真正‘理解’语言的含义,因为它们没有身体来体验物理空间。”[45]这样的“离身”与“离世”状态,对“在世”之人,很可能会造成一系列既深且巨的本质性割裂,道德伦理、情感价值等将遭致遮蔽甚至阉割。ChatGPT3.5甫一出世,乔姆斯基就对其“缺乏从道德原则出发的推理能力”进行了严厉的指摘。乔姆斯基给出的解决路径是技术内部路径。在乔姆斯基看来,ChatGPT是由于“不够智能”而产生了“道德

层面的冷漠”,而“真正的智能也是能够进行道德思考的”。[46]正如朱松纯指出的,虽然ChatGPT进行大规模训练的文本数据语料库已经包括了隐含人类价值观的文本,但它并不具备理解人类价值或与人类价值保持一致的能力,亦即缺乏“道德指南针”。[47]事实上,OpenAI也已从技术内部路径来直面并试图解决这一问题。2022年3月,OpenAI发布了指令微调(instruction tuning)的论文。指令微调通过牺牲性能换取与人类价值的对齐(alignment),OpenAI的作者在论文中将对齐所造成的性能衰退现象称作“对齐税”(alignment tax)。[48]朱松纯团队也已发表了实时双向人机价值对齐研究(Bidirectional human-robot value alignment),试图提出一个可解释的人工智能系统,正如朱松纯表示的,“当下的人工智能研究应该由数据驱动转变为价值驱动”[49]

对齐问题,旨在使人工智能与人类价值观保持一致并遵循人类意图,这也是大模型通向安全、可靠的通用人工智能(AGI)所面临的巨大鸿沟,更是大模型伦理和社会风险至今悬而未决的根源。然而,“对齐税”真的能够救济价值吗?赵汀阳[50]在《GPT推进哲学问题了吗?》一文中写道:“人工智能势不可挡,注定是人类的未来。对人工智能的人文主义或伦理批判只能说明哲学傻了眼,文不对题,没有能够回答人工智能提出的实质问题,比如对意识、主体性、智能等概念的挑战。”这一疑究,发人深思。当人们在技术内部“对齐”时,那个用于对齐的一端的道德伦理、情感价值是可以定义和指认的吗?“对齐税”是指在对齐AI系统的过程中产生的额外成本,也就是与未对齐的基线相比,对齐将造成性能退步。然而,撇开人工智能,当人类独立判断与决策时,情感价值对判断与决策的效能是增益还是耗损?如果是耗损,就人类漫长的演化来说,价值将无以存在;如果是增益,那么价值在通用人工智能那里何以就成为额外支付的一笔“智商税”?此其一。其二,对齐税通过标注数据指令微调,还意味着:一方面,经由分析可辨识的价值概念和命题,如德育中经由条分缕析而表达出来的“德目”,在人工智能这里居然是可以还原的,构成人工智能的本体论承诺;另一方面,“世界需要担当才能被保持在视野中。语境意识必须以这种担当为基础”,而“担当”之“语境”“作为一个整体的世界,任何注记框架都不可能涵盖”[51],但价值在人工智能这里居然可以抽离“整体性”,经由人工或人工智能拆解为标注数据。按照赵汀阳之疑究,人的伦理道德、情感价值,与交上“对齐税”的指令微调还是一回事吗?甚或,哪怕不追求高度一致,其间还有某种程度上类似的生物学(具身)属性吗?答案可能是否定的,至少是不可以遽然作答的。李其维[52]在讨论情感计算时指出,所计算的“并不是情感而是表情——表情只是情感体验的某种并不严格的外显表现,两者最多只有概率意义上的对应”。在这里,人们所获知和获得的只能是“一个冷、硬、无色、无声的死沉世界,一个量的世界,一个服从机械规律性,可用数学计算运动的世界”[53]。这只是科技与人文、理性与感性二元分裂框架内之所论,已足堪忧;而到了人工智能这里,则“更有甚者”。在“二手的非经验”的割裂中,诚如布莱恩·坎特韦尔·史密斯(Brian Cantwell Smith)在《测算与判断:人工智能的终极未来》一书中指出的,“仅为注记担当是远远不够的”,而“为注记担当”并不等于“对被注记的世界的担当”。[54]人与世界的“短路”始终存在,每一次“跳闸”都会将人抛掷在巨大的价值风险中,因为无法与世界打交道而无法对世界有所“担当”。

现在“对齐税”的基本策略是惩罚模型,如张铮等所介绍的:“和人类价值观对齐,也叫作‘对齐税’,作为一个数学手段,是可操作的,OpenAI也正是这么做的:回答没对齐,惩罚模型,对齐,就奖励,可以理解成驯化的一部分。”[55]关于这一策略,史密斯早就给出疑否的判断:“我预期进化论解释和深度强化学习的倡导者会提议,我们可以用适当的‘奖励结构’和/或‘威胁’来处理这一过程,这些‘奖励结构’和/或‘威胁’旨在模仿文化和个人发展。我对这种策略能否成功持怀疑态度的原因至少出于两个方面。一方面,它们似乎倾向于把道德测算化,而不是强调与世界打交道,从而引导系统超出对其内部表征的担当,并最终超出对世界的担当。另一方面,通过奖励的方式也好,真实的生存脆弱性也好,似乎任何简单利用都是不够的。众所周知,人们不能通过任何简单的刺激和反应、奖励和惩罚等行为模式,在其他人那里‘买’到慷慨或善良。同理,对于合成生物来说情况也不会与此有什么不同。”[56]惩罚模型作为“对齐税”的策略,在测算这个意义上也许可能成功或部分成功,但伦理道德、价值情感不是测算可见的,“是非”与“得失”终究不是一回事,正如倪闽景所示:“机器意识和机器情感实际上并不同于我们人类的意识和情感,我们要求机器产生意识,产生情绪,甚至产生智慧,总是用人类的标准去比对,那么我们的方向也许就是错的。”[57]赵汀阳所警示的“文不对题”的概念的挑战始终存在。此类挑战在史密斯那里早就遭遇到,颇发人深省。有人建议史密斯根据程序内部的关系和行为来“重新定义”有关术语,他则坚定地认为,“保留术语的传统词义很有必要”,否则“我就没法谈论我想要解决的问题了”,是故,“我们不应屈从于日益高涨的完全机械化的世界观和解释”,而要“坚决抵制随意拓展词义”[58]。这给我们一个启示和警示:人工智能所示的道德伦理、情感价值,与人类的道德伦理、情感价值,极有可能根本就不是一回事。

在“对齐税”的技术内部路径中,莫拉维克悖论(Moravec's paradox)魔咒一般缠绕着人工智能,难以释解。莫拉维克悖论指出:“和传统假设不同,对计算机而言,实现逻辑推理等人类高级智慧只需要相对很小的计算能力,而实现感知、运动等低等级智慧却需要巨大的计算资源。”语言学家和认知科学家史迪芬·平克(Steven Pinker)认为,莫拉维克悖论是人工智能学者的最重要发现。但,正如黎荔所论:“不过,我觉得这个悖论的说法,本身就是有问题的,它体现了一种日益两极分化的、现代人所特有的思维模式。我们以为很高级的‘智慧’其实很容易就被实现或模仿了,而我们以为很低级的直觉却反而很难实现或模仿,这究竟说明了什么呢?说明高级、低级的划分本身就有问题。”[59]确乎如此,有教育学者将学习过程划分为四个知识层级,而最高层次也就是第四个层级是智慧,“包括方法、素养、情感等方面内容”[60]。正如顾小清所论:“对于计算机科学或人工智能领域而言,使机器具备或近似人类智能的着手点,基本是围绕在认知层面的智能,除此之外人类智慧的不可替代性还体现在情感、创造力、价值观、经验和直觉等方面。首先,情感作为人这种智慧生物最重要的特征,是人类进化过程中的高阶意识体现,也是生成式人工智能目前无法突破的难关。”[61]如果说上一段所论是对AI是否能识别和仿真人类情感价值的疑惑的话,这里则是对AI能否突破莫拉维克悖论并企及“人类进化过程中的高阶意识”的疑惑。“对齐税”,能够救济人的价值吗?至少是不能一时作答的难题。

四、“加大赌注”:赢面有多大?

“对齐税”的技术内部的路径,仍然面对着诸如莫拉维克悖论的一系列挑战。布莱恩·坎特韦尔·史密斯在他的《测算与判断:人工智能的终极未来》一书中反复陈词:测算能力固然重要,判断能力更为重要。在史密斯看来,测算能力与判断,很难在人工智能那里“对齐”。也因之,史密斯提出:“假定我们不将判断能力过度理想化,我们可以通过把测算任务移交给我们的合成物,而反过来对人类‘加大赌注’,提高‘人之为人’的标准,把这里所描述的判断能力作为对成年人思想的本真性要求。这种策略大概是比较可靠的。”[62]这一策略也就是文化学人、元宇宙架构师野城[63]在自媒体文章《ChatGPT,从人工智障走向人工智能的历史性转折》提出的:“上帝的归上帝,凯撒的归凯撒。知识归AI,智慧归人类。无聊的归AI,有趣的归人类。这或许是人类觉得比较理想的未来。”在教育领域,人们对教学场景中人与AI融合的模型交互的赛博格状态作了种种猜想、期许乃至“对齐税”这样的探索,但是,将人与AI两相对待,“花开两朵,各表一枝”,仍然是人们常见的叙事模式。陆奇在演讲中阐述道,“ChatGPT最强大的是一种理性的功能,但它缺乏情感”,“情感教育,是教育的一项重要功能”,“未来的教育,纯知识的理性教育,在很大的程度上将被AI取代。唯独在情感层面,AI没有肉身,徒有大脑,缺乏丰富的心灵”[64]。教育学者亦普遍如此持论。一方面看到“ChatGPT等人工智能应用产品在数据处理方面要明显优于人类”,“使我们更为便捷地获取知识、形成思路”;另一方面,对面看来,“我们更不能以一个人掌握多少知识来衡量人才,而要更加重视人的创新品质、情感品质、道德感、价值观以及运用人工智能所需要的品质”[65]。正如李政涛[66]所论:“如果对标ChatGPT拥有的能力,它所擅长的记忆型、计算解题型、考试训练型的技能,表明其具有超强的信息检索能力、超强的文本生成能力和自然语言能力已经远超人类可能达到的边界,不用多教,甚至不用教了,转而把更多时间和精力投向其无法替代的能力上,如价值观、高阶思维、好奇心、社会情感、想象力、审美力等。”以上所示,均是在人与AI两相对待的基础上的分别叙事的策略和模式,即相对于AI,作为“对标”与“对赌”,对人之所是、所能与所为的叙事。“对齐税”的技术内部路径仍令人生疑,人与世界“短路”的最基本也是最大的问题似乎很难解决。那么“反过来对人类‘加大赌注’,提高‘人之为人’的标准”,这一与人工智能“对赌”的策略能赢吗?赢面有多大?“对赌”也好,“对标”也罢,人与AI各行其道、各负其责的策略,真的就“比较可靠”“比较理想”吗?

AI与人各领其事、各是其是,理性与感性、知识与情感因此而分为两橛,一仍二元论其旧,这在哲学上委实是一道难以逾越的鸿沟。颇有意味的是,第一个成功的搜索引擎的名字意思是“闹哄哄的呆瓜”(noisy simpleton)[67]。德国神经科学家曼弗雷德·施皮茨尔(Manfred Spitzer)的《数字痴呆化》一书尽管给人耸人听闻的印象,但如果捡拾书中所列出的“数字痴呆症”的具体案例,怕是很难一一否证的。过度使用数字技术“将造成更多地表面化”[68]从而导致认知能力受损。我们要问的是,我们的道德伦理、情感价值能够寄寓于认知能力受损的大脑和身体吗?庞德斯通在讨论数字化对青少年一代的影响时写道:“如果说当代媒体油炸了我们的共同大脑,那么,它带来的损害,在千禧一代身上表现得更为明显。”[69]“油炸了的大脑”实在是一则精心而又惊心的隐喻。刚才的提问可以直接表述为:情感与价值如何存身于“油炸了的大脑”?在庞德斯通《知识大迁移——移动时代知识的真正价值》一书中,我们看到的是“最广义上的人文教育的价值”的丢失。[70]“爱因斯坦曾写道,‘想象力比知识更重要’,然而后者的的确确是前者的基础。”[71]“缺乏知识会扭曲人们构建世界的心智地图。”[72]庞德斯通不无幽默地说:“你总不能谷歌一个观点吧。”[73]沿用庞德斯通的表述:“有一样东西你没法上谷歌搜索,那就是你不知道自己应该搜索什么。”[74]在以ChatGPT为代表的生成式人工智能这里,可以表述为:有一样东西你没法prompt,那就是你不知道自己应该prompt什么。有两个方面需要强调。一方面,“知识归AI,智慧归人类”,新的二元化的分裂似乎不宜视为通常意义上的分工。分工体系是基于工作过程的细化和个人知识的分散,表现为结构性的知识分布的差异。大模型AI与“油炸了的大脑”之间,一个倾向于认知、知识、理性,一个倾向于(为人们认为和期待的)非认知、价值、情感,两者的“很强互补性”[75]是否有可能只是一种虚拟,未必就能构成基于分散知识的实质性分工。另一方面,在学习者那里,知—情—意是一个人格整体。学习者在情境中亦即“在世界中”,同时又参与构造新的情境。学习者对知识建构就是情境构造的一部分。情境学习是学习者全面发展的教育机会,探究学习、团队合作、社会参与、自我认知以及伦理责任、情感态度等等,俱在其中。因此,“知识归AI,智慧归人类”之间就算可以视为分工合作,生成式人工智能凭着算法—算力—数据生产出的知识,也只是被“外包”的“二手的非经验”,从而因“跳闸”而造成学生与生活世界的“短路”,不断“油炸”我们的大脑,使我们的头脑“系统化地变成垃圾”[76]。确乎,至少在目前看来,ChatGPT不具备“喜怒哀乐、伦理道德、目的性、价值观、人生目标、社会责任、使命与信仰、对自身尊严的捍卫等这些人类特有的情感”[77]。但是知识的去情境化势必带来“去道德化”[78]。脱离了标注背后的世界与情境中的知识,而与非世界的标注和去情境的知识的AI相对待,如此来对人类“加大赌注”,提高“人之为人”的标准,是否难免乎一厢情愿,确实是一个问题。

“加大赌注”,提高“人之为人”的标准的策略,给AI促进教育变革带来了更多的想象。随着生成式人工智能的发展,“传统意义上以知识传递为核心的学校教育和课程模式已然被逼到了‘墙角’,批判性思维、社会情感技能以及创造力等高阶认知与社交技能必将成为未来学校课程取向与人才培养目标的最终归宿”[79]。一方面,我们固然可作这样的期待,将生成式人工智能视为教育变革的机会和条件。另一方面,我们也要看到,“当下教育面临着认知学习与情感学习、伦理学习的分割”,其“与人工智能莫拉维克悖论相似”[80],彼此具有某种同构性,在现代教育和学习领域,知识与情感价值本来就总体性地处在分裂状态。可见,知识与价值分裂,并不纯然是AI惹的祸。而“对齐税”作为对齐人类价值过程中产生的性能退步的额外成本,与当下应试教育和素质教育纠缠冲突的境况,同样表现出一定的同构性。如果将中考高考视为教育的公共治理行为,综合素质评价则显得费时费力,治理的成本确乎太高了[81]。因之,“相对于应试教育的‘高效’来说,素质教育甚至是必须被贬黜的额外的成本支出。”[82]在相互映照中,我们似乎发现两方面之弊端、之不足的镜像关系。甚至,按照麦克卢汉“媒介是人的延伸”的命题,其镜像关系未始不是前后沿袭与延展的关系。因此,我们也许需要在整体性的教育与整体性的学习中考虑和考量与AI的“对赌”和“对标”,更应该朝向生活世界,在世界的境域,推动教育变革,促进“人之为人”——这里的“人之为人”,是知—情—意的整全,是“在世界之中的本质性建构”,是人的全面而自由的发展。

最后要再次申明的是,本研究不免乎“火箭送信”的逻辑,并没有作出一系列判断的企图,毋宁是对生成式人工智能世代的价值教育提出的一连串疑问。随着时过境迁,这些疑问或疑惑也许部分还算在理,也许基本上就是错误或误会。“道德物化”一直是人工智能的重要取向。兴许有一天甚至于不久的将来,乔姆斯基所说的“真正的智能也是能够进行道德思考的”,就能得到实现。前不久,我在互联网上读到一篇文章,文章写道,6G之后,6G将不再沿着虚拟通信的轨迹走向7G,而是全面超越虚拟阶段,变革为以自然本真的真实信号为主的“超代通信”,即SG(Super Generation)。也就是说,SG不再是代码系统,而是真实世界[83]。如此,“二手的非经验”“油炸了的大脑”就将成为过时之虑,本文也将在布莱恩·阿瑟所说的“域定”中成为一小片不足屑顾的“城南旧事”。


参考文献:

[1]吴冠军.从元宇宙到量子现实:迈向互动本体论[EB/OL].https://baijiahao.baidu.com/s?id=1760065455805777353&wfr=spider&for=pc.

[2]余明锋.还原与无限:技术时代的哲学问题[M].上海:上海三联书店,2022.

[3][7][36][37][38]乌尔里希·贝克.风险社会:新的现代性之路[M].何博文,译.江苏:译林出版社,2018:24,78-81,356,80,81.

[4]刘志毅,梁正,&郑烨婕.黑镜与秩序:数智化风险社会下的人工智能伦理与治理[M].北京:清华大学出版社,2022:2.

[5][6][8]布莱恩·阿瑟.技术的本质:技术是什么,它是如何进化的[M].曹东溟,王健,译.浙江:浙江人民出版社,2014:119,165,78-81.

[9][10][33]胡泳.理解麦克卢汉.In马歇尔·麦克卢汉.理解媒介:论人的延伸(55周年增订本)[M].江苏:译林出版社,2019:2,2,2.

[11]托马斯·库恩.科学革命的结构[M].金吾伦,&胡新和,译.北京:北京大学出版社,2003:16.

[12]于雪,凌昀,&李伦.新兴科技伦理治理的问题及其对策[J].科学与社会,2021(4).

[13]马克斯·范梅南.生活体验研究:人文科学视野中的教育学[M].宋广文,译.北京:教育科学出版社,2003:65.

[14][39]海德格尔.时间概念史导论[M].欧东明,译.北京:商务印书馆,2009:219,229.

[15]胡塞尔.欧洲科学危机和超验现象学[M].王炳文,译.北京:商务印书馆,2001:139.

[16]胡塞尔.胡塞尔选集(倪梁康选编)[M].上海:上海三联书店,1997:1087.

[17][19][20]海德格尔.存在与时间[M].陈嘉映,王节庆,译.北京:商务印书馆,2006:16,64,73.

[18]约翰·波洛克,&乔·克拉兹.当代知识论[M].陈真,译.上海:复旦大学出版社,2008:237.

[21]杨九诠.“什么评价”与“谁的评价”:教育评价的现代性反噬[J].北京大学教育评论,2022(04).

[22]海德格尔.海德格尔选集[M].孙周兴,译.上海:上海三联书店,1996.

[23][24][41]蓝江.从身体感知到机器感知——数字化时代下感知形式的嬗变[J].西北师大学报(社会科学版),2023(03).

[25][28]老岳.代码与人、机械的人、我们的决定性[EB/OL].https://zhuanlan.zhihu.com/p/350747390.

[26]闻菲.Stuart Russell专访:关于ChatGPT,更多数据和更多算力不能带来真正的智能[EB/OL].https://baijiahao.baidu.com/s?id=1758329667556431371&wfr=spider&for=pc.

[27]量子学派.十七进制.ChatGPT,一种更中心化的权力?[EB/OL].https://tech.ifeng.com/c/8NIoKA51hlR.

[29][67][70][71][72][73][74][76][78]威廉·庞德斯通.知识大迁移——移动时代知识的真正价值[M].浙江:浙江人民出版社,2018:7-8,6,201,204,30,20,264,231,25.

[30][31]许纪霖.我对ChatGPT了解得越深入,越是无法乐观[EB/OL].https://m.163.com/dy/article/I2U36TA50536N1P3.html.

[32]马歇尔·麦克卢汉.理解媒介:论人的延伸(55周年增订本)[M].何道宽,译.江苏:译林出版社,2019:69.

[34]量子学派.你以为AI是在画画吗?它画的是数[EB/OL].https://www.163.com/dy/article/HUKCH5AE0511FQUH.html.

[35][50]赵汀阳.GPT推进哲学问题了吗?[J].探索与争鸣,2023(3).

[40]冯志伟,张灯柯,&饶高琦.从图灵测试到ChatGPT——人机对话的里程碑及启示[J].语言战略研究,2023(2).

[42]海德格尔.路标[M].孙周兴,译.北京:商务印书馆,2000:420.

[43]哈贝马斯.交往行动理论:第2卷[M].洪佩郁,译.重庆:重庆出版社,1994:194.

[44]艾四林,&戴令波.哈贝马斯与康德、黑格尔的伦理观[J].兰州大学学报,2001(5).

[45][47][49]机器之心编辑部.关于AGI与ChatGPT,Stuart Russell与朱松纯这么看[EB/OL].https://baijiahao.baidu.com/s?id=1758971071640459125&wfr=spider&for=pc.

[46]机器之心编辑部.终于,乔姆斯基出手了:追捧ChatGPT是浪费资源[EB/OL].https://baijiahao.baidu.com/s?id=1759963403251109370&wfr=spider&for=pc.

[48]符尧.拆解追溯GPT-3.5各项能力的起源.[EB/OL]https://zhuanlan.zhihu.com/p/629591291.

[53]丹皮尔.科学史[M].李珩,译.北京:商务印书馆,1989:249.

[51][54][56][58][62]布莱恩·坎特韦尔·史密斯.测算与判断:人工智能的终极未来[M].刘志毅,译.北京:中信出版集团,2022:173,167,163-164,7,145.

[52]李其维.“认知革命”与“第二代认知科学”刍议[J].心理学报,2008(12).

[55]张峥,&小白.GPT与人工智能:可能是好事,也可能不是[EB/OL].http://healthnews.sohu.com/a/661935002_260616.

[57][60]倪闽景.从学习进化的视角看ChatGPT/生成式人工智能对学习的影响[J].华东师范大学学报(教育科学版),2023(7).

[59]黎荔.莫拉维克悖论的思考[EB/OL].https://www.163.com/dy/article/GO43JMHH0521S8N2.html.

[61]顾小清,胡艺龄,&郝祥军.AGI临近了吗:ChatGPT热潮之下再看人工智能与未来教育发展[J].华东师范大学学报(教育科学版),2023(7).

[63]野城.ChatGPT,从人工智障走向人工智能的历史性转折[EB/OL].https://www.sohu.com/a/640767243_121124707.

[64]张小珺.我的大模型世界观[EB/OL].https://new.qq.com/rain/a/20230509A08CH500?no-redirect=1.

[65]朱永新,&杨帆.ChatGPT/生成式人工智能与教育创新:机遇、挑战以及未来[J].华东师范大学学报(教育科学版),2023(7).

[66]李政涛.ChatGPT/生成式人工智能对基础教育之“基础”的颠覆与重置[J].华东师范大学学报(教育科学版),2023(7).

[68]曼弗雷德·施皮茨尔.数字痴呆化——数字化的社会如何扼杀现代人的脑力[M].王羽桐,译.北京:北京时代华文书局,2014.

[69]威廉·庞德斯通.知识大迁移——移动时代知识的真正价值[M].浙江:浙江人民出版社,2018:15,20,30,201,204,231,264.

[75]蒋里.AI驱动教育改革:ChatGPT/GPT的影响及展望[J].华东师范大学学报(教育科学版),2023(7).

[77]陈玉琨.ChatGPT/生成式人工智能时代的教育变革[J].华东师范大学学报(教育科学版),2023(7).

[79]郑永和,周丹华,张永和,田雪葳,王晶莹,&郑一.计算教育学视域下的ChatGPT:内涵、主题、反思与挑战[J].华东师范大学学报(教育科学版),2023(7).

[80]廖湘阳,&朱会芳.人工智能时代研究生能力培养的重构——基于莫拉维克悖论的思考[J].学位与研究生教育,2022(8).

[81]杨九诠.综合素质评价的困境与出路[J].华东师范大学学报(教育科学版),2013(02).

[82]杨九诠.核心素养与深化课程改革[J].教师教育论坛,2016(12).

[83]新文明.极限技术6G中初露峥嵘,SG超代通讯随即来临[EB/OL].https://baijiahao.baidu.com/s?id=1635773664125092141&wfr=spider&for=pc.


The Imagined Dilemma: Value Education for the Generation of Generative Artificial Intelligence

Yang Jiuquan


Abstract: Moral objectification has always been an important orientation of artificial intelligence. The new generation of generative artificial intelligence, represented by ChatGPT, is also attempting to express human moral ethics and emotional values by sacrificing certain universality of the alignment tax strategy. However, the existence of code systems leads to the knowledge and skills that students acquire from AI being nothing more than second-hand non-experience, resulting in a disconnect between students and the life world and directly facing the risk of demoralization. The alignment tax strategy does not seem to be able to restore and save human values. As a whole, knowledge, emotions, and intentions should be integrated, yet the strategy of “knowledge belongs to AI, wisdom belongs to humans” falls into the trap of binary division from the beginning, and a lack of knowledge will inevitably distort people's cognitive maps for constructing the world. Therefore, value education in moral ethics and emotional values may be just wishful thinking. The generation of generative artificial intelligence should move towards the life world, anchoring “the essence of being human” in the context of the overall world and promoting students' comprehensive and independent development. This research does not provide a series of judgments but rather raises a series of questions about the value education of the generation of generative artificial intelligence.

Key words: generative artificial intelligence; alignment tax; second-hand non-experience; life world; emotional values


初审:王远琦

复审:孙振东

终审:蒋立松


010-123456 jiaoyuxuezaixian@163.com

北京市教育学在线

版权所有 |教育学在线 京ICP备1234567号 在线人数1234人