当前位置: 首页 > 在线期刊 > 2024年 > 第6、7、8期目录(总第二百零四期) > 正文

机器的“人化”与人的“机器化”:智能时代教育的主体性危机与破解

作者:苏慧丽,张敬威
阅读数:1

来源:《现代远程教育研究》2024年第1期


要:伴随着智能技术尤其是GPT等生成式人工智能的飞速发展,人与技术在教育领域的互构不断增强。一方面,技术的快速迭代发展促使机器不断“人化”,甚至作为行动主体参与到教育当中,不仅重新构建了“人—技术—世界”的关系,而且导致技术在教育中的角色逐渐从“教学工具”向“教育行动者”转变,并通过“技术凝视主体”的方式对学生进行引导与塑造。另一方面,技术在教育中的深度介入导致人的“机器化”加剧,体现为:被技术嵌入的教育主体从“自然人”向“赛博格”转变,人类认识形式从身体感知向机器感知转变,人的主体价值被智能技术划界与规定。为破解智能时代技术带来的主体性危机,应以“培养人”为意向坚守教育的价值指向,使技术意向性与教育目的性相统一;以“否定性”为奇点透视教育主体的人机之别,着力培养学生的反思与批判能力;以“创变”为核心培养学生的新型创造力,使学生在具身认知与机器感知下形成创变能力;以“善智”为目标构建教育中的人机互动,使教育技术在高效应用的同时能被有效规范。

关键词:智能教育;机器的“人化”;人的“机器化”;主体性;生成式人工智能


智能时代生物技术、数字技术与智能技术的发展正在改变着作为碳基生物的人与作为硅基“生物”的智能机器的演化规律与演化节奏。一方面,人工智能的飞速发展尤其是生成式人工智能的快速迭代使机器不断“人化”,甚至作为行动主体参与到教育当中;另一方面,技术在教育中的深度介入导致人的“机器化”加剧,表现为教育主体向“赛博格”(Cyborg)转化、机器感知对身体感知的替代、技术功能对人的劳动价值进行划界。人工智能正在迎来其发展的“奇点”,面对技术与人的主体形态变化,教育作为“培养人”的活动,必须重新思考“人是什么”“人向何处去”等问题,重新构建未来教育主体与智能体之间的关联,应对智能时代教育的主体性危机。

一、机器的“人化”:教育中技术“激进的无定”

2022年11月,Open AI发布了名为ChatGPT的智能聊天工具。作为生成式人工智能的典型应用,ChatGPT的出现标志着人工智能的发展正逐渐走向通用智能的新阶段。2023年3月升级的GPT-4不仅在语言交互上的能力大幅提升,其在数学、编程、视觉、医学、法律、心理学等多样化和高难度的任务中的表现也极为出色。可以预见,随着GPT的升级,它的应用领域将不断扩展。技术哲学家唐·伊德(Don Ihde)将技术看作一种人与世界的居间中介,根据人、技术与世界三者间的关系将其分为四种类型:具身的技术、诠释学的技术、它异关系的技术与背景关系的技术。作为它异关系的技术,人工智能愈加凸显的“拟人性”与“他者性”特征决定了其在教育实践中将从“教育工具”向“行动者”的角色转化,并以技术凝视主体的形式对教育中的参与者进行观念与行为上的塑造与引导,导致教育主体在与技术交互中陷入被动。

(一)生成式人工智能的“拟人性”与“他者性”

技术的“拟人性”能够引发人们的沟通欲望与情感互动,而GPT等生成式人工智能具有更强的“拟人性”与“准生机”,在一定程度上与人的互动呈现出更强的“他者性”特征。相比于书籍、视频等对象,生成式人工智能的反馈更具有生机、不确定性与互动性;而相比于真实的人类“他者”,人工智能又具有更强的服从性与定制性,能够根据使用者的需求予以个性化应答。因此,众多使用者会将人工智能拟人化,甚至在互动中投注大量情感。但一旦技术失效,或是不满足使用者的意向偏好,这种准喜爱(Quasi-Love)可能转化为一种准憎恨(Quasi-Hate),从而令使用者感到受挫甚至愤怒。总的来说,生成式人工智能以一种更强的、更具存在感的实体形象出现,作为一种“他者”满足了人对不同形式他者的多重交往与情感需求。

GPT等语言类人工智能具备多重居间功能,甚至可以被看作是多种居间技术的整合者与使用者,以此重新构建了“人—技术—世界”的关系。以往在人、技术与世界的居间关系中,人是决定技术功能的脚本撰写者,是居间关系中的整合者与使用者,决定了技术的应用场景与使用方式。但生成式人工智能在一定程度上替代了人的这一工作。GPT从本质上来说是技术对人类经验的转化与呈现,它的语料库来自网络、书籍、论文、报告、公开数据集等。它一方面作为一种“他者”与人发生关系,其与人互动的传感形式具有具身的功能,其内容的呈现体现了一种诠释学的功能,引导人通过技术认识世界。同时,当GPT在网络环境中广泛应用时,通过诸多的拟人的“在场”形式呈现出一种“不在场”的背景功能。因此,GPT等生成式人工智能会根据其需要整合并构筑具身的技术、诠释学的技术与背景关系的技术的居间功能,以一种隐蔽的形式引导人们对世界的认知,产生诸如一些研究者诟病的数据偏见或信息茧房现象。另一方面,GPT也可以作为“他者”进入人的生活世界,使人类形成通过其认识世界的惯习。如此,技术在人与世界的关系形式由“人—技术—世界”的关系彻底转化为了“人→技术—(—世界)”的关系,人们认识的世界是技术构建与呈现的世界,技术成为人、技术与世界居间关系中的主导者。

(二)人工智能从“教学工具”向“教育行动者”转化

人工智能愈加凸显的“拟人性”与“他者性”特征决定了其在教育实践应用中的角色必然从“教育工具”向“教育行动者”转化。在教育中,最初使用的技术多体现为具身的技术与诠释学的技术。具身的技术主要指借助技术把实践具身化。使用这种技术时,“我们以一种特殊的方式将技术融入我们的经验之中,以此借助技术在感知中延伸我们的知觉”。如在教育中使用较为广泛的显微镜、望远镜等光学技术便是对学生视觉的延伸。具身的技术强调其“透明性”,即在掌握这种技术后人与技术融为一体,技术“抽身而去”,从而形成“(我—人工物)—世界”的关系。诠释学的技术主要指技术情境中特殊的解释活动,这类技术被看作是解读的对象。在教育中存在大量诠释学的技术,如书本、PPT、图片等承载可解释信息的技术。

数字化环境下,教学技术的它异关系与背景关系愈加凸显。它异关系的技术将技术作为“准他者”,聚焦于人与技术的互动。在教育中,计算机辅助教学、智能技术与数字资源的使用是它异关系的技术的代表,数字素养与技能也成为数字社会学生应具备的核心素养。背景关系的技术指作为技术环境的技术。在教育中,一种背景关系的技术形式体现为智慧教室中技术环境的塑造,另一种形式则表现为通过技术将人与外界环境隔离开来,如网络社群构建起的文化场域,包括学习社区、兴趣社群等,从而构建起相对封闭的“网络蚕茧”。背景关系的技术虽以“不在场”的方式存在,但它会对教育主体产生更加微妙的间接影响,并且牵连的范围更广,影响更加持久。

随着智能技术尤其是人工智能在教育中的使用,技术居间的功能更趋向于多种技术意向的统合。伊德认为四类技术能够形成一个连续统,一端与人相联结,如具身的技术对人知觉的延伸,一端与世界相联结,如诠释学的技术对世界的解释。但他并未预见,随着它异关系的技术的发展,四种技术功能不再单纯按功能进行分工,而是一起服务、统合于它异关系的技术之下。人工智能作为它异关系的技术在教育中以“他者”存在并与教育主体产生互动。在互动过程中,它根据需求不断调动具身的技术、诠释学的技术来放大知觉,传递与解释内容,并创造背景构筑网络场域。它在教育中不仅是某种工具,而且作为其他技术的“使用者”在网络中互动、操演,作为“行动者”与教育主体交互共同完成教育活动。在智能化时代,教育的形态呈现网络状结构。按照布鲁诺·拉图尔(Bruno Latour)“行动者—网络”理论,在教育网络中,存在人类与非人类的教育者,尤其是GPT等使用“自然语言”的生成式人工智能,虽不具有意识,但却是能动的“行动者”。“在教—学实践中,不仅仅是人在学习,所有非人类也在学习,并通过这种实践不断更新自身”。

(三)数字技术对教育主体的“凝视”与“控制”

人工智能作为它异关系的技术,其“他者性”决定了它在与人类的交互过程中呈现出了类人的“凝视”作用。凝视指行为者对某种对象长时间聚精会神地观看,其主体可以是个体的人,也可以是抽象算法;凝视的对象可以是个体或物体,也可以是某种行为(张宪丽,2022)。斯拉沃热·齐泽克(Slavoj Žižek)认为,凝视具有“交互被动性”(Interpassivity),“主体之凝视总是——已经被铭写进被感知的对象之中,在一个‘盲点’之假象之下,而这个盲点是‘在对象之中并多出对象自身的东西’,是对象自身将凝视回返到主体的点。”随着人工智能尤其是其感知智能的发展,数字世界逐渐构筑起一个广泛的凝视空间,并以“凝视”的方式影响甚至塑造着技术使用者。

数字时代技术的凝视以两种形式发挥作用。米歇尔·福柯(Michel Foucault)将凝视视为一种权力机制。在这种机制下,个体处于一种集体的、匿名的凝视中,由于被看见,人们不得不处于权力的压迫之下。数字技术跟踪、储存生物信息与情感数据的能力使这种凝视的压迫感愈加强烈,甚至走向监视。如个别教师、家长对学生网络浏览记录的查阅,多模态技术对学生听课时表情、语言的识别、记录与分析等,其本质是监视与控制权力通过技术的发挥与施展。技术使这一凝视更加隐蔽化、放大化与微观化,学生可能在技术的“眈眈相向”下产生紧张、焦虑甚至羞耻等情绪,即保罗·维利里奥(Paul Virilio)所说的“冷恐慌”。技术凝视背后不仅是个别教育者微观权力的施展,算法与资本在更大的范围影响着被凝视的对象。资本通过对算法的掌握决定何为“热点”,引导着舆论风向,甚至塑造着网络世界的价值标准,从而使教育主体趋从于算法所塑造的“应该成为什么样的人”的价值标准,进而影响教育目标指向与学生的培养路径。

技术凝视另一种形式体现为雅克·拉康(Jacques Lacan)所提出的凝视下的欲望及其满足。拉康认为,凝视并非感知到某只眼睛在注视自身,而是自身在他者领域中想象的一种凝视。主体欲望存在于想象界、象征界与实在界三个世界。想象界的主体以“小他者”为镜像对自我进行定位,如婴儿以父母的模样或父母的期许来“完形”自我。在象征界,主体在社会群体中以“大他者”为牵引定位自我的发展欲求。实在界则反映了主体在希望进入象征界并实现其目标过程中的实际限制。数字时代创设了一个与现实世界平行的虚拟世界,教育主体在权力的压迫与欲望的推动之下,急切地进入其中意图构造自己的想象界,并在与人、人工智能互动社群中将自己塑造为“我自以为我是的那个人,我希望人家以为我是那个人”。在虚拟空间所构造的想象界与象征界中,自我塑造的欲望能够在技术凝视下被简单地满足,但在实在界中,多数个体很难达到“大他者”的目标,从而不断进行自我消耗,无法抵达外在和他者,无法进入世界,只能缅怀于自身之中,最终可能导致主体的自我瓦解、空虚与倦怠。而数字技术背后拥有资本与权力的他者则通过凝视来主导主体的欲望,从主体不断追逐数字象征界与实在界的落差中攫取利益。

技术凝视的背后是资本的权力控制,教育主体在凝视短视频、图文信息所塑造的“成功教育”“优秀孩子”“人生赢家”等形象时,他们实际已被资本所操控的算法所凝视与塑造,从而陷入无止境的自我消耗与焦虑之中。同时,人工智能等它异关系的技术本身的“拟人性”导致了教育主体的“交互被动性”。我们在使用人工智能技术时,不仅被动地接受其传递的信息,我们的被动接受或享受亦被对象本身所替代,即对象并不是被动的,它变成了主动的,我们却变成了被动的。

二、人的“机器化”:智能时代教育主体的嬗变

随着生物技术、数字技术与智能技术的发展,教育主体通过物理层面的人机融合,或是体外的“外脑”联结等方式变革了其生命形式,即从“自然人”转向“赛博格”。从主体生命形态上看,“自然人”向“赛博格”的转变在教育角色上可能导致人与机器的工具性倒置以及价值标准的机器化倾向。从主体的认识方式上看,人工智能的进一步发展导致机器感知对身体感知的侵蚀,从而可能使教育主体产生过度的技术依赖与思维惰性,成为被技术规训与监测的对象。从主体的存在价值上看,教育主体是否会在未来成为“无用阶级”,将很大程度上受智能技术的发展前景所影响,人的价值与教育的价值很大程度上被机器界定。

(一)技术嵌入的教育主体:从“自然人”转向“赛博格”

传统教育将拥有自我意识的人作为教育的唯一主体,而启蒙时代以来的教育其最终目的在于培养具有理性精神的“大写的人”。现代教育的要素、结构、知识体系都建立在这种理性规范下“大写的人”的基础之上,人在教育中是绝对的权威与目的,其他非人要素均是主体人的工具与手段。然而,智能时代的到来颠覆了人类在教育中的权威性与至高无上的中心地位。例如,当GPT等生成式人工智能作为一种可外接的具有丰富资料储备与强大功能的“外脑”应用于教学时,其在知识储备、反应速度与个性化支持上均超越了真实环境下的教师,也超越了自然人的“本脑”。而随着技术的发展,这种“外脑”可能以更加内在、透明的形式而存在,如以芯片的方式植入学习者的身体内部,与人脑进行连接与交互,使信息能够在不同的物质机体(硅基机体和碳基机体)中不变地流动,“智力”变成了一种正式的符号操作性,而不是人类生活世界的设定。在这种情况下,教育中的人被“机器化”了,且这种“机器化”是人的进化意志所主动追求的。由此,受教育者的生命形态将被重新定义,他不再是自然人,而是具有“赛博格”特征的人与机器的融合。

人工智能对学生思考、计划、猜测、表达等能力的替代可能导致教学中人与机器角色的倒置,从而产生主客体角色互换的危机。传统的教学过程与结果也将随之受到冲击,其可能被机器化为嵌入和执行社会技术关系的物质符号组合,成为转移各种有机体、技术、自然和文本材料之间连接和相互作用的过程。在“外脑”的技术演化之下,人的“本脑”可能会沦为可有可无的“外脑”,而传统教育的对象——自然人,也可能沦为人工智能所替代的存在。此外,文化是人类的“操作系统”,教育所传递的人类文化是基于语言产生的。人工智能已经破解了语言,并开始创造文化。那么在未来的教学实践中,非人类实体创造的文化可能作为教学内容进入课堂,这意味着人工智能可能通过教育传递其创造的文化,以此改变人类思考、感受和行动的方式。

从人的价值上看,人工智能对人的模拟与超越也造成了人的自我认同焦虑。一方面人被物化,另一方面人类所创造的产品在质量上又超过了物化的人,由此产生了“创造者与创造物的颠倒”。人的有限性、不完美性相较于机器的可完善性与再生性,使被物化的人产生了一种“普罗米修斯的羞愧”。人被自己所创造的机器的优越性与权威所震慑,人的眼光变成了机器的眼光,人的标准变成了机器的标准,人的感情也被机器化了。人工智能提供了一种有组织的系统,在这一系统中机器人等可以自动地、自觉地处理事物,从而使人无须再探索、创造、思考和感觉了。当通用人工智能代替人类的智能与体能进入人类生活与工作领域,大量的人可能变为“无用阶级”。当教育中的人感知到自己在知识储备、学习能力上都无法与机器匹敌时,难免对于教育的价值与意义产生怀疑,甚至质疑自我的主体存在价值。

(二)人类认识形式的机器化:机器感知对身体感知的侵蚀

智能技术的发展使人的感知形式从身体感知、工具感知逐渐进化到机器感知。人类最初对世界的认识是基于身体感知的,我们认识的世界实际上是依赖于我们身体感知建立起来的周围世界。随着技术的发展,具身的技术作为人的延伸,提供了转换事物的新视野与新知觉,从而将传统意义上的身体感知拓展为工具感知。代具性的工具感知能够弥补人类的认知缺陷,但并未取代人的身体感知。“当作为工具的技术延伸到一定程度时,作为人类的代具性的外在器官,反过来制约着人的存在,成为对人的思想行为的规训与缧绁。”原本由身体与世界交互形成的感知集置,经由智能技术进一步中介化,从而用机器感知代替传统的身体感知与工具感知。由此,人类的感知被“机器化”了。“智能机器试图绕过不知情的、容易出错的、不合作的和其他不受指挥的主体,直接进入身体数据的(所谓的)客观领域。”

机器感知形式在教育中的过度使用可能导致教育主体成为“外—主体”(Extro—Subject),从而使教育主体产生技术依赖与思维惰性,成为被技术规训与监测的对象。一方面,随着在线教育逐渐普及,远程在场的教育形式将逐渐挤压真实的课堂发生。当前的在线教育已可以通过脑机接口等技术使个体身体的感知转移到一些机械上,如转移到传感器、感觉器或其他探测器上,以此填补远距离触觉的缺席。因此,智能时代的教育活动可以不再是现实世界的“具体在场”,而是一种“谨慎的远距离在场”。这种技术所带来的便捷可能导致主体的行为惰性,使现实中身体的动态行动、感受变为视听的静态运载,即将运动与位移的能力转交给探测器,让它们即时地向主体报告一种遥远的真实性,从而损害个体本身所具有的对于真实事物的理解能力。另一方面,机器感知进一步发展的结果是自主地形成一套规范,目的不是让主体的生活和工作变得便利,而是对主体的身体进行规训,让主体更适合机器感知和监测形成的规范系统。如使用计步APP来测算学生的体育锻炼强度,使用智能作业笔监控学生的作业完成情况,使用多模态技术捕捉学生的微表情、语言与动作,判定学生听课的专注性等。原本由人类主体支配的机器系统反过来监测人类行为。在算法权力监控下,为满足其标准,主体自愿地限制着身体对于某种动作、某些冲动的影响范围,由此人便从可动的(Mobile)人,变为自动的(Automobile)人,并最终变为机械的(Motile)人。这一形态下,人作为教育主体可能会成为认知上“残缺的支配者”,丧失身体的自然运动机能,被技术摄取其直接、即时干预认识活动的能力。

(三)机器对人类劳动价值的规定:技术对“人”的划界

人工智能的发展与普及在不断挤压人类的劳动市场,它们不仅仅能够取代简单重复的体力工作,GPT等生成式人工智能的发展开始威胁到一些具有创新性、技能要求较高的工作种类,如翻译人员、诗人、词作者、作家、数学家、会计师、审计师及记者等。相比人类,GPT-4能够在10秒内制作出一个网站,60秒内制作出一个简单游戏,并且在多项基准考试测试中,如美国律师资格证考试(Uniform Bar Examination,UBE)、法学院入学考试(Law School Admission Test,LSAT)等测试中获得优秀的成绩。这对教育,尤其是以灌输知识为主的教育体制带来了很大挑战,“培养什么人”成为教育必须重新思考的问题。教育必须将人工智能等技术的发展纳入价值标准制定与目标定位设计中,以此对“何谓有用的人”“何谓有价值的知识”等问题作出具有前瞻性的回应。

技术乐观主义者认为,人工智能的发展为人的自由全面发展提供了机遇。人工智能作为一种重要生产力能够创新生产方式,提高生产效率,从而把一部分劳动者从重复的、有害的、繁重的工作中解放出来,使人类拥有更多可支配时间从事“自由自觉的劳动”,如互联网中的各种性质的非营利、分享性的、以终身学习为基础的创造性劳动。但多数的研究者对这一问题感到焦虑与警惕。在未来,技术可能对人进行划界。即掌握需要高水平教育和培训的抽象智力技能成为劳动力的关键属性,不具备这种技能的人类在未来将被淘汰,成为“无用阶级”。正如美国机器学家汉斯·莫拉维克(Hans Moravec)《心智后代》一书中的观点,当机器拥有足够知识,能够不依靠人类而进行自我维护、复制和自我改进时,人类就会失去进化的权力,并将被人类所制造的“心智后代”(机器)所取代。智能技术对劳动力的替代本质上是对人的价值的划界——难以被机器替代的劳动是有价值的劳动,区别于机器的人是有价值的人。基于此,教育一方面需积极关注人工智能的发展动向,引导教育主体对GPT等人工智能的“善用”;另一方面要积极探寻人机之别,为教育主体构建独特的劳动价值与存在价值。

三、基于“人的立场”:破解主体性危机的教育变革之径

随着智能技术的发展,可以预见,机器的“人化”与人的“机器化”问题将愈加凸显。面对智能技术带来的主体性危机,教育变革的基本立场与原则应是促进人的生命发展,因此,必须基于人的立场探求未来教育的变革之径。只有基于人的立场,教育才可能在智能化世界中发挥其应有的育人价值,作为教育主体的人才能够在与智能技术互构的行动网络中实现自由与全面的发展。

(一)以“培养人”为意向坚守教育的价值指向

智能时代的教育需基于对人类本质的认识,坚守“培养人”的价值意向。尽管人工智能等非人类主体正在作为“行动者”进入教育场域,与人类共同组成教育的数字共同体,但教育的目的仍需指向人的培养,促进人的未来发展而非人工智能的改进。

教育需坚守“培养人”这一核心意向,关注人的智慧发展与文明传承。联合国教科文组织在《反思教育:向“全球共同利益”的理念转变?》一书中明确指出“维护和增强个人在其他人和自然面前的尊严、能力和福祉,应是二十一世纪教育的根本宗旨。”就教育的本质来说,教育是人类所独有的遗传形式和交往方式,是人类自身的再生产和再创造。尽管生物技术与数字技术看似以更加快速的手段实现了人的再生产与知识的传递,但生物技术对人类的增强影响了人的多样性与可能性,技术对“过程性”的跨越压缩了人类文明与经验的厚度。正是通过持续的自然演化与后天习得所形成的人性才决定了人之为人,也正因为人性的紧密相连,才使人以群的形式站在一处,始成人类。未来的教育既要重视人类智慧的培养与发展,又要关注人作为类存在,其文明的传承与建构。前者是实现后者的途径与基础。因此,“人的记忆力、读写算这些基础性能力不应因智能工具的发展而受到冷落,不能因智能工具运用降低人的视力、弱化人的体魄,不能让计算思维代替人的文化想象力,不能因为智慧课堂的普及减少人类生活中的自然风光、文化符号、诗歌和吟唱。”

确保技术意向性服从于教育意向性是应用教育技术的前提。GPT等生成式人工智能可以在提出要求后瞬间提供对应的结果,它是跨越过程性直接指向结果的,但教育的意向性是尽可能还原过程来发展学生的认知与智慧。因此,教育中对GPT技术的使用应指向过程性,应以教育的“过程性”为核心意向建立教育技术使用意向的考察标准与伦理原则。首先,要善用人工智能形成教育的“行动者—网络”,将人工智能作为互动对象以提升人的学习能力,如通过与GPT之间的语言互动反馈来提升学生的语言表达、写作与推理能力,为学生提供有针对性的学习材料与智能学伴。其次,需明确规定技术的居间功能与限度,如某一技术是应作为具身的技术来延伸学习者知觉,或是作为诠释学的技术来解释学习内容,应根据不同教育目的明确技术的居间形式,避免技术使用的意向含混。最后,需建立对意向性的伦理考察机制,针对技术使用中存在的数据偏见、信息茧房与权力凝视等问题进行考察,避免技术对学生造成不良的意向引导。

(二)以“否定性”为奇点透视教育主体的人机之别

人与机器相区别的关键问题在于人工智能是否能够代替人类的劳动与思考。人工智能在众多领域超越了人类,人类的存在价值体现为何?人工智能不可跨越的“奇点”是回答这一问题的关键点,也是人类教育发展的核心指向。

以“否定词”为表征的反思是人类意识革命的起点,也是人与机器相区别的重要标志。人工智能的发展虽已能够进行自我复制、自我维护与自我反馈,但其自我意识尚未产生,其本质仍是数学与逻辑组成的符号运算体系。“任何智能的危险性都不在其能力,而在其意识”。自我意识的神级功能一在于能够能动地使一切事物变为思想对象,二在于能够对意识自身进行反思,这两个功能是人类理性、知识和创造力的基础。相较于人工智能,人类思维的真正特异性在于否定性,有了否定,才能发展出疑问、怀疑、分析、对峙、排除、选择、解释、创造等功能。这是“动物逻辑”与“机器逻辑”办不到的,因此,教育的关键在于培养主体的否定性与超理性的反思能力。

对学生否定能力与批判能力的培养是应对技术凝视与同质化暴力的有效方式,也是构建教育数字世界道德准则的前提条件。首先,面对数字世界中想象界与象征界的技术凝视,以及技术凝视背后资本所操控的权力机制,教育者需帮助学生跳脱出数字世界的隐性监控与规训,在真实世界这一“实在界”中为学生提供身份认同与存在价值。如在教育中提供面对面教学所独有的真实交往与情感互动,并为学生在真实世界达成其“理想形象”提供教育支持,使学生基于真实世界的视角对技术凝视背后的权力控制进行否定与解构。第二,技术世界所构造的信息茧房可能造成同质化的暴力,即使用者生活在对同一观点与价值标准表现迁就与认同的网络社群中,而难以接受具有“否定性”的他者意见。教育的重要目标是唤醒与培养人的否定性,即“能对获准作用于我们身上的知识和权力进行永恒挑衅”。因此,教育者可以利用数字技术构建情境变式,促使学生在教育中构建对真理相对性的认识,形成否定的认识方式;或组建具有异质性的学习共同体与网络社群,以他者的否定性介入对抗同者的肯定性暴力。

(三)以“创变”为核心培养学生的新型创造力

智能技术的发展不仅以自动化的形式替代了人们的重复性劳动,GPT等生成式人工智能的出现意味着一些看似具有创造性的工作也可能被取代。那么,人工智能是否能够真的替代人的劳动与思考呢?教育在未来又应培养具备何种能力的人?

人工智能的创造是基于组合与联想的运算,而人类的创造性在于提出新问题,改变旧思路,重新建立规则与方法。因此,人的创造性特征在于“创变”,即“创造”与“变通”,这也是教育应培养的学生的新型创造力的核心。首先,人类认识的具身性是培养“创变性”的前提。人类的创造是基于身体感知的。莫拉维克悖论(Moravec’s Paradox)指出,“让计算机在某些任务上表现出成人的智力水平是件很容易的事情,如智力测试或玩跳棋,但是让其获得哪怕是一岁儿童的某些能力,如感知和运动,却是极其困难甚至是不可能的事情”。人类的创造活动依赖于生命机体,借助于知识、经验、知觉等理性或非理性逻辑与外部情境发生作用从而产生意识和认知,甚至内化为本能反应,是一种“具身”的自然认知系统。教学应引导学生以具身的方式进入周围世界,通过身体的连贯性图式感知世界的统一体,从而形成对世界的整体把握与深度认知,并实现外在感知世界与学生内在精神世界的统一。这是创变性培养的前提。例如,在小学写作教学中,原本教学要求学生根据示例撰写有关贝加尔湖的说明文,而教师根据教学经验,将作业修改为参照样文的写作方法,游览学校附近的湖泊并撰写作文。这便是基于身体感知对周围世界的“上手”式教学,实现了身体感知与方法创变的统一。

未来教育必然是人机深度融合的教育。智能技术在教育中的应用要求教育者基于机器感知的认知新形态培养学生的技术交互能力、信息批判能力与创变能力。机器感知形态的普及意味着学生更多地通过数据信息中介,感知被技术化的世界。因此,在智能时代,首先应培养学生的技术交互能力。在教学实践中,应积极培养与引导学生利用它异关系的技术的互动、分析与创造功能,来替代重复性、机械性工作,如应用GPT等人工智能收集材料、统计分析数据等,以提升学习的效率。其次,应培养学生对机器提供的数据信息具有警惕的意识与筛选的能力,例如在与人工智能互动的过程中引导学生审视、分析与评判人工智能的创造结果,同时规避基于算法监测的评价方式与评价标准,摆脱算法逻辑对学生创造性思想的缧绁,以培养智能技术的主导者、创造者而非技术的附庸。最后,利用技术引导学生在不同的虚拟世界进行规则的重新发现与探索。从媒介发展的视角,现在乃至未来的学生都属于电子游戏世代。数字技术通过电子游戏等方式构建无数个在现实世界中被视为不可能的虚拟世界,玩家通过“宁芙化”身体,在多元的虚拟异托邦中感知和体验不同于肉身感知的经历,并不断探索、发现不同世界的规律与规则。这一看似玩乐的游戏化体验,实则为主体构建创变的极致性条件,可能实现具有开创性的新规则建立与新规律的发现。因此,教育可借鉴电子游戏对虚拟世界的构筑经验,通过数字技术为学生构筑无限的“可能世界”,在不同世界与无数的情境变式中发现、探索新规律,建立新规则,使学生具有充分的“创变能力”,从容面对未来具有不确定性与无限可能的新世界。

(四)以“善智”为目标构建教育中的人机互动

人工智能的价值目标应是“善智”,即“好”的人工智能,其落脚点应是为了全人类的福祉。技术乐观主义者对技术一直给予褒义的解释,认为技术在本质上是中性的,服务于善的目的便会产生善的后果。但现实却是,技术有多大能力服务于善,便有多大能力服务于恶的目的,产生恶的后果,这便是技术在后果层面的“善恶对价法则”。生物技术所进行的人体增强、基因干预可能使人性陷入一种不确定的危险之中,人工智能等技术的发展也可能造成数字鸿沟、算法偏见等价值问题。

在教育中应增添有关技术哲学的教学,促使学生对技术的“善用”。智能时代教育需增添一项新的重要工作,即关于技术文化观的教育,引导学生对技术的价值属性、功能意向进行批判性认识,将技术哲学方面的教学融入德育与智能技术的应用与教学当中,以塑造学生正确的技术价值观,做到对智能技术的“善用”。

教育管理部门、学校与教师需积极构建多层面的教育技术使用伦理规范,保证技术使用的透明与公正。首先,应保证技术使用时,算法输入与运行的透明。算法透明是众多国际人工智能政策条例中的重要原则之一。在教育领域,需要求技术供应商以明确与通俗的语言说明算法使用的目的、伦理标准、参数、采集信息的范围、运行规则等,保证对算法不当的追责与监督。其次,保障技术使用与算法编辑的公正公平等。教育管理部门需关注现已出现的技术格差与资本控制所造成的数字鸿沟与算法歧视问题,在事前以政策法规的方式建立详细的伦理规定与处罚机制,在事中建立有效的监督管理机制与风险评估机制,在事后对违反政策条例的教育伦理僭越、师生利益侵害行为进行追责与处罚,为技术划定伦理红线。最后,建立系统的技术辅助使用与监管平台。针对教育弱势群体、技术应用存在障碍的师生提供有针对性的技术应用指导与伦理监督,在促进智能算法高效使用的同时,维护教育伦理的正当性。


(本文参考文献略)


The “Humanization” of Machines and the “Mechanization” of Humans:

Subjectivity Crisis and Solutions in the Intelligent Era Education

SuHuili ZhangJingwei


Abstract: With the rapid development of intelligent technologies, especially generative artificial intelligence like GPT, the mutual shaping of humans and technology in the field of education continues to strengthen. On one hand, the swift iteration of technology prompts machines to increasingly become “humanized” and even participate as active agents in education. It not only redefines the relationship between “human-technology-world”, but also shifts the role of technology in education from a mere “teaching tool” to an “educational actor”, guiding and shaping students through the lens of a “technological gaze”. On the other hand, the deep integration of technology in education intensifies the “mechanization” of humans. This is manifested as follows. The educational subject embedded with technology transforms from a “natural person” to a “cyborg”, human cognitive forms shift from bodily perception to machine perception, and human subjectivity and value are delineated and regulated by intelligent technology. To resolve the subjectivity crisis brought about by the intelligent era, it is crucial to uphold the value orientation of education with the intention of “cultivating humans”, ensuring the alignment of technological intent with educational purpose, take a “negation” perspective as a singularity to scrutinize the distinction between human and machine in educational subjects, focusing on cultivating students’ reflective and critical abilities, make “innovation and adaptability” as the core to nurture students’ novel creativity, enabling them to develop transformative capabilities under embodied cognition and machine perception; and establish human-machine interaction in education with the goal of “ethical artificial intelligence”, allowing educational technology to be effectively regulated while being efficiently applied.

Key words: Intelligent Education; “Humanization” of Machines; “Mechanization” of Humans; Subjectivity; Generative Artificial Intelligence


初审:曹洪家

复审:孙振东

终审:蒋立松



版权所有 |教育学在线 京ICP备1234567号 在线人数1234人