当前位置: 首页 > 在线期刊 > 2025年 > 第12期目录(总第二百一十八期) > 正文

技术凝视下的童年:智能学习环境中伦理困境与儿童主体权益保护

作者:李青,王玉珍,王建坤
阅读数:1

来源:《中国远程教育》2025年第10期


要:随着人工智能技术在教育领域的深度融合,智能学习环境在带来个性化学习机遇的同时,也因其全方位的数据采集与算法分析形成了“技术凝视”现象,对儿童学习者的健康成长构成了潜在威胁。研究从技术伦理视角出发,通过文献梳理与案例分析,系统探讨了智能学习环境中技术凝视对儿童自主发展的多重挑战。研究发现,技术凝视可能导致儿童因过度依赖学习路径推荐而丧失自主选择能力,因过度数据化而抑制主体性发展,并带来算法偏见加剧教育不公、数据滥用引发隐私困境等问题。研究指出,保护儿童自主权益的核心在于:确立和维护其学习主体性与多元性,关注并呵护其情感需求,妥善保护其学习数据隐私。据此,本研究提出系统性的治理对策:其一,构建透明、可控的技术生态,以技术手段保障儿童隐私与数据安全;其二,重塑“以人为本”的人机协同教与学模式,强化教师专业能力与儿童人工智能素养;其三,创新治理范式,建立包含政府、学校、企业、家庭在内的多主体协同治理网络。本研究旨在为智能学习技术的伦理规范与健康发展提供理论参考,以守护数字时代、智能时代的童年。

关键词:技术凝视;智能学习环境;自由意志;主体性;情感需求;数据隐私


一、引言

近年来,大数据和人工智能技术的快速发展正加速推动全球进入智能化发展新阶段。对人工智能技术的投资不断增加,又促进了这类技术的商业化和在各个应用领域的普及。我国在人工智能领域的发展尤为迅速,政府高度重视人工智能技术的发展,将其上升为国家战略,在科研、应用推广和产业发展等方面出台了一系列政策,在教育领域也出台了一系列文件,如2025年1月,发布了《教育强国建设规划纲要(2024—2035年)》,明确要求“促进人工智能助力教育变革”。2025年4月,教育部等九部门联合印发了《关于加快推进教育数字化的意见》,提出“全面推进智能化,促进人工智能助力教育变革”。随着教育数字化转型的不断深入,智能学习环境已实现在教育场域的深度渗透与广泛应用。大数据、人工智能为教育带来新机遇的同时,也引发了社会各界对信息安全、伦理和隐私保护等问题的诸多担忧。通过智能设备和在线平台的使用,信息系统时刻收集并分析学习者的学习数据,包括正式和非正式学习过程中的数据,甚至还包括表情和语言、生理数据等,形成了对学习者个体的“全景式监视”。技术在提升教育针对性的同时,也暴露出教育实践中的一些悖论。在学校教育中强调“因材施教”,但是在实践中并未放弃用统一的标准去约束学生的成长,这种做法在智能技术的加持下变得更加显著。高清摄像头、手环、眼动仪、头戴设备,以及其他数据采集工具,通过设计好的规则与程序实现对学生的测量,使学生大多数的活动都受到监视,学生的隐私安全面临诸多挑战,也忽视了学生的主体性和情感需求。教育界也认识到以上问题,开展了广泛的讨论。2021年,联合国教科文组织发布了《人工智能与教育:政策制定者指南》,指出教育领域要保护儿童。经济合作与发展组织在2023年发布的《数字教育展望》报告显示,K—12学校已广泛部署学习分析系统,但未成年人的算法影响评估机制尚未完全建立,技术对教育的“监控”引发广泛争议。针对这一现象,本研究聚焦14周岁以下的儿童学习者,从技术伦理的角度深入剖析技术对童年的重塑以及儿童在智能学习环境中所面临的挑战与机遇。本文着重讨论以下研究问题:1)智能学习环境对儿童的主体性和自由意志发展带来了何种挑战?2)智能学习环境中,儿童的自由意志都有哪些保护需求?3)如何对智能学习环境进行治理?有哪些策略可以保护儿童的权益?基于此,本研究通过对相关学术文献的系统梳理和相关案例的调研,采用内容分析的方法,分析智能学习环境中技术凝视产生的原因和机制,探讨如何实现智能学习环境中的童年守护,以期为智能学习技术的发展提出建议,为后续研究奠定基础。

二、技术凝视与自由意志的冲突

(一)凝视与技术凝视

“凝视”最初是一个视觉概念,是指“长时间专注地看”。凝视在哲学中不仅是视觉行为,更是权力的体现,强调了主体与客体之间“看”与“被看”的辩证关系,提供了一种新的批判范式。凝视最早可追溯到古希腊时期的视觉中心主义,到了文艺复兴及启蒙运动时期,西方文化中形成了“视觉至上”主义,确立了“看”的中心地位,具有鲜明的政治性和意识形态色彩。到了20世纪,哲学和社会学研究对“凝视”概念的发展产生了重要影响。让-保罗·萨特(Sartre,J.-P.)对注视(Look)进行了深入的分析,揭示了他人的注视构成了自为的“为他存在”,使个体自我意识觉醒。莫里斯·梅洛-庞蒂(Merleau-Ponty,M.)则提出人本身就构成了可见者整体的一部分,世界场景中普遍存在着注视。雅克·拉康(Lacan,J.)在萨特的注视理论基础上,正式提出了凝视(Gaze)的概念。到了后结构主义时期,米歇尔·福柯(Foucault,M.)认为凝视永远是权力化的视觉模式,是一种背后由知识和权力运作的监视,并且凝视的权力无处不在,覆盖着整个社会。最近二十年来,凝视这个概念在各个领域被广泛使用。例如,旅游研究中的“游客的凝视”、女性主义研究中的“男性凝视”、种族主义批判的“白人凝视”、数据革命背景下的“数据凝视”,等等,都带有强烈的权力意志色彩和政治意识。在教育研究的理论视域下,“凝视”概念的解析可具体指向三个维度:1)个体在他人注视下主体意识觉醒,教育中要关注学生主体性;2)想象的凝视与自我理想形成相关,教育中要重视学生的自我认同;3)凝视存在权力关系,教育者要反思教育中权利与知识的运作。

(二)智能学习环境中的技术凝视

技术凝视的概念出现较早,强调通过技术手段对人类行为和思维过程的观察和分析;数据凝视则是在大数据时代发展起来的概念,强调通过数据分析来理解和预测人类行为,是技术凝视的扩展。本文研究和讨论的是智能学习环境中的“技术凝视”。智能技术广泛应用在教育中以后,凝视的现象被强化了。智能学习环境中,学习分析技术、自适应学习系统以及融入多模态的数据采集技术等的综合使用,极大地增强了数字化系统识别、了解和理解学习者的能力。然而不透明、不受限地使用这些技术容易引发社会焦虑。例如,2019年的“赋思头环事件”中,校方通过监测脑电波来追踪学生注意力,其目的是提升学习效果,但在实践中却引发了公众对儿童健康和隐私的担忧,造成了舆情,最后不得不停止使用。另一个被忽视的问题是,数据监控、算法推荐以及行为分析造成了学习者主体性被削弱的尴尬地位。人工智能算法给出的建议实际上是基于大数据(他人标准)来判断学习者,严重影响了学生的自我认同。此外,被技术背景所掩盖的隐私侵权、社会隔离、情感伤害等问题也可能造成严重社会危机。

(三)自由意志与隐私保护

聚焦儿童这一特殊的研究对象,他们的认知判断能力尚未完全发展,辨识能力较弱,且缺乏足够的隐私保护意识,在数字化教育环境中尤为脆弱。随着互联网的普及,儿童接触互联网的年龄不断降低。作为数字时代的原住民,他们比上代人更早、更深入地接触和应用智能技术,其认知与学习方式也呈现出显著差异。在众多领域中,教育是智能技术对儿童影响最为深刻的领域之一,儿童也比成年人更容易受到技术凝视的负面影响。萨特的自由选择与责任理论认为,人生而自由,选择也是自由的,个人必须对自己的行为完全负责。学会选择是人生的一项重要技能。儿童在学习过程中过度依赖智能技术,可能会丧失自主选择学习方向和探索知识的机会。在学习内容、方式和进度上缺少自主决策权将会造成思维模式的固化。同时,缺乏承担相应责任的锻炼机会,也会阻碍其主体性的发展和自我意识的形成。因此,在智能学习环境日渐普及的今天,必须正视技术凝视对儿童造成的深远影响,积极寻求解决方案,以保护儿童权益和促进其全面发展。基于上述分析,本研究构建了一个概念框架(如图1所示)(图1略)。首先,在概念层面,教育学中的凝视与智能环境中的凝视共同构成了智能学习环境中的技术凝视。其次,围绕儿童区别于成年人的特征展开研究,包括认知判断能力、隐私意识、认知方式以及数字原住民身份等维度。再次,以萨特的自由选择与责任理论和儿童过度依赖智能技术的现状,论证自由选择对儿童成长的长期影响。最后,综合以上三者,讨论技术凝视对儿童的主体性、情感需求与数据隐私三个方面的影响。

三、智能学习环境对儿童自主发展的多重挑战

(一)过度依赖学习路径推荐导致自主选择能力的缺失

智能学习系统基于预置算法,根据学习者的行为数据推荐学习路径与学习内容。当学习者进入某个智能学习环境中,系统会提供一条计算好的学习路径,学习者无须努力思考和选择“学什么”和“怎么学习”。这种方式使学习更加便捷,却也使学生失去了某种自主性。特别是在虚拟学习环境中,由于学习者较少地依赖现实世界,接触到的内容都是由计算机数字化的虚拟对象,容易产生“算法更了解自己”的认知偏差,认为智能系统提供的就是最优方案。然而,根据学习者画像、学习偏好等数据生成的学习路径,可能造成“信息茧房”,限制了学习者接触算法给定范围以外的知识内容。学习活动不仅包含认知活动,还有元认知活动,即对自身认知过程的认知和调节,比如计划、监控和评价自己的学习过程。在智能学习环境中,学生的自我诊断与学习策略调整很大程度上被机器取代,降低了自己监控与调节的需求。这种改变对于成年人来说或许是一种便利,对儿童来说,却剥夺了其原本就稀缺的思维训练机会。儿童正处于大脑发育的关键期,过度使用智能技术对发展儿童的高阶认知技能和创造力不利。完全依靠智能技术推送学习资源与规划路径,可能导致儿童产生“智能依赖”,丧失学习的主动性与好奇心,被困在算法给出的学习“舒适区”。智能化的数据处理与资源供给使学习简单化和机械化,可能导致儿童惰于思考,逐渐丧失自主学习和适应能力。在技术主导的学习中,儿童的自主活动和自我发展空间被压缩,学习变成了技术监控和引导下的外部任务。原本用于辅助学习的技术,在学习过程中取得了某种支配地位,反过来制约了学生发展。长此以往,儿童不再出于内在的好奇心学习,转而为满足技术设定的标准和目标学习,其主体性也随之消退。

(二)过度数据化将抑制儿童主体性的发展

社会对将智能技术融入学习环境寄予厚望,期待通过技术创新突破教育的规模化和程序化困境。然而,智能技术并不总是促进学生的个性化发展。有学者甚至担忧人类被算法奴役,沦为“单向度”的人,丧失否定性、创造性和批判精神,最终危及人类文明的发展和进步。与具有独立自我概念和学习自主性的成人不同,儿童在学习过程中更加依赖教师、家长对其的评价。因此,在技术凝视下他们可能不再关注学习本身,而是关注如何通过机器获得好成绩。更为严重的是,一些儿童为了获得较好的成绩,通过反复刷题以破解题库,或是主动愚弄算法获得高分,其真实水平并未得到提高。在全方位的学习记录下,儿童毫无隐私可言。面对教师和家长的监视,甚至会产生紧张、焦虑以及羞耻的“冷恐慌”情绪。在欲望与压力的双重作用下,儿童会将自己塑造成为“我自以为的样子”或“别人期望的样子”。一旦发现自己的知识储备、学习能力与自身理想或他人期望无法匹配时,就会陷入强烈的自我怀疑。

过度强调智能技术在学习中的应用,会使儿童不自觉且无意识地将自己数据化,以“量化”的形式评估自己的学习与生活,自身存在的意义被解构成为数据和符号。儿童对自我学习状态的评估,实际上已经成为一种被动的“自我凝视”。借用唐娜·哈拉维(Haraway,D.)的赛博格理论,智能学习环境中的儿童已经成为人机混合的“赛博格”。从赛博格视角审视儿童学习与技术的嵌合关系,可以发现儿童的学习能力与掌握情况被精细拆解,学习过程被尽可能详细地量化。在儿童赛博格身份下,其身体逐渐技术化,浑然不觉自身处于算法控制的环境中,产生“主动性”的主体性错觉。教育应致力于培养全面发展的人,这一过程本应是多元的,但是当前大多数智能教育实践仍然将人往同一个标准去培养。人的主体性遭受威胁,最终可能会导致主体的自我瓦解。

(三)技术权力失衡加剧教育中的不公平

在当前的智能学习环境中,机器学习和算法推荐仍然是一个不能回避的问题:表面中立的智能技术背后往往隐藏着偏见与歧视。虽然算法本身不具有价值观,但是其内嵌了人类的价值观,体现了实际控制者的权力和权威,因而造成算法歧视。由于算法的隐蔽性,学生往往无法觉察自己遭受歧视,在持续性接受系统“惩罚”时还会产生更多带有偏见的数据,形成恶性循环。当存在巨大利益时,资本可能会主动助推这种不公平的现象。例如,社交媒体制造的教育焦虑、推崇“唯科学主义”。在商业资本控制之下,技术价值逐渐凌驾于人文价值,利用儿童、家长的挫败与担忧来获得利益,开发和推广智能学习技术并不是以促进学生全面发展为目的,而是为了攫取利润。同时,技术平台在追求利益最大化时,人可能被物化为获取数据和流量的工具,沦为“数字佃农”,成为平台增值的源泉。例如,大量普通用户仅能得到基础服务,而他们的数据却被用作支撑付费用户享受增值服务的资料来源。同时,流量为平台带来更多的关注,转化为更多的商业价值。另外,智能学习环境的发展依赖于高新技术平台。企业、地区乃至国家间的数据藩篱与技术垄断难以打破,“数字鸿沟”还有加剧的趋势。

(四)智能技术普及造成隐私困境与人文冲突

智能学习环境的高效运转依赖于海量的数据,不仅包括学生的学习数据,还包括指纹、面容和虹膜等生物数据,以及姿势、眼动和位置等行为数据。更先进的技术还可以从人类难以察觉的线索中获取情绪信息。这些数据助力平台根据学生的学习能力和学习习惯提供个性化的学习资源和教学支持,但是也造成了所有权和支配权的不对等。学生被动成为海量数据的提供者,却不能掌控自己的隐私数据。前文提到的“赋思头环事件”就是由于对用户信息不透明,导致了负面舆论的发酵。尽管产品的提供商澄清产品仅能被动读取脑电信号,不会产生副作用,使用中产生的数据也严格遵循欧盟颁布的《通用数据保护条例》(General Data Protection Regulation)相关规定保护用户的数据隐私,但公众仍存在疑虑。在传统信息社会中,隐私条例可以作为确保用户自主决定隐私处理的有效规章。然而对数据高度依赖的智能技术与隐私保护需求之间存在着一定的矛盾。在实际应用过程中,一旦用户选择不同意平台运营方的数据隐私政策时,就会面临无法使用相关技术服务的后果。这种现象在一定程度上体现了技术提供者对学习者潜在权利的控制,架空用户的选择权。相较于成年人,儿童通常对数据隐私的概念和重要性缺乏足够的认识,不具有个人信息的敏感性,不能认识到分享这些信息将带来的风险。此外,儿童相比于成人更容易受到操纵与诱导,可能会因为未预料行为后果而在无意中泄露自己的个人信息或同意侵犯隐私的行为。由于教育环境的特殊性,儿童往往是被动参与数据收集且没有能力拒绝。由各种学习与行为数据组成的数字档案除了面临隐私保护问题以外,还存在着人文关怀上的冲突。被记录和追踪的学习数据可能会对他们的学习和职业生涯产生长远的影响。数字技术“过于完善的记忆”,会使社会丧失遗忘的能力。对于一些有不良行为记录的学生而言,他们需要从过去的经历中反思自我,也理应有被宽容的资格。智能学习环境要求详尽且持久地留存数据,客观上构成对教育宽容空间的挤压。

四、儿童自主权益保护的核心诉求

无论在何种学习环境中,教育的核心始终都是“人”。开展教育活动是要使人更好地成为一个人,而“人”是拥有自由意志的。自由意志作为个体自主选择和决策的能力,是成长过程中不可或缺的部分。因此,须厘清在智能学习环境中儿童作为学习者的自由意志具体是什么,以及如何被理解和保护。

(一)学习者的主体性和多元性需要确立和维护

智能技术背后的数据分析依据由设计者决定,使得设计者对学习者主体性的理解成为数据选择的关键因素。然而,这可能导致学习者的主体性被忽视或误解。有学者提出,当下教育技术发展存在“技术思维的僭越、人性发展的圈囿”现象。在智能学习环境中,必须明确智能技术是为人服务的,不能陷入弗里德里希·威廉·尼采(Nietzsche,F.W.)所说的“手段—目的”永续循环,从而混淆了手段与目的。资本将权力控制置于人的价值之上,限制了人作为物质世界主体所拥有的独立和自主权利,这在法治语境中是不正当的。在智能学习环境下,学习者的个性化特征被简化为不同的数据标签。复杂的思维、情感、创造力等主体特质被简化为一组组数据,每个学习者被限定在所谓的个性化学习框架内,无法真正展现自己独特的主体性,难以突破数据和算法所框定的范围去实现自我。久而久之,儿童可能会表现出思考浅层性、认知有限性、技术依赖性,以及选择有限性等问题,均为技术对学习者主体性造成的冲击。学习者的主体性是教育过程中不可或缺的核心要素,不仅促进了学习者认知、情感和社会技能的全面发展,更能培养其独立思考能力,为创新思维和批判精神的形成奠定基础。主体性缺失会使学习者变得被动,失去主动探索和学习的动力,习惯于接受而不是质疑。此外,尊重学习者的主体性还有助于确保每个学习者的独特性和多样性得到认可,避免同质化现象。因此,在应用智能学习技术时,应当充分尊重儿童的能力差异和兴趣偏好,避免“唯数据论”和“一刀切”,完全依赖于算法给出的结果。

(二)儿童的情感需求需要关注和呵护

儿童在学习过程中既会产生焦虑等负面情感体验,又表现出多维度的情感需求。这种情感需求在非面对面教育场景(如远程教育)中尤为显著,其技术中介特性客观上加剧了情感交互的缺失。教育不应仅限于知识的传授,还包括情感的发展和人际关系的建立。学习者需要获得来自教师的肯定以及同伴的尊重,学习过程中形成积极的情感也有助于建立轻松愉悦的学习氛围,从而使学习更具吸引力。积极的情感体验在儿童成长中扮演着至关重要的角色,有助于儿童的健康成长。智能学习环境固然能够提供个性化的服务,却也弱化了儿童的情感体验。当前的教育技术侧重于知识传递和技能培养,依赖技术手段评估教学。尽管现代情感计算技术已经能够通过外在表现识别分析人类情感,但技术本身无法真正理解和回应儿童的情感。情感计算技术通常依赖于预设的模式和算法,很难直接感知理解人的内心世界。此外,儿童的健康成长需要真实的人际情感连接,过度使用智能技术会减少儿童与自然和他人的接触机会,削弱其情感感知与表达能力。因此,为了消解技术凝视在教育过程中对儿童的情感体验产生的负面影响,我们应当有意识地培养儿童的情感能力,平衡技术使用和儿童情感需求矛盾,通过建立深厚的情感连接和提供及时的心理支持促进儿童全面健康成长。

(三)学习数据中的隐私信息需要妥善保护

在智能学习时代,学习数据已成为教育领域的宝贵资产之一。学习数据中包含了大量的隐私信息,比如学生的个人身份信息、行为数据以及地理位置信息等。智能学习技术的发展依赖于大数据的支持,而这些数据需要从大量人群获取。这一过程中,若个人、学校、教育行政部门以及相关技术企业的数据安全和隐私保护工作不到位,将会造成数据泄露和不正当使用的风险。对于学生而言,隐私泄露风险会给其带来焦虑、不安等情绪,进而影响学习状态与心理健康,还可能会对智能学习工具和技术产生抵触情绪。除此之外,学生的隐私被不正当使用,可能会使他们在教育资源分配、评价等方面受到不公平对待,从而影响其未来发展。对于社会而言,大规模的学习数据隐私泄露事件可能会引发社会对于教育技术提供商的信任危机,影响智能学习技术的推广和应用。学习数据中的隐私不容侵犯是保障学生权益、维护教育公平和促进智能学习技术健康发展的重要前提。这一目标的实现需要各参与主体共同努力,采取有效的措施保护数据隐私,为学生营造一个安全、可靠的学习环境。

五、智能学习环境的系统性治理

(一)构建透明与可控的技术生态

1.加强智慧教育平台中的儿童隐私保护智能学习环境中的“技术凝视”对儿童的潜在危害已成为一个不容忽视的问题。构建透明且可控的技术生态是首要任务。这包括确保技术应用和数据处理过程的公开透明以及算法的可解释性,使儿童及其监护人和其他利益相关方能够了解其数据如何被收集和使用,从而实现有效的监督。强化隐私保护技术在这个技术体系中至关重要,目前流行的做法是采用差分隐私和同态加密等技术对儿童的个人信息进行匿名化处理,以避免直接暴露敏感数据。此外,开发用户友好的隐私设置界面,允许儿童及其监护人自定义数据共享范围和使用权限,也是保护儿童隐私的关键步骤。为进一步降低数据风险,应实施数据最小化原则,仅收集和处理与学习直接相关的数据,避免过度收集个人信息。在不集中原始数据的情况下,通过分布式模型训练提升隐私保护水平。例如,多所学校联合训练个性化学习推荐模型,但各自保留学生数据。建立安全的数据存储和传输机制,采用加密技术保护数据在存储和传输过程中的安全,防止数据泄露和滥用也同样重要。这些措施共同作用,旨在从根本上减少儿童数据暴露的风险。

2.以技术手段应对隐私保护和伦理问题从技术层面上应对,是确保技术应用公平性的有效途径。联合国儿童基金会的《儿童友好型人工智能原则2.0》建议使用隐私设计(privacy-by-design)技术,呼吁政府和企业在人工智能政策中明确儿童隐私问题,并在人工智能系统的设计和实施中加以应用。对于AI伦理,在算法设计时就应嵌入公平性考量,并使用如What-If工具和AIFairness360等偏见监测工具来减少算法歧视,并且定期开展伦理评估,确保技术应用符合伦理标准。供应商须公开算法影响评估报告,详细说明训练数据的人口统计学分布(如城乡比例偏差控制在±5%以内)。针对历史数据偏见问题,采用对抗性去偏技术重构特征空间,通过生成式对抗网络合成均衡样本。最终通过技术审计、伦理审查与持续优化的三角验证机制,构建符合教育公平价值追求的技术生态。通过上述技术手段的综合应用,可以更有效地解决智能学习环境中“技术凝视”对儿童的危害,建立一个更加安全、透明和以人为本的学习环境。

(二)重塑人机协同下“以人为本”的教和学

1.强化和发展教师专业能力智能技术的广泛应用并未削弱教师的核心地位,反而对其专业能力提出了更高要求。教师要避免将教学工作简单“外包”给人工智能,而是要从技术工具的被动使用者转变为“人本主导”的决策者,在人机协同的教学中嵌入专业判断。例如,在自适应学习系统中,教师应主动评估算法的有效性,适时给予干预,尽可能消解人工智能的不良影响。这对教师的技术素养提出了较高要求,可在教师专业发展活动中通过案例研讨、工作坊等形式强化其对技术后果的预判能力。此外,教育机构应建立“技术—教师”协同决策机制,赋予教师对智能工具的选择权与禁用权,防止技术权力对教学自主性的侵蚀。

2.注重培养儿童的人工智能素养和主体性为了应对技术凝视,必须着重培养儿童的人工智能素养,特别是帮助他们认识智能学习环境存在的不足和风险,形成对智能系统的批判性认知。因此,课程设计中需融入“技术解构”模块。例如,通过可视化工具向儿童展示算法推荐机制,揭示其数据依赖性与局限性。同时,应设计“无技术日”等实践场景,鼓励儿童通过传统探究式学习(如实验、辩论)修复自主决策能力。杨清指出,主体性培养需以真实问题为导向,例如,在编程课程中引导儿童自主设计解决方案,而非被动接受预设代码模板。此外,教育者需警惕技术对儿童创造力的压制,通过开放式任务(如跨学科项目)打破算法设定的“学习舒适区”,激发其创新潜能。

3.通过家校沟通缓解恐慌和焦虑针对智能学习环境的情感缺位可能加剧儿童孤独感与焦虑情绪的问题,亟须构建家校联动的支持体系。学校可通过智能平台增设“情感状态监测”模块,结合教师观察与算法分析识别儿童心理状态,并及时推送预警信息至家长端。家长则需参与制定“技术使用公约”,例如,限制监控类工具的使用时长,并为儿童保留线下社交与休闲空间。研究显示,家校定期沟通能有效缓解技术监控引发的“冷恐慌”现象。此外,学校应引入心理咨询师介入智能教育场景,针对技术依赖导致的自我认同危机提供干预方案。例如,通过团体辅导帮助儿童区分“算法评价”与“真实自我价值”。唯有将技术效率与人文关怀深度融合,方能实现儿童情感需求的全面满足。

(三)推进智能学习环境治理范式的创新

1.构建伦理驱动的“五维”治理体系智能学习环境的治理应以伦理框架为根基,合规性是技术研发中应遵循的最基本底线。参考计算机和信息伦理学的“PAPA道德准则”和智能教育伦理“APETHICS”模型,可以构建一个包含合法、安全、公平、透明和责任五个维度的治理体系。在“合法”维度,智能教育环境应遵循《中华人民共和国网络安全法》等相关法律法规,确保平台的网络安全和信息安全,保护学生、教师用户的个人信息安全,防止数据泄露和滥用,落实《国家智慧教育平台数字教育资源内容审核规范》等政策文件,确保教育资源内容的合规性,对教育资源进行审核和管理。在“安全”维度,需要采取必要的技术和管理措施,保护技术使用者的信息安全,防止数据泄露和网络攻击;同时技术使用应符合伦理标准,避免对学生产生负面影响。“公平”维度旨在确保所有学生都能公平地访问和受益于智能学习技术,避免因技术应用加剧教育不平等。“透明”维度要求所有技术的使用和数据处理过程公开透明,用户能够了解其数据如何被收集和使用,便于监督和评估。这些数据的全过程共享,能够使得教育研究范式迎来从抽样到全样本的转型,实现教育实践的创新。在“责任”维度,应明确教育部门、学校、教师和供应商在技术使用中的责任,确保各方都能正常履职。

2.建立多主体协同的生态化治理网络治理效能的提升有赖于包括教育部门、教育机构、开发者、家长和儿童以及社会组织在内的相关方广泛参与。教育部门作为主导方应制定相关的政策和法规,以确保智能技术应用符合教育目标。同时,还应建立准入机制和监督机制,并定期评估智能学习技术的使用成效,确保智能教育环境充分发挥其正向价值。教育机构需要谨慎选择智能教育技术,定期组织教师培训,提升其数字素养,在教学过程中合理运用技术,而非被技术所主导。特别要强化技术伦理在教师数字素养培训中的比重,强化教师的责任意识,深化对技术应用行为与后果关系的认识。开发者不仅要确保其产品和服务符合教育伦理与隐私保护标准,还需做到公开和透明。对于算法决策过程和技术使用过程中的行为数据,需要有完备的记录保存方案,以便为后续问责提供依据。鼓励师生代表积极参与到产品研发中,深化技术人员与教育者和受教育者的沟通交流。同时,建立智能产品运营方与学习者间的双向反馈通道,收集学习者反馈,优化算法模型和服务流程。家长需要参与到儿童使用智能平台学习的过程中,尤其作为监护人需要监督技术的使用情况,提出评价和反馈。儿童需要具备基本的数字素养,了解如何保护自己的隐私和数据安全,客观认识到人工智能的优势和局限性,逐步建立正确的人机协同关系。社会组织(如行业协会、公益组织)等可通过构建倡导机制引导智能教育技术的规范使用,监督技术开发者与教育机构的行为,同时提供额外的资源和支持。

六、结语

智能学习环境的发展为教育领域带来了革命性的变化,不仅推动了智能时代的教育创新,也对儿童内在的学习主体性和外部的学习环境产生了巨大的影响。本研究从“凝视”这一哲学概念出发,探讨了智能学习环境中的技术凝视现象,揭示了其对儿童自由意志和自主性的潜在威胁:持续的数据收集与分析侵犯儿童的隐私;削弱儿童的主体性,使其在高度依赖技术的学习环境中逐渐失去独立思考的能力;忽视儿童的情感需求,难以提供情感交流与心理支持,影响儿童的全面发展。基于以上分析,提出了构建治理框架、提升技术使用合规性,以及强化师生人工智能素养等方面的建议和对策,以期为智能学习环境的健康发展提供指导。本研究仍存在一些局限:其一,研究对象聚焦为儿童,未考虑更加广泛的年龄群体;其二,未采用量化研究的方法开展实证研究;其三,对技术权力与教育主权的辩证关系探讨不够深入。未来拟从以下方面继续深化研究:采用量化研究的方法,纵向追踪智能技术对儿童认知发展的影响;开展跨文化比较研究,揭示不同教育体制下技术凝视的作用差异。


(本文参考文献略)


Childhood Under the Technological Gaze: Ethical Dilemmas and Guardianship of Children’s Subjective Rights in Intelligent Learning Environments

LiQing WangYuzhen WangJiankun


Abstract: With the deep integration of artificial intelligence into education sector, intelligent learning environments, while offering personalized learning opportunities, have also given rise to the phenomenon as “technological gaze” through comprehensive data collection and algorithmic analysis, posing potential threats to the healthy development of child learners. From a techno-ethical perspective, this study systematically explores the multifaceted challenges posed by the technological gaze to children’s autonomous development in intelligent learning environments, using methods of literature review and case study. The findings indicate that the technological gaze may lead to a loss of autonomy in children due to overreliance on learning path recommendations, suppress the development of their subjectivity through excessive datafication, and exacerbate issues such as algorithmic bias exacerbating educational inequality and privacy dilemmas by data misuse. This study argues that protecting children’s autonomous rights hinges on establishing and maintaining their learning subjectivity and diversity, addressing and nurturing their emotional needs, and safeguarding their learning data privacy. Accordingly, this study proposes systematic governance strategies: first, constructing a transparent and controllable technological ecosystem that technically ensures children’s privacy and data security; second, reshaping the “human-centered” model of human-computer collaborative in teaching and learning by enhancing teachers’ professional capabilities and children’s AI literacy; and third, innovating governance paradigms by establishing a multi-stakeholder collaborative governance network involving government, schools, businesses, and families. This study aims to provide a theoretical reference for the ethical norms and healthy development of intelligent learning technologies, thereby safeguarding childhood in the digital and intelligent era.

Key words: technological gaze; intelligent learning environments; free will; subjectivity; emotional needs; data privacy


初审:胡天扬

复审:孙振东

终审:蒋立松

版权所有 |教育学在线 京ICP备1234567号 在线人数1234人