当前位置: 首页 > 在线期刊 > 2025年 > 第5期目录(总第二百一十一期 > 正文

智能教研的本质、误区与回归

作者:王丽华,时一帆,卢国成
阅读数:7

来源:《现代远程教育研究》2025年第2期


要:智能教研是人工智能热潮下的政策导向与实践热点,然而,当前普遍存在对智能教研本质的认识不清,由此导致对其的盲目追捧及实践误区频现。基于对人工智能本质和教研本质的双重考察,智能教研在本质上是一种以可信模型采集的教研数据为基础,通过“人—机—人”协同教研决策,实现“三性”(即科学性、技术性和经验性)优化的循证实践。据此审视智能教研的典型误区主要体现在囿于可疑模型的教研数据、高估数据效用的教研决策、陷入单性异化的教研循证实践三个方面。为走出现有误区,未来智能教研亟须通过三大途径实现理性回归:一是联合研发保障智能教研数据质量的可信基础模型;二是借鉴相关领域的已有研究,合力探索智能教研“人—机—人”协同决策的实践新课题;三是内外联动推进科学性证据库的建设,正视经验性证据的合理价值,持续优化智能教研的循证实践。

关键词:智能教研;可信模型;“人—机—人”协同决策;循证实践


智能教研既是新生事物,又是人工智能热潮下的政策关切与实践热点。在《新一代人工智能发展规划》《教育部关于加强和改进新时代基础教育教研工作的意见》等政策指引下,教育部教育技术与资源发展中心(中央电化教育馆)组织研发了中央电化教育馆智能研修平台,并于2020年在全国范围内组织遴选了81个试点工作区和165所试点工作学校,以探索智能教研。与此同时,醍摩豆智慧教育、科大讯飞、希沃、翼课网与鲲翼教师学苑等先后开发了智能教研平台,这些平台的教师用户量超过20万。与平台研发热遥相呼应的是,全国各地纷纷举办各类智能教研展示活动和论坛。从智能教研热的实践来看,关于智能教研大致有如下两种认识:一是智能教研就是利用智能教研平台采集课堂教学数据,生成报告并为教师提供决策和建议的过程。持此类观点的以各大公司居多,他们往往宣传智能教研能节省教研时间、提高教研效率、切实为教师减负。二是智能教研就是利用智能教研平台进行备课、观课、评课并生成教研数据的过程。持此类观点的以一线教师居多。在智能教研火热的背后,我们亟待理性剖析智能教研的本质是什么,并据此澄清当前实践中的误区,以为智能教研的未来发展提供指引。诚如有学者所指出的:“考察人工智能教育应用本质既是人工智能教育应用基本理论研究的重要内容,也是推动其实践必须廓清的认识问题。”

一、智能教研的本质剖析

本质是指“事物的根本属性,它对事物的性质、面貌和发展起决定作用”。目前各大平台宣称其提供的智能教研涵盖个人备课、集体备课、观议评课、集体教研等,但这只是功能,而非本质。智能教研的本质可以从人工智能的本质及教研的本质考察得出。联合国教科文组织国际人工智能研究中心主任韦恩·霍姆斯(Wayne Holmes)等学者提出:“人工智能本质上应同时考虑其技术维度和人的维度”。对于智能教研而言,技术维度的核心在于基础模型及其规则设定,即数据采集模型能通过智能教研平台形成教研数据与相关实践的关联,并提出教学决策建议;人的维度应着重考虑智能教研应用过程中人的价值的彰显。近年来,伴随教师教育研究逐步向循证转向,教研亦开始向循证转向。教师教育研究循证强调的核心要义是,教师教育应超越经验范式,向基于证据解决教师教育问题的循证实践及其科学范式转向。还有学者认为证据等同于循证,提出教研应向基于证据转向或者向循证教研转型,亦有学者提出循证课例研究是智能教研实施的重要方式之一。然而,怎样的教研数据可以作为证据?如何作出教研决策?教研到底应向怎样的循证转向?对于这些本质性的问题至今尚缺少系统研究。基于上述分析,本研究认为智能教研的本质是一种以可信模型采集的教研数据为基础,通过“人—机—人”协同教研决策,以实现“三性”优化的循证实践。

(一)以基于可信模型的教研数据为基础

教研数据可信,才可能为作为循证实践的智能教研提供有效证据。关于智能教研数据,已有研究主要关注两个方面:一是数据的类型,如有研究提出教师画像由五大类教研数据构成;二是数据的用途,如教研数据可为教师提供决策建议和量化评估教研效果的依据。当前研究极少关注教研数据是否可信,尤其是生成智能教研数据的模型是否可信的问题。

近年来,因人工智能快速发展引发了诸多信任危机,因此“发展可信人工智能正在成为全球共识”。与此同时,可信人工智能领域的论文发表量、专利申请量均在快速增长,各国政府、国际标准化组织和行业组织也在积极推动建设可信人工智能的相关原则和标准。此外,鉴于人工智能技术本身的“黑箱模型”问题,亦有研究者提出“大模型如何更可信”的呼吁。值得一提的是,已有研究机构梳理了全球范围内已发布的84份政策文件,总结出可信人工智能应包括“可靠可控、透明可释、数据保护、明确责任、多元包容”五项特征要素。其中与模型相关的特征主要是“可靠可控”和“透明可释”。教研数据是否可信的关键在于模型是否可信。关于可信基础模型中的“可信”探讨,已有研究更多强调技术视野下的信任,即个体对信息技术的功能性、可靠性和有用性的信任信念。

综上分析,结合智能教研的实际需要,为确保智能教研数据可信,可信模型应指向对采集智能教研数据的智能教研平台模型可信度的判断,主要包括三个衡量指标:一是教研数据采集模型设定的依据及其诠释;二是模型训练数据的质量与数量;三是智能教研平台实际采集并展示数据的准确性与可靠性等。特别需要指出的是,如果训练数据的质量差,即便模型及其功能再完美,也无法输出可信的教研数据。

(二)走向“人—机—人”协同的教研决策

在智能时代,因人机协同情境的普遍存在而催生出了新的决策范式,智能教研决策也不例外。有研究指出:“学校应主动利用人工智能等新技术……实现教研的精准管理和决策”。这里所指的智能教研决策主要是利用人工智能技术进行决策,或者说是一种人工智能算法决策。诚如英国科学院院士斯蒂芬·鲍尔(Stephen Ball)所言,“教师作为课堂决策的最基本单位,正在被基于大数据收集和分析、算法设计的适应性学习系统所取代。”

智能教研不仅是一种人工智能算法决策,它还是一种人机协同决策。此处所指的“人”主要指智能教研平台的研发者,据此智能教研决策实际上也是一种研发者和人工智能算法协同决策的过程。因此,从某种意义上说,教研过程中的教师决策极有可能被研发者协同人工智能算法决策所控制,教师职业也极有可能失去其赖以生存的自主自决。诚如有学者所指出的:“未来当整个社会系统都被数字化以后,掌握数据的人更有可能利用数据对人进行控制。”总之,不论是人工智能算法决策,还是研发者协同人工智能算法决策,其基本逻辑是,依据智能教研数据,机器助力教师或学校作出科学精准的教研决策。其隐含的基本前提是算法必须可信。尽管已有证据表明,基于算法决策的智能教研决策的确有助于改进教研实践,但其背后的“算法模型”至今仍然不够透明。

从教师作为“人”师的独特性(如具有很强的个体性、情境性、语境性)出发,智能教研亟待走向“人—机—人”协同决策。亦有学者指出,智能时代的人—机关系从来都是“人—机—人”三者之间的关系;人工智能的社会意义也不是机器与人的关系,而是人与人的关系,即掌控人工智能的一个或一群人与不掌控人工智能的大多数人之间的关系。笔者认为,“人—机—人”协同决策中的两“人”应分别指涉智能教研平台(或终端)的研发者和使用者(主要是教师),如此“人—机—人”协同决策就是研发者、算法、教师多方力量交互合作并共同作出教研决策的过程,其本质是一种“科学决策—算法决策—经验决策”的协同过程。在智能教研过程中,教师决策具有不可替代的独特作用,它“在很大程度上依赖于理性思维和创造性思维的结合,强调经验的作用,……能够快速地对不同情况进行分类并做出有效的决定”。此外,教师决策很多情况下还依赖具体的情境或语境,甚至有时是基于情境或语境通过直觉作出决策。这些都是远离学校情境和教研语境的技术研发者尚不具有的认知能力。因此,智能教研平台在研发之前,就要充分考虑教师协同决策的技术实现路径,包括科学决策、算法及模型优化等的反馈路径,教师观察数据的输入路径,教师决策的贡献路径等。

(三)指向探索“三性”优化的教研循证实践

循证实践(Evidence-Based Practice)的字面意义为“以证据为基础的实践”,引申为“遵循证据进行实践”,肇始于循证医学。医学循证实践遵循“最佳证据”。最佳证据是指研究者提供的与解决所需问题最为契合的、级别最高的研究证据,其往往是基于同类问题大量研究的元分析,遵循严格的科学规范,其目的是尽可能地接近事实的真相,揭示出问题的症结并提出相应的解决方案。由此可知,科学性是医学循证实践证据的主要特性。在医学循证实践中,唯有基于最佳证据形成最佳的解决方案,才能让不同的实践者在面对相同的问题时做出大致相同的实践决策。

与循证医学类似,智能教研的证据也应具有科学性(特指教育学意义上的科学性,而非医学意义上的科学性)。但与循证医学不同,智能教研是教师在具体学校情境中开展的,教研过程具有高度语境性,而现代的人工智能“通常不擅长理解语境依赖性高的句子”。比如,当老师提出问题后引导学生思考或讨论,几分钟后再问学生:“谁能回答刚才那个问题吗?”在此例中,人工智能若无法找到与之前提问的对应关系,它就无法理解“那个问题”是什么,因而也无法提供具有关联意义的有效证据,只能记录下师生话语。而现场参与教研活动的教师则可以毫不费力地将“那个问题”与前面的提问建立关联,表现出人所特有的经验性理解能力,这意味着智能教研的证据应具有经验性。此外,智能教研本身所依托的包括人脸识别、语音识别、肢体识别、OCR识别、自然语言处理、机器学习等技术优势,生成的教研数据也是基于可信模型的,因而其证据也应具有技术性。

综上分析,就其本质而言,作为循证实践的智能教研的证据应具有科学性、技术性和经验性,这就是智能教研循证实践应具有的“三性”。与此相应,这三种性质的证据可以分别称作科学性证据、技术性证据和经验性证据。在循证医学中,科学性证据主要指“从事应用研究(或实践相关的基础研究)的研究者为实践所提供的研究证据”,但该界定并未明确何谓证据。借鉴“证据”一词是指“用以证明事物真伪的凭据”的字面含义,笔者将智能教研中三类证据界定为:科学性证据是指从事教育教学应用研究(或实践相关的基础研究)的研究者为教研实践提供的凭据;技术性证据是指基于可信模型为教研实践提供的凭据;经验性证据是指教师基于教研情境或语境为教研实践提供的凭据。借鉴“优化”一词的字面含义是指“经过改革或选择使其变得优良”,笔者将三性优化的教研循证实践界定为智能教研应基于学校教研需求、教师发展需要、学生成长需要,以集体审议的方式评估科学性、技术性和经验性证据,选择优良证据组合作为凭据,作出符合学生成长需要和教师发展需求的教学改进决策的行动总称。早在2008年,学者孟华在追溯王国维提出的著名的“二重证据法”基础上,系统梳理并提出了包括语言(口语)、文字(书写)和图像三类符号证据综合运用的“三重证据法”,并认为三重证据法起作用的关键在于证据间性。所谓证据间性是指一种证据符号的意义和价值不仅与原点事实有关,同时也与其他证据符号发生关联和交互作用。受此启发,笔者提出“三性”优化的教研循证实践,并认为智能教研的证据是否有效,关键在于上述三类证据间的互动及其优化。

二、智能教研的现实误区

(一)囿于可疑模型的教研数据

不可否认,依托模型和技术的智能教研平台的确在一定程度上实现了对量化类智能教研数据的精准描述,如教师行为轨迹、师生特定教学或学习行为等,但精确描述的前提是教研数据可信。由于教研数据采集模型的不可信,导致当前智能教研数据总体而言是可疑的。

一是教研数据采集模型设定的依据及其诠释问题突出。主要归纳为三类:(1)基本无依据但有诠释。多数智能教研平台都会基于采集的数据提供S-T曲线图、Rt-Ch图,前者统计师生互动情况,后者统计某节课中采用的教学模式,但并未给出数据采集模型的依据且其诠释难以令人信服。比如,有平台对S-T曲线图的诠释是“横轴方向代表老师在讲话,纵轴方向代表学生在讲话;当曲线偏向横轴时,表示老师活动占多数;偏向纵轴时,表示学生活动占多数;当某段曲线整体平行于45度线时,表示在此段时间内师生互动充分”。难道师生互动就是师生说话吗?显然,任何一位研究师生互动的学者都会极力反对。(2)依据和诠释都未经考证。比如,不少智能教研平台都用统计图和时序图来呈现学生主动学习和被动学习的情况,其依据是“学习金字塔理论”,其诠释采用了百分比图。然而,学习金字塔理论通常被认为来源于美国缅因州的国家训练实验室,该理论是否可以作为区分学生主动学习与被动学习的依据,目前还未有与之相关的研究报告或论文。这种未经考证的依据和诠释显然容易给人以误导。(3)依据和诠释高度雷同。比如,多数智能教研平台都有对教师提问类型的统计,其依据一般都是布卢姆教学目标分类理论关于认知领域的分类,其诠释也大致参考布卢姆的理论。然而,每所学校都有自己的特色,雷同的数据采集模型显然无法满足学校教研特色化发展的需求。

二是教研数据采集模型的训练数据不透明。主要表现为:(1)来源不明确,无法判断训练数据的质量;(2)数量不透明,无法判断训练结果能否平衡例外和反常情况;(3)处理过程不透明,包括数据的预处理、清洗和标注等都缺乏必要的透明度。这既会严重影响模型的性能,又难以评估数据质量和处理的合理性。而且多数智能教研平台也未公开是否运用差错训练模型来提高其输出数据的准确性。“如果没有错误反馈,大数据模型就会持续输出错误的结果”。当然,训练数据的不透明一定程度上与数据采集的复杂性、隐私保护需求、技术局限性等有关,但也受商业机密的影响。

(二)高估数据效用的教研决策

如前所述,智能教研平台提供的量化数据的确能为可量化的教学研究提供教研决策。由于教研是高度依赖情境或语境的实践性活动,除非智能教研平台在与师生长期互动中谙熟师生话语特点,并能提供高度语境依赖的精准教研数据,否则很难单独基于智能教研数据作出科学或精准的教研决策。然而,要创造出兼具可以共享文本内部语境和外部语境的人工智能,并与人类保持长期的相互作用,依然是一项很大的挑战。目前人工智能在教育中的应用存在“炒作”现象,诸多关键性限制问题也未得到充分考量。整体而言,智能教研中的数据效用及其教研决策依然受制于技术本身,尽管已有学者对此进行了相对理性的探讨,但仍然高估了基于数据的智能教研决策效用,具体表现在如下方面。

一是认为基于数据的教研决策就是科学的教研决策。持该观点的人们认为,智能教研平台提供的数据是真实、客观的,据此作出的教研决策自然也是科学的。这类观点集中体现在教师、校本教研、学校教研管理等层面。在教师层面,一些教师认为智能教研数据有助于他们作出科学的教研决策,一般在智能教研展示及分享活动中涉及较多,如智能教研展示课的执教教师通过分析和解读AI课堂数据报告(包括教学行为分布、S-T分析图、Rt-Ch图等数据),指出根据教学经验实施的教学与智能教研数据报告之间存在一定落差,并据此提出教学改进的方向。在校本教研层面,一些学校认为,相较于传统校本教研以个人经验与主观判断为导向,数据驱动的校本教研更强调获取与挖掘真实、客观的过程性数据,并在此基础上进行教学评估与决策,这有助于增强校本教研的科学性。在学校管理层面,体现为管理者可在众多教研数据中,借助多维度可视化图表全面了解学校教研情况,紧抓优势板块与薄弱板块,从而科学高效地做出教研决策。

二是认为基于数据的教研决策就是精准决策。持该种观点的人们认为,智能教研平台基于自身的技术优势,能够采集精准的教研数据,据此作出的教研决策自然也是精准的。在公司的大力宣传和裹挟下,诸多区域和学校采纳并进行了试点,特别是在学生作业的教研改革方面。如有些试点区域认为,精准决策有助于开展个性化辅导并布置分层作业,理由包括:平台能够伴随式实时采集数据,诊断学生的学习情况,辅助教师做出精准的教学决策;课后教师可以分析学生的作业数据,发现学生的薄弱知识点,及时开展个性化辅导;可以根据学生的阶段性学习情况,针对不同个体、分组或群体发布分层作业。事实上,上述所论的精准决策是针对以客观题为主的学科(如数学、英语等),而诸如语文等以主观题为主的学科则很难实现精准决策;而且由于操作方面的不便捷,致使教研平台给出的精准决策有时还不如教师自身目测更快。况且上述基于错题的个性化作业推送,总体而言并不精准,其原因是公司对作业库中每道题标注的知识点很不准确,他们往往会把与某道题关联的所有知识点都做标注,这样学生做错一道题,推送的练习题就可能是10道。如果真要实现精准推送,必须由教师逐条审核,然而教师也无暇做此类审核工作。

上述两类观点所推崇的决策,实际上就是前文所述的算法决策或研发者协同人工智能算法决策的结果。总体而言,这类决策的实际绩效并未经过科学评估,因此,公司所宣称的决策和教师真实感知的决策之间存在落差就在所难免了。

(三)陷入单性异化的教研循证实践

如前所述,技术性证据的确能为教研提供量化证据,据此推动智能教研循证实践。比如,教师可以在课前依托平台完成前测,确定课堂教学的起点;也可以在课堂教学过程中用量化的实时数据精准调控课堂等。然而,由于师生的个性化需求差异、教学实践具有的情境或语境依赖性和复杂性,使得仅依靠技术性证据无法实现三性优化的教研循证实践。过于强调技术性证据,极易使教研循证实践陷入单性异化的困境。这里的单性主要指证据的单一性,异化主要指基于技术性证据的循证实践已成为教师的“异己”力量,它会反过来制约教师的发展。卡尔·马克思(Karl Marx)将这样的异化称为“需要的异化”。阿格妮丝·赫勒(Agnes Heller)在解读马克思的需要理论时指出,需要的异化在资本主义社会中主要有四种表现,分别是“需要的手段与目的之关系的颠倒”“需要的质量与数量倒置”“需要的贫困化”“需要受到特定利益群体的影响”。从智能教研探索的实践看,单性异化的教研循证实践突出表现为如下两类。

一是需要的手段与目的之关系的颠倒。主要表现为:智能教研的本意是为了扭转过于依赖经验的局面,实现证据优化的循证实践,而通过智能教研平台获取技术性证据是实现循证实践的手段。然而,在智能教研实践中,一些区校却把上述关系颠倒了,严重制约了教师教学的自主性和创造性,甚至为教师平添了诸多技术使用焦虑。如某区要求青年教师课堂教学中学生主动学习的时间确保在30%以上,且以智能教研平台生成的报告为评判依据。该举措的本意是用平台提供的证据引导青年教师多关注学生主动学习,而非“满堂灌”;然而,实践过程中由于前述的模型及其设定的问题,导致很多青年教师将关注焦点完全转移到如何达标上。而且在徒增技术焦虑的过程中,青年教师通过摸索和相互交流发现,只要在课堂教学中持续准确表述“小组合作”“随堂练习”等关键词,即可生成达标的报告。

二是需要的贫困化。需要的贫困化并非指没有需要,而是指智能教研过程中教师的需要高度同质化和窄化。这种同质化表现在:(1)教师所熟练运用的智能教研技术是同质化的,以确保教师能使用区域或学校购买的智能教研平台;(2)教师数据素养的同质化,包括对智能教研数据的理解、分析和解读等;(3)教师对教学模式理解的同质化,即当面对智能教研平台提供的练习型、讲授型、对话型、混合型教学模式时,教师为了“彰显”自身的教学理念往往倾向于选择对话型教学模式;(4)教师所使用教学方法的同质化,如为了在智能教研过程中获得良好的数据,教师往往会采用以学生为中心的教学方法;等等。长此以往,学校的特色、教师的教学风格、学生的个性化成长需要都有可能被智能教研循证实践所异化。同时,课堂教学的高度同质化也可能导致师生发展的需求被窄化。此外,智能教研平台具有精准满足师生特定教学与学习偏好的优势,那些对师生发展重要但不被师生喜欢的需要也可能被遮蔽,进而带来窄化师生成长的风险。需要指出的是,陷入单性异化的教研循证实践,还与科学性证据匮乏、经验性证据被轻视密不可分。

三、智能教研的理性回归

早有学者指出:任何一项改革如要得到持续推进,则有赖于三级改革方案,即需要在学校和社区层面、学区/地区层面、州/联邦层面进行系统改革。智能教研改革也不例外,其不仅涉及上述三个对应层面,还涉及公司、高校、工业界等。唯有各个层面联合研发、合力探索、内外联动,方有可能实现智能教研的理性回归。

(一)联合研发保障智能教研数据质量的可信基础模型

从现状来看,前述智能教研平台的数据采集模型大多是预训练模型,其特点是针对智能教研应用场景进行训练,模型训练需要大规模地标注数据,而且只有通过训练后的模型才能完成智能教研数据的采集任务。但实际上智能教研平台只能根据公司自身设定的模型来采集数据,很难满足学校个性化智能教研数据采集的需要。尽管这些模型基本上都是多模态的,但上述局限依然存在。为此,亟待跨界联合研发保障智能教研数据质量的可信基础模型。

基础模型是一种基于通用类模型构建AI系统的新兴范式,既与凸显技术维度的预训练模型、自监督模型等不同,也与过于偏向语言的“大语言模型”不同。基础模型中的“基础”是指作为通用基础,许多限定任务的模型是通过对其适配而构建的。用“基础”一词同时也是为了凸显架构的稳定性和安全性。关于教育领域基础模型的研发,有学者认为应该整合直接调用和专门训练两条技术路线。前者指“直接调用通用大模型,通过微调或提示学习的方式使之具备一定的专业能力”,后者指“利用教育领域专业数据,专门训练用于解决教育任务的大模型”。尽管该研究提出了整合路线的思路和由基础能力层、专业能力层、应用服务层组成的整体架构,但其主要限于技术层面对模型开发的探讨,并没有考虑到模型研发所需的基础研究。如前文所论,当前智能教研模型大多借用或套用国外的相关理论,显然无法满足我国课堂教学快速发展的现实需求,因此亟待开展本土化的基础研究。

联合研究的关键是在政府支持下,组建跨界、跨学科的教育领域可信基础模型研究团队。跨界主要指学术界和工业界的联合。学术界的基础研究能为工业界的模型研发提供指导,反过来工业界也能为学术界的研究提供更明确的方向。跨学科研究团队主要由教育学、理学、工学、文学、交叉学科等学科领域的研究人员构成,鼓励他们基于我国已有的本土教研实践,开展适合智能教研需要的可信基础模型研究。其研究重点包括:(1)可信基础模型建构的理论,且应将可能造成的教育影响和伦理风险考虑其中,而非等投入学校使用后再作补救。(2)持续开展跨学科研究的对话。由于可信基础模型研究是一个全新课题,研究人员之间的头脑风暴、深度研讨和文献研究同等重要。(3)系统调研已有的智能教研数据采集模型,深入调研一线教师的使用感受及真实需求,以便为基础研究贡献鲜活的实践资料。

为确保基础模型的可信,研发过程中的模型训练要向智能教研的个性化方向倾斜。为此应当积极探索基础模型训练的新思路,如斯坦福大学的学者们所指出的:“尽管教育中的很多数据流因为过于有限而无法单独用于基础模型的训练,但可以利用领域外(如互联网)的相关数据以及利用跨多个模态(如教科书、数学公式、图表、基于视频的教程等)的数据,共同为基础模型广泛应用于教育任务提供帮助”。但该思路面临的瓶颈是,需要充分考虑模型训练所使用作品的版权问题。

(二)合力探索智能教研协同决策的实践课题

已有研究基本认为人机协同决策就是人类决策和机器决策(或称为“算法决策”)的协同,极少考虑控制机器决策之人与不控制机器之人的不同,因此,实现“人—机—人”协同决策是改进当前智能教研决策的关键。由于人机协同决策研究起步相对较早,故可为“人—机—人”协同决策研究提供借鉴;同时,其他领域(如人力资源管理、经济管理等)对人机协同研究的推进实践亦为智能教研协同决策实践研究提供了借鉴。

关于人机协同决策实践,相关领域已开展了积极探索,主要包括如下三个方面:(1)用户对算法决策和人类决策的感知及可接受性。例如,在人力资源管理领域,有学者通过实证研究发现,员工觉得AI算法决策比上级主管决策的信息透明度更低,认为AI算法并不能提供具有可获得、可理解、可辨认以及准确清晰等特征的决策信息。该研究挑战了现有文献中认为AI算法决策比人类决策更客观公正的主流观点。又如,在经济管理领域,有学者通过研究揭示了对算法的接受程度受员工对算法欣赏或厌恶态度的影响,他们指出:“算法欣赏或厌恶都不是普遍规律,而是随着情境而发生变化的。在一些情况下(如决策结果不利时),人们欣赏算法;在另一些情况下(如决策结果有利时),算法或人工决策不会带来差异化的感知。”(2)人机协同决策方式。例如,雅什·拉杰·什雷斯塔(Yash Raj Shrestha)等人将组织成员与人工智能决策相结合的方式划分为三类,分别是全人类向人工智能的委托式决策(Full Human to AI Delegation)、混合式(人类到人工智能与人工智能到人类)序贯决策(Hybrid—Human-to-AI and AI-to-Human—Sequential Decision Making),以及聚合式人类—人工智能联合决策(Aggregated Human-AI Decision Making),并将后两种统称为人机协同决策方式。(3)人机协同决策的影响因素。例如,有研究发现,决策者在主观决策情境中会倾向于采纳人的建议,而在客观决策情境中则倾向于采纳机器的建议;在客观决策情境中,高认知闭合需要的个体对人和机器建议的采纳无显著差异,而低认知闭合需要的个体则更倾向于采纳机器的建议;决策者在面对困难任务时更倾向于采纳机器的建议,而在面对简单任务时对人和机器建议的采纳无显著差异。上述其他领域的人机协同决策实践为智能教研协同决策研究开阔了视野。

为走出高估数据效用的教研决策误区,亟待引导地方、学校、公司、高校等多主体合力探索智能教研协同决策中的实践课题。结合当前智能教研决策实践中存在的典型问题,笔者将智能教研决策实践课题归纳如下:智能教研实践中教师对“人—机—人”协同决策的可接受程度如何?“人—机—人”是如何协同决策的?“人—机—人”协同决策的影响因素有哪些?哪些教研问题适合“人—机—人”协同决策?“人—机—人”协同能否产生更加科学、精准的决策?

(三)内外联动优化推进智能教研的循证实践

优化证据是智能教研循证实践最大的挑战。如前所述,单性异化是循证教研实践最大的误区,为此亟须重视科学性证据的建设和经验性证据的价值,从而推动三性优化的智能教研循证实践真正落地。对此笔者提出以不同的内外联动方式来突破证据建设困境,实现智能教研循证实践的优化推进。

一是外主内辅联动建立智能教研科学性证据库。这既是突破科学性证据匮乏的关键,又能为智能教研平台研发突破目前低层次重复建设困境提供科学依据。证据库本质上是“对经过验证的单个证据在进行分类的基础上进一步系统化,是对科学经验的总结性提升”。从智能教研实践来看,目前智能教研平台依据的科学性证据总体上呈个体性、零散性、非系统性等特点,不利于智能教研循证实践的系统推进。科学性证据的构建是一项系统、复杂的工作,亟须外主内辅联动推进。外主是指以外部为主导,外部主导者包括政府部门、教研管理者、教学研究者、专业技术人员、证据库录入人员等。其中,政府部门和教研管理者负责教研实践的统筹和协调,研究者负责科学性证据文献的系统归类和深化,专业技术人员负责科学性证据工具的研发及智能平台的搭建。内辅是指以学校利益相关者作为辅助,并基于学校需求视角提出证据库建设的建议。

二是内主外辅正视经验性证据的合理价值。经验性证据是指教师基于教研情境或语境为教研实践提供的凭据,教师经验是其主要来源。然而,在智能教研热潮中,教研经验成了理论界和实践界批判的“靶子”,如“传统教研较为依赖教师或专家经验,缺乏针对教学过程数据和材料的科学分析”;又如“学校迫切需要学科教研活动从‘基于经验’走向‘基于实证’,从基于‘主观臆断’走向‘精准诊断’”。在法学界同样存在轻视经验的问题,由于经验证明在司法实践中具有不可或缺的作用,为此法学界提出了和教研中经验性证据类似的“经验法则”,认为经验法则“指代对事实认定中经验知识的运用”,“具有可信性、盖然性、公共性、具体性及隐蔽性五大内部特征”。参照法学界的已有探索,教育界也亟待以学校为主体,连同教研员、高校研究者、公司相关人员等,探索怎样的教研经验可以作为经验性证据,以及这类证据应具有何种独特性,据此真正推进三性优化智能教研循证实践的落地。


(本文参考文献略)


Intelligent Teaching Research: Essence, Misunderstanding and Return

WangLihua ShiYifan LuGuocheng


Abstract: Intelligent teaching research(ITR) is a policy direction and practical hotspot under the trend of artificial intelligence. However, there is currently a widespread lack of understanding of the essence of ITR, which leads to blind pursuit and frequent practical misunderstandings. Based on a dual examination of the essence of artificial intelligence and teaching research, it is proposed that ITR is an evidence-based practice of “three-essence” (scientific, technical and empirical) optimization, which is realized by human-machine-human collaborative decision making from the teaching research data by trusted models. Based on this, the typical misconceptions of ITR are mainly reflected in three aspects: teaching research data constrained by suspicious models, teaching research decisions that overestimate the utility of data, and evidence-based teaching research practice that fall into singularity. In order to avoid misunderstandings, ITR urgently need to achieve rational regression through three ways in the future: first, it is essential to jointly develop trustworthy basic models to ensure the quality of ITR data; the second is to draw on existing research in related fields and work together to explore new practical topics for ITR “human-machine-human” collaborative decision making; the third is to promote the construction of a scientific evidence base through internal and external linkage, recognize the reasonable value of empirical evidence, and continuously optimize the evidence-based practice of ITR.

Key words: Intelligent Teaching Research; Trusted Models; Human-Machine-Human Collaborative Decision Making; Evidence-Based Practice


初审:曹洪家

复审:孙振东

终审:蒋立松



版权所有 |教育学在线 京ICP备1234567号 在线人数1234人