当前位置: 首页 > 在线期刊 > 2023年 > 第11期目录(总第一百九十七期) > 正文

人工智能时代的品德评价:技术机遇、伦理风险及其规避

作者:班建武
阅读数:58

来源:《当代教育科学》2023年第9期


摘 要:品德自身所具有的情境性、稳定性、内隐性等特点,以及品德评价中的诸多伦理困境,使得品德评价比其他评价更为困难。当今时代,人工智能技术的发展为品德评价科学性、操作性的提高带来了技术上的种种可能。人工智能的“第三持存”“数字记忆”“全息摄入”“日常性存在”等特征,可以很大幅度地提升品德评价中数据获取的真实性。同时,人工智能评价的实时性、循证性、精准性对于提升品德评价在教育改进、政策制定、个体发展等方面的效用也具有积极意义。不可忽视的是,人工智能本身在品德评价中的应用,同样存在着诸多需要我们警惕的伦理风险。其中,最大的风险就来源人工智能基于算法所获得的“真”与品德评价所内含的“善”之间所存在的一定张力。规避其中的伦理风险,需要我们做到算法逻辑和价值逻辑的统一、确定性与不确定性之间的结合以及有所为与有所不为的调适。

关键词:人工智能;品德评价;算法逻辑;伦理风险


学生品德评价是德育工作的重点,也是难点。长期以来,不管在理论还是在实践领域,人们都高度关注品德评价的科学性和有效性问题,并对此开展了诸多的理论研究和实践探索。这些研究和探索在一定程度上推进了品德评价的发展和进步。客观地讲,不管在理论层面还是在实践层面,学生品德评价的科学性和操作性等方面均明显弱于其他教育教学的评价。当前,人工智能等新兴技术的不断发展,为品德评价科学性、操作性的提高提供了前所未有的技术支持。一些地方和学校也开始尝试采用人工智能技术来增强其品德评价的可靠性。但是,作为一项新兴的品德评价工具,人工智能与品德评价相结合的技术优势和其中可能存在的伦理风险并未得到充分的学理性论证。如果缺乏必要的学理性分析,人工智能在品德评价中的仓促应用就有可能引发极大的社会争议,并有可能造成诸多负面的教育后果。因此,在积极探索人工智能对于提升品德评价的技术优势的同时,我们也要深入研究其可能带来的伦理风险。这样才能更好地发挥人工智能的技术优势,提升品德评价的实效性。

一、品德评价的技术难点和伦理困境

品德由于其自身的特殊性,带来了品德评价的困难。这些困难一方面来源于现有评价技术的限制,另一方面则源于品德自身的内在伦理张力。

(一)品德评价的技术难点

品德评价要想有效,必须确保其所采集到的品德信息的客观真实性。而品德与人的其他素养不一样的地方就在于,它具有鲜明的情境性、内隐性和发展性等特征,这就决定了品德信息的采集会遭遇到客观性和真实性的现实挑战。

1.品德表现具有情境性。所谓品德表现的情境性,主要指的是在不同情境空间中,个体在同一德目上的表现会有很大的不同。关于这一点,20世纪美国心理学家哈桑和梅所开展的“诚实情境测验”结果表明:一个人是否诚信,主要取决于其所处的具体情境。在一个情境中表现为诚实的个体,有可能在另外一个情境中就表现为不诚实[1]。由此可见,品德的表现与特定的情境有着非常密切的关系。现有学生品德评价中的表现数据,往往只能够采集到特定情境下的数据,而不能全面覆盖学生在多个情境中的表现情况。这就使得品德评价中所采集的数据,特别容易受到情境的干扰而失真。

2.品德样态具有稳定性。如果说品德表现的情境性更多地是从空间维度来审视品德的特点,那么稳定性则主要展示的就是品德在时间上的特殊性。品德作为个体人格结构中具有稳定倾向的道德品质,它不是个体道德生活中的偶然性表现,而是一种一以贯之的人格特征。因此,个体在特定时间中的偶然性表现不能够客观反映其真实道德状况。要想对个体的品德状况有客观地把握,就必须在一个相对长时段的范围内把握其中相对稳定的道德特质。这就要求品德评价不能就某一个具体时间所采集到的数据信息来作为评价其道德状况的真实数据,而是需要从一个长时段的区间来采集信息。而当前的品德评价更多的是以某一具体时间节点获取的数据来评价学生,这些基于特定时间节点获取的数据并不能保证评价可以真实反映个体品德的稳定特征。

3.品德存在具有内隐性。品德固然表现为一个人外在可见的言谈举止,但是,品德这一可见的言谈举止并不必然代表一个人真实道德水平的客观表现。在现实中,个体的品德状况极有可能出现“知行脱节”或“言行不一”的情况:一个人外在的道德表现与其内心真实的道德状况并不一定一致,其外在的符合道德的表现也许更多的是一种道德表演。这实际上表明,一个人的品德具有非常明显的内隐性,其外在行为有可能符合其内心真实道德,也有可能不符合其真实道德。同时,品德存在的内隐性还意味着个体的品德具有“潜在”的特征,“所谓的潜在,就是尚不具备现实性,它也是内在地处在实现过程之中的”。[2]在这种情   况下,现有的品德评价更多的只是采集到其外在的道德表现,而对于其真实的、潜在的内在道德信息却很难获得。

4.品德评价的社会称许性。社会称许性(Social Desirability,简称SD)主要是指个体在对自我进行评价时,通常会以社会认可的方式做出评价反应的一种偏向或心向,从而使自己看起来更符合社会的期待。这一情况在品德评价中更容易出现。被评价者往往为了维护自我的社会形象、获得社会认可,而在品德评价中表现出明显的社会称许性。社会称许性在品德评价中的存在,必然会极大地干扰评价真实信息的获得。而现有的品德评价更多地是采用自我报告的方式进行,因而很难避免社会称许性的出现。

5.品德评价的主观性。品德评价数据目前基本上是靠人来采集。虽然参与品德评价数据采集的每一个个体都会接受专业培训,以避免个人主观性的影响。但是,作为活生生的人,数据采集者对于品德的理解往往会受到其阅历、偏好、性别、文化等因素的影响。因而,在具体的品德评价过程中,数据采集者实际关注的重点也会有所不同。在这种情况下,虽然每个人都是按照统一的标准和流程来采集相关评价信息,但是,其中的个体差异性是很难完全避免的。这同样会影响到品德数据采集的客观性。

(二)品德评价的伦理张力

品德评价除了会遭遇以上技术难题外,还会遭遇到其他各教育评价所不会遭遇的伦理张力。总体而言,这些伦理张力主要表现为以下几个方面。

1.关于“好品德”的伦理争议。品德评价毫无疑问必须建立在具有共识性的科学评价标准之上。这实际上就需要回答什么样的品德才是“好”的品德。但是,在这一关键问题上,伦理学的看法并不一致。从义务论的伦理学来看,“好”品德的标准在于一个人的善的动机,而不是其外在行为和结果。康德就是这方面的代表人物。而效益论伦理学则认为,“好”的品德主要指的是那些能够为绝大多数人带来幸福的行为,即看重的是行为的后果,而不是个体行为的动机。边沁、密尔等人则是这一理论的主要倡导者。在德性论伦理看来,“好”品德主要是体现为个体的内在品质,而不是从个体的动机和行为后果上去评价。这方面的代表人物是当代伦理学家麦金太尔。由此可见,从不同的伦理学出发,人们会构建出不同的品德评价标准。品德评价标准的这种多样性,会给品德评价标准的构建带来很大的伦理挑战。

2.品德评价权重分配的模糊性。关于品德的构成要素,学界有“三要素”“四要素”“五要素”等不同认识。但不管是何种认识,都承认品德至少包括认知、情感、行为三个基本要素。总体而言,当前的品德评价,基本上都围绕品德的认知、情感、行为三个基本要素进行。从现有的评价技术来看,围绕这三个要素的单项评价都分别有与之相适应的评价手段和方法。比如,测查道德认知可以采取柯尔伯格的道德两难测试法进行。但是,人们很难确定各要素在评价结果中的权重,因而难以形成对一个人品德状况的总体评价,即很难将个体在道德认知、情感、行为三个要素上的具体得分情况进行一种权重的分配,从而难以合成一个人合理的品德总分。品德评价权重分配的这种伦理上的难题,也客观上导致品德评价的真实性和操作性不高。

3.品德评价结果解读的文化性。即使品德评价完成了,其评价结果的解读同样会遭遇伦理方面的挑战。特定文化对特定品德的要求,在很大程度上存在明显的地方或者空间上的显著差异。在某一文化中被认可和接受的品德,可能在其他文化中则被认为是非道德甚至是反道德的。比如,东西方文化就对集体主义、个人主义的认识存在很大的文化分歧,中国社会内部同样存在着城乡、民族、宗教、性别等文化差异性。因此,品德评价结果的解读必须充分考虑这些因素的影响,否则极有可能导致品德评价出现公平伦理问题。

由此可见,品德评价与其他各教育评价相比有着非常突出的独特性。这一独特性就使得一般的评价方式和方法很难解决品德评价中的技术难题和伦理张力。这里的技术难题,突出表现为如何确保品德评价所获取数据之“真”;而伦理张力则是体现在如何充分保障品德评价之“善”。

二、人工智能之于品德评价的技术机遇

品德评价中的“真”与“善”难题,显然仅靠现有的评价技术是很难真正解决的。人工智能的出现则为这些问题的解决提供了一个可能的技术机遇。

(一)确保品德评价的可能之“真”

如前文所述,品德自身的情境性、内隐性等特征使得品德评价在评价数据采集方面遇到的最大技术挑战,就在于其所采集的数据特别容易在真实性方面存在问题。在评价数据真实性获取方面,人工智能作为一种依据数据算法逻辑构建起来的技术形态,有着非常重要的技术优势。

1.人工智能作为“第三持存”,可以较好地实现评价的连续性。第三持存又被形容为“技术的痕迹(trace)”,是斯蒂格勒在胡塞尔的第一持存(感知的心理持存)、第二持存(记忆的心理持存)的基础上提出的,意指可以在主体之外使思想和行为发生时的踪迹得以保存。它使记忆及知识可以通过外置化的技术方式存在,从而可以有效地避免第一、第二持存所不可避免的遗忘问题。显然,人工智能的记忆具有明显的“第三持存”的特性,它可以将各种记忆固化为可以检索的数据存储于设备之上,因而可以确保品德评价信息的获取是一个连续的而并非断点式的过程。在这方面,一些研究者就采用深度知识追踪模型(Deep Knowledge Tracing)、动态键值对记忆网络模型(Dynamic Key-Value Memory Networks for Knowledge Tracing)、基于图的知识追踪模型(Graph-based Knowledge Tracing)等多种深度学习模型,对个体过往的学习历史轨迹进行研究,并据此预策其在后续练习中的表现[3]。这些技术的使用表明,人工智能是可以长时段地获取个体发展的有效信息,以进行历时性的分析和评价。这毫无疑问对于克服当前品德评价很难长时段获取个体品德信息的局限,有着非常重要的技术优势。通过人工智能的应用,人们可以较长时段地对一个人的品德情况进行连续性的信息采集,从而相对准确地从中提炼出具有一贯性的稳定品质,并将之作为品德评价的对象。

2.人工智能的“全息摄入”,可以确保品德评价的全景监测。品德表现的情境性表明,人们要想获得关于个体的真实品德信息,就需要在评价的时候覆盖其主要生活空间,这样才能确保数据的全面性。长期以来,品德评价数据的采集基本上都是以学生在校的表现为信息来源点,这些数据很难涵盖学生在其他生活空间中的品德状况。这样一种定点式的评价必然导致相关品德信息采集的片面性,从而不能够很好地反映一个人的真实道德状况。而人工智能是可以全面覆盖个体生活的方方面面,具有“全息摄入”的特点:人工智能凭借大数据和算法的支撑,依靠遍布各个角度的摄像头,可以轻而易举地获取有关学生思想动态、真实想法、道德发展、心理特征、网上言论等结构化和非结构化数据,有效地将过去因条件不充分而无法覆盖的领域范围都囊括进来[4]。总之,人工智能可以全方位地将个体的所有信息(含品德表现的信息)全部采集,最大程度地反映一个人在不同情境中的真实表现,从而有助于人们对其品德状况做出更客观的评价。

3.人工智能的“数字记忆”,可以有效避免评价者主观偏好的影响。主观偏好是影响评价科学性的重要因素。人的主观偏好往往是与其记忆的选择性和经验性有着很大的关系。但是,人工智能是基于算法的物理运动,其记忆是一种“数字记忆”,而并非“生物记忆”。美国学者戈登·贝尔(Gordon Bell)和吉姆·戈梅尔(Jim Gemmell)指出了生物记忆和数字记忆的明显分殊:前者是主观的、带有感情色彩的,具备主观写意、自我过滤的特质;后者是客观的、不掺杂假象的,具备高度的精准性[5]。人工智能的数字记忆不会受其过往经验的影响,也不会受其主观偏好的作用,因而具有相对客观性和真实性。通过人工智能所采集到的个体的品德信息,是以一种“数字记忆”的方式存在于人工智能中。这无疑有助于评价数据的真实性保留。

4.人工智能的“日常性存在”,可以最大程度地减少社会称许性对品德评价的影响。人工智能可以存在于人们衣食住行的方方面面,与个体的生活完全融为一体。由于通过人工智能所进行的品德评价具有突出的日常性特点,可以有效地减少在特定时间、特定空间所专门进行的品德评价的正式性。它更多地是采用一种维度更多、频度更密、粒度更细的信息采集方式,这种采集方式还具有实时性、连续性和自然性。这些海量的过程性信息是在无人参与的情况下,通过智能设备自动采集的,不会对学生的行为造成人为干扰。这保证了评价不会因为学生的抗拒、迎合或应付心理而失真[6]。这就使得基于人工智能的品德评价的发生,在很多情况下是个体所没有意识到的。因而,所谓的社会称许性在个体无意识的状态下就几乎不会发生。这无疑可以大大提升数据采集的真实性。

此外,当前人工智能集大成者——ChatGPT的出现,为交互性品德评价的大规模应用提供了技术可能。传统的交互性评价由于需要教师与学生进行“一对一”的对话来实现。其优点在于它可以通过与个别学生深度交流来获得有关学生品德的深层次信息,从而可以提升评价的准确性和针对性。但是,由于这样一种交互性评价有耗时长、不同教师主体存在主观偏差等缺陷,很难普适化为一种日常的品德评价方法。而ChatGPT作为一种高度智能化的人机对话程序,可以同时面对规模庞大的学生群体进行个别化的深度交流,从而可以在很大程度上克服现实中教师与学生“一对一”、面对面交流的局限性。

(二)确保品德评价的可能之“用”

品德评价归根结底,是为了进一步优化学校德育工作,提升学生的思想道德水平。长期以来,品德评价最大的弊病之一就在于人们认为品德评价不准,因而当前的品德评价很难发挥其学校教育改进和学生品德发展的促进功能。人工智能的出现,毫无疑问可以增强品德评价的实效性,使其可以更好地发挥育人功能。

1.人工智能可以确保评价结果的实时反馈,增强其教育改进的时效性和针对性。一旦我们将德育评价的指标和要求以算法的形式转变为人工智能,那么,这个品德评价数据的采集、处理和分析将会实现实时化的呈现方式,这必将大大提高德育评价对于德育改进的效率。学校可以根据数据终端及时了解学生品德发展的基本情况以及出现的问题,做出及时的回应。这会有效地避免评价结果反馈的迟滞性所引发的各种可能严重后果。也就是说,基于人工智能的品德评价,在很大程度上可以成为整个学校德育运行的质量监测系统,及时反馈教育中的各种现实问题,从而提高教育的有效性。

2.人工智能可以提升品德评价的循证性,增强其服务政策制定的科学性和可靠性。对学生品德现状的准确把握,是相关德育政策制度的重要依据。在很大程度上,对学生品德真实状况理解上的任何偏颇,都会带来德育政策制定的诸多不良实践后果。基于人工智能的评价,在本质上是一种循证(evidence-based)评价。这是一种基于客观数据和方法上的评价,而不是基于个人经验和主观判断的评价。这样一种基于人工智能的循证式品德评价,可以最大程度地反映个体品德的真实情况,从而可以为相关德育政策的制定提供必要的科学基础。

3.人工智能可以促进品德评价的精准性,增强德育指导的针对性和个体性。要想提高德育实效,就必须做到因材施教。因材施教的前提是对个体品德的独特性有准确的理解。长期以来,德育实效不高的一个重要原因就在于,德育之于个体的针对性是远远不够的。我们在处理学生德育问题时,往往只是从抽象的道德原则来解决,而没有充分考虑学生品德的特殊性对于德育内容、方式、方法的特殊性要求。也就是说,现有的德育很难根据学生各自的品德特性开展更有针对性的个别教育。而基于人工智能的德育评价,显然是可以通过技术的手段精准地评价个人的品德发展特点,也可以形成具有明显个体特征的品德评价和分析报告。这对于德育因材施教的真正落地,有着非常重要的意义。

总而言之,人工智能在品德评价中的应用,可以使得品德评价的日常化、立体化、个别化推进更为扎实,品德评价的教育诊断、政策咨询和个体发展的作用也因此变得更加实在。

三、人工智能之于品德评价的伦理风险

不可否认的是,虽然人工智能从技术层面为品德评价的有效推进提供了前所未有的可能性,但是人工智能本身在品德评价中的应用同样存在着诸多需要我们警惕的伦理风险。其中,最大的风险就来自人工智能基于算法所获得的“真”与品德评价所内含的“善”之间所存在的一定张力。

(一)人工智能是何种意义上的“真”

从前面的分析可以看出,品德评价要想有效,就必须获取学生品德发展状况的真实数据。没有这些真实数据的获取,品德评价就失去了其基本科学性前提。人工智能表面上可以借助深度学习的帮助而实现算法的自动迭代升级,从而可以最大程度地依靠遍布生活各个领域的数据采集点获取相对及时且真实的学生品德发展的信息。值得注意的是,人工智能行动的基本底层逻辑是需要依靠一套算法来予以保证的。也就是说,就目前人工智能的发展阶段而言,它仍然是在人所赋予的算法之下来开展相应的活动的,算法背后依然是人的因素在起作用。这就使得基于人所赋予的算法而行动的人工智能,还是未能完全脱离开人的主观偏好的影响。在这种情况下,其所获得的信息必然也带有人的价值烙印。

1.谁的道德算法具有品德评价的合法性

算法是人设计并赋予人工智能的。这实际上意味着,人工智能并不是价值中立的,“它携带有他者的意志”[7]。因此,设计算法的人的价值立场就会在很大程度上决定人工智能采集信息的价值方向。这里涉及一个重要的伦理问题,即并不是所有的人都可以成为算法的有效供给者。在很大程度上,算法的供给者基本上都是一些“技术精英”;普罗大众由于其技术素养以及技术话语的缺乏,是很难在人工智能的算法世界里占有一席之地的。也就是说,基于算法的人工智能从其诞生之日起就带上了一定的道德偏见,是很难周全地反映不同区域、文化、阶层、性别的人的道德生活的。因此,谁有资格成为人工智能算法的供给者,这将是一个涉及道德评价的公平性、正义性的社会问题。

2.何种道德算法具有品德评价的合理性

诚如前文所述,道德本身也是有着不同的“算法”,既有义务论的,也有功利论的;既有集体主义的,也有个人主义的,等等。每一种不同的道德“算法”背后所折射出的都是人们对“何为善”的不同理解。这些不同的道德“算法”都从不同维度回答了“何为善”“何为好生活”的伦理问题。但是,它们各自也很难单独地有效解决人类道德生活的诸多问题,而且它们之间也存在着一定的伦理冲突,因而这需要人们综合地、批判地、建构地来应用这些不同的道德“算法”。但遗憾的是,在如何合理地综合运用各种不同道德“算法”这一问题上,人们尚未达成一致的看法。这就使得哪种道德“算法”可以成为品德评价的主流,也成为一个有待研究的重要伦理问题。

3.何种边界的数据获取具有品德评价的有效性

提高品德评价的科学性,当然需要尽可能全方位、多角度、长时段地获取关于个体品德状况的诸多数据。但是,当我们借助人工智能对生活的全面渗透获取个体的品德信息的时候,不得不考虑一个重大伦理问题:如何确保这样一种信息的获取不侵犯个体的隐私权?也就是说,我们在多大范围、多大程度上可以借助人工智能来获取个体的品德发展信息?这是一个需要谨慎处理的伦理问题。如果信息获取面太窄、太单一,恐怕不能真实反映个体的品德状况,影响品德评价的真实性。但是,如果为了评价的真实性而将评价的触角过多地介入其私生活领域,则会导致侵权问题。因此,如何平衡好数据信息采集的公私边界,是一个需要处理好的伦理问题。

总体而言,人工智能的运转是建立在数据的采集和处理的基础之上的,本质上是一种数据的逻辑关系的推演。因而,基于人工智能的品德评价实质上也是一种数据的运算。但是,这里存在的一个最大问题就在于,人的品德在多大程度上可以用数据化的方式来呈现?在很大程度上,数据化的评价是很难真正深入教育最本质性的东西的,即人的生命存在本身。而人的生命是不可估算、不可估价的[8]。因此,当把个体丰富的道德生活简化为一系列数据的时候,这些数据与个体真实的道德恐怕还是有一定差异的。

(二)人工智能是何种意义上的“善”

人工智能在品德评价中的应用,毫无疑问可以提高评价的科学性,增强其对教育改进、政策制定、个体发展等诸多方面的积极作用。但是,人们在主动应用品德评价的同时,同样需要思考这样一种基于人工智能的品德评价的应用伦理边界。

1.如何处理算法的确定性与品德评价的不确定性之间的关系

人工智能所赖以生存的算法世界是一个确定性的世界。不管是何种算法,都是以海量的数据或信息作为其运动的基本前提。这就决定了所谓的“智能”更多地是来源于已有经验世界的意义赋予。也就是说,基于人工智能的品德评价基本上只能作用于事先设计好或者在已有数据和信息世界中存在的问题。一旦在数据库中找不到对应的数据,那么,基于算法的人工智能就很难做出相应判断。而品德评价所面对的个体品德恰恰是一个有着无限可能性的、动态发展的意义世界,具有很大的不确定性。这就会导致算法的确定性与品德的不确定性之间出现诸多张力。如果只追求算法的确定性而忽视了品德的不确定性,就会在很大程度导致技术对人的僭越,把人的丰富性降格为一系列数据符号。因此,人们在面对基于人工智能所获取的评价数据的时候,恐怕需要做必要的伦理反思和修正,为人的丰富性留下必要的可能空间。

2.如何处理数据采集的真实性和评价对象的知情权之间的关系

人工智能下的品德评价之所以具有较好的科学性,归根结底是因为其所获取的品德信息的真实性。而要确保信息的真实性,就要尽可能减少品德评价的重要难点—社会称许性的影响。为此,人工智能可以借助其在学生品德生活中的全方位渗透,让学生在无意识状态接受相应的品德评价,从而减少其社会称许性的影响。但是,这样一种在技术上可行的做法,从伦理的角度来看,有两个问题是需要我们高度关注的:一是这样一种匿名化的评价,是否可以完全免去对被评价对象—学生的告知义务?二是评价的无处不在,是否会形成福柯所说的“全景敞视”和无处不在的“权力的眼睛”?

3.如何避免人成为人工智能评价下的“算法动物”

品德评价是一项高利害性的评价,既涉及人的诸多外部利益的实现,也关乎人之为人的基本资格。因此,品德评价历来都受到人们的高度关注。虽然人们特别关注品德评价,但是由于品德评价自身的科学性一直得不到有效解决,因此,人们对于品德评价的结果会有自我解读和批判的空间。一旦品德评价借助人工智能全面渗透于个体的日常生活,并以一种科学的姿态展示出来,此时个体面对这样一种基于“科学”的评价结果就失去了其主动质疑的合法地位。在这种情况下,所谓人工智能的品德评价就成了一种新的社会主宰,成为决定个体社会声誉、升学就业等重大利益问题的重要依据。为了在这样一套人工智能的品德评价中获得“好”的结果,个体便会以人工智能评价的道德算法来进行自我道德形象的整饰。一旦如此,这样一种看似先进的品德评价,就有可能将作为主体而存在的个体降格为一种失去反思和批判能力的“算法动物”—个体主要是按照人工智能的道德算法生活,而不是按照自我的道德意志来处事。

人工智能的进化在很大程度上是算法的自动演变。如果这种演变完全交由智能系统本身自然发展而不加以人工干涉,那么,其演变结果有可能会突破现代伦理规则。例如,微软人工智能机器人Tay由预设“天真型人格”反转为种族主义者,搜索引擎的智能会在更大概率上将黑人姓名与犯罪记录联系在一起[9]。因此,如何防止人工智能在品德评价过程中出现突破人类现有伦理规则的边界,同样是一个需要人们重视的现实问题。

四、人工智能时代品德评价伦理风险的规避

不可否认,人工智能时代的到来给品德评价诸多难题的解决带来了技术上的可能。如何在更好地发挥人工智能的技术优势的同时,有效规避其中的伦理风险,是人工智能时代品德评价的重大时代课题。总体而言,对人工智能时代品德评价伦理风险的规避,需要着力处理好以下几个问题。

(一)算法逻辑和价值逻辑的统一

品德评价既是一个科学性问题,但同时也是一个价值性问题。人工智能所仰仗的算法逻辑本质上是求“真”的。“人工智能的进化,本质上是算法的设计,遵循的是真理原则。如棋牌博弈软件会打败所有的对手,而不论对手是男女老幼、爷孙友朋。”[10]因此,在智能化的品德评价中,所有的个体在面对同样的算法逻辑的时候,都会被简化为一系列的数据符码。但是,人的品德的成长与发展,除了需要遵循“真”的逻辑外,还有着非常重要的“善”的标准,恰恰是后者构成了人与其他生物相区别的重要标志。因此,品德评价可以充分利用人工智能在信息采集和处理方面的客观化优势来提升评价本身的科学性;在这个过程中,也要充分意识到其依据算法所获得的信息之“真”不能完全成为其主宰一切的标准。人工智能算法的求真逻辑需要在合目的性的规约下运转。

这实际上是要求我们在开展品德评价的时候,不能够把对学生的品德评价完全交由人工智能来完成。当前,一些学校购买了所谓智能化的德育评价软件、APP等,将之作为评价学生品德的基本依据。这样一种简单的做法是存在极大的科学性和伦理性风险的。这些软件开发背后的道德算法是需要进一步的专业审查的。如果其基本的算法前提在专业上、价值取向上有问题,那么,基于这样的智能化软件所做出的评价也必然是有缺陷的。因此,利用而不是迷信智能化的品德评价系统,保持人作为评价主体的主体性,是人工智能时代品德评价应该有的基本立场。

(二)确定性和可能性的结合

我们利用人工智能开展品德评价,最重要的诉求之一就是解决当前品德评价的诸多模糊性和随意性问题,让品德评价变得更具有确定性。这样一种关于品德评价的确定性追求显然是合理的,也是必需的。但是,我们也不能因执着于对这种评价确定性的追求,而遗忘了人作为一种可能性存在这一基本事实。尤其是对于成长中的学生而言,不确定恰恰是其存在的最大魅力。正是因为其尚未确定,他们因而有着无限多种的发展可能性。学生品德的发展也同样如此。但是,人工智能作为一种技术,其最大的发展动力就在于追求确定性,试图克服人由于不确定性所可能带来的种种风险和生存焦虑。

从人类技术的发展史来看,几乎每一项新兴技术的出现,都在一个方面增强了人的生活的确定性。大到气候变化的预先判断,小到个人生活的自动化,这个世界因技术的广泛使用而变得越来越有确定性。人的确定性的每进一步,实际上都意味着人的可能性减少一分。而人的可能性的减少就会危及作为主体的人的主动性、能动性和创造性。一旦每个人在智能化的品德评价之下,都被其道德算法规约成了一个在道德上完全确定的人,那么,个体在道德上的可能性和能动性将会受到极大损害,这有可能动摇人之为人的根本。因此,怎样在充分发挥人工智能在品德评价方面的确定性优势的同时,为人的存在的可能性留下必要的空间,是人工智能时代品德评价需要解决的现实问题。对此,有学者就明确提出,德育评价需要回归其本体价值(Ontological value),即德育评价需要回归其培养健全人格的人这一根本目标,将人置于目的而不是手段来看待[11]。这实际上就意味着在品德评价中,“人不应该被当作可估算、可估价的工具性物体”[12],而是应被视为具有个体性和能动性的价值主体。因此,哪怕是人工智能时代的品德评价,也依然要为人的主体能动性留下必要空间。

(三)有所为与有所不为的调适

相比于人的其他素养的评价而言,品德评价是具有高利害性的。个体在智力、身体、审美、劳动等方面的素养欠缺,都不会影响到人之为人的根本问题。比如,我们不会评价一个数学学不好的人不是人,也不会因为一个人审美趣味的低下就斥之为禽兽。只有当一个人的品德修养方面出了问题的时候,人们才会从做人资格的角度去评价他是不是一个人。由此可见,品德评价的高利害性还不仅仅在于外在的声誉或其他利益方面的获得,更是关乎到一个人做人的基本资格问题。这就需要在品德评价方面慎之又慎。

总体而言,虽然技术的进步在很大程度上提升了人工智能的智能化水平,但是人工智能依然处在“弱人工智能”阶段,其未来发展前景还有许多需要破解的技术和伦理问题。在这种情况下,将人工智能应用于具有如此高利害性的品德评价,这一做法就不宜操之过急;人们一方面加大人工智能的技术研究,另一方面则同步加大对其发展边界的伦理研究。没有伦理边界的技术开发与应用是可怕的。这实际上是需要我们在面对人工智能的品德评价应用的时候,要有足够的伦理定力,要有所为而有所不为。有所为,主要指的是品德评价要主动应用新技术、新方法;有所不为,则主要指的是品德评价一定要服务于人的存在状态的优化这一目的,凡是有可能危及人的存在本身的做法,都应该暂缓其在品德评价中的应用。

“评价不是为了证明(prove),而是为了改进(improve)。”[13]人工智能在品德评价中的“可为”,应以人类道德善的“应为”作为其基本的行动边界。我们“永远不要把人工智能摆放在人类‘主体’的位置,必须立场鲜明地将其视为机器”[14]。尤其是在ChatGPT等越来越高度智能化的技术面前,我们更应坚守人的主体地位。这样才能够在充分发挥人工智能的技术优势的同时,尽可能规避其可能给品德评价带来的诸多伦理风险。


参考文献:

[1]肖鸣政.品德测评的理论与方法[M].福州:福建教育出版社,1995:175.

[2]Deleuze,G.Pure Immanence:Essays on a Life[M].New York:Zone Books,2001:31.

[3]梁琨,任依梦,尚余虎,等.深度学习驱动的知识追踪研究进展综述[J].计算机工程与应用,2021(21).

[4][6]邹太龙,刘天琪.大数据支持下学校德育评价的时代转向及其反拨机制[J].中国教育学刊,2021,(12).

[5]贝尔·戈登,戈梅尔·吉姆.全面回忆:改变未来的个人大数据[M].涂犇,译.杭州:浙江人民出版社,2014:59.

[7]宋建宝.欧盟人工智能伦理准则概要[N].人民法院报,2019-04-19(08).

[8]尼采.论道德的谱系[M].周弘,译.北京:生活·读书·新知三联书店,1992:39.

[9]谷学强.搜索引擎中的伦理失范问题与治理研究[J].河南工业大学学报(社科版),2017(06).

[10][14]李子运.人工智能赋能教育的伦理思考[J].中国电化教育,2021(11).

[11]叶飞.回归本体价值的德育评价改革[J].南京社会科学,2022(01).

[12]金生鈜.大数据教育测评的规训隐忧——对教育工具化的哲学审视[J].教育研究,2019(08).

[13]DANIE,L,STUFFLEBEAM.A depth study of the evaluation requirement[J].Theory into practice,1996(03).


Moral Assessment in the Era of Artificial Intelligence: Technological Opportunities, Ethical Risks, and Its Mitigation

Ban Jianwu


Abstract: The inherently contextual, stable, and implicit nature of moral character, coupled with numerous ethical dilemmas in moral assessment, renders it more challenging than other forms of evaluation. The advent of the era of artificial intelligence (AI)presents various technological possibilities for enhancing the scientific and operational aspects of moral assessment. Features of AI, such as “third-person storage,” “digital memory,” “holistic intake,” and “daily existence”, can greatly improve the authenticity of data acquisition in moral assessment. Furthermore, the real-time, evidence-based, and precision aspects of AI assessment hold positive implications for enhancing the utility of moral assessment in education improvement, policy-making, individual development, and other areas. However, it is essential to recognize the ethical risks associated with AI’s application in moral assessment, among which the most significant risk arises from the tension between AI’s algorithmically derived “truth” and the inherent “good” in moral assessment. To mitigate these ethical risks, we must unify algorithmic logic and value logic, combine certainty and uncertainty, and find a balance between what can be done and what can not be done.

Key words: artificial intelligence; moral assessment; algorithmic logic; ethical risks



初审:曹洪家

复审:孙振东

终审:蒋立松




010-123456 jiaoyuxuezaixian@163.com

北京市教育学在线

版权所有 |教育学在线 京ICP备1234567号 在线人数1234人