摘 要:从教育与人工智能在技术层面的契合逻辑出发,教育人工智能伦理面临的三大悖论:主体性悖论、权利悖论和底线悖论。教育人工智能伦理具有基础性、深远性和不可逆性的特点,其伦理准则的构建可参考三种模式:理论应用模式、中层原则模式、决疑案例普遍化模式。无论采用何种模式,破解悖论难题的关键是采用“非人主体说”,永远不要把人工智能摆放在人类主体的位置,必须立场鲜明地将其视为机器;人永远对自己的行为结果负责;人应该尊重自己,相信自己配的上最高尚的东西。只有如此,才不会沦落到与位卑一等的机器纠结伦理问题。
关键词:教育人工智能;教育伦理;技术伦理;主体性悖论;“非人主体说”
人工智能(AI)旨在让人造物“像人一样思考”,以类似于人的方式对外界作出反应,其本质是如何进行认知的问题。AI的演进诉诸于不同认知理论,目前已形成符号主义、行为主义和联结主义三大流派。技术层面上,从早期的侧重经典算法的弱人工智能,到目前关注深度学习的强人工智能。AI可视为人类智能的镜像,折射了人认知活动某些机制和功能,使人的认知间接地成为可以科学研究的“客观”“外在”对象[1],教育正是通过对认知规律的把控,达到增强学习者认知效果和提升认知能力的目的,从而使得对学习者的规训更加精准,当下不少教育技术学学者提倡的计算思维、数据素养就是典型的例子。“技术赋能教育”是当下颇为流行的一句话,毕竟现时代的教育有着诸多让人不满意之处,在技术大爆发的时代,每一个人都受益于技术带来的便利性,技术渗透于社会生活每一个角落,应用于教育具有天然的合理性,人们对技术赋能教育是充满期待的。人工智能不同于一般技术,它携带有他者的意志,其开发应用全面融入了社会价值观[2]。当其介入教育过程时,人与人之间责、权、利关系出现的新变化,可能会产生教师意图之外的结果。人工智能嵌入后,虽然不会像“汽车刹车失灵”那般的显性化,但可能造成个人主体性被无意识侵害或社会权力结构漂移,这类深层次的伦理问题,是人工智能赋能教育的理论和实践研究必须警惕的。
一、教育与人工智能在技术层面的契合逻辑
教育作为培养人的社会活动,从技术学的角度而言,斯蒂格勒称“教育是一套意识形态技术,是一种传输与接受机制的记忆技术,是个体与集体意识塑形及经验时空定位筑模,其主要任务是在思想中进行导向”[3]。人与其它物种的不同之处在于,人的生命历程可以藉由“第三持存”保留下来并遗传下去,这类持存可以超越基因汰选机制,在代际之间传递人类历史的记忆,使人之为人。第三持存是区别于当下体验(即第一持存)和事后意识(即第二持存)的存在,前两类持存无法解决时间性问题,即心理学上所谓的遗忘,于是人类发明了用来表意的符号系统和时间偏倚的存储介质,这个在传播学上看似简单的事实,却引发诸多哲人的关注,海德格尔称之为“世界历史性的物化”,波普尔将物化结果称为“世界3”,其人类学意义在于,使得集体记忆可以被重新激活。教育是社会持存重要的存在方式,在个体层面上以馈赠方式将第三持存个性化,个体天然具有分享人类历史财富的权利,在分享的同时完成自身的社会化,成为社会学意义上的人;在集体层面上,第三持存为人类共同拥有,是人类“必需的多余”。必需,是因为人类发展到技术文明阶段,本能已经退化到无法维持生物人在自然中存活,人类必须依靠不断发展的技术维系自身的生存,技术革命(T-Revolution)取代生物进化(B-Evolution);之所谓“多余”,是因为其增值不过是在填充人的欲壑,而非满足基本生存的需要。尼尔·波兹曼在《娱乐至死》中说,媒介的转换过程中,很多东西并没有得到复制,而是转化成了另一种东西,最重要的那部分东西已经丢失了[4],许多时候,技术更多的是作为一种娱乐性玩物而存在,其所承担宗教、教育和生产的重任不过是一种托辞,至于其维护生存“必须性”更是踪迹杳忽。
麦克卢汉说“一切技术都是身体和神经系统增加力量和速度的延伸”[5],按照这个话语逻辑,我们可以说,人工智能是人的意志的延伸。美国哲学家Hilary Putnam在《理性、真理和历史》一书提出过一个“缸中之脑”的思想实验:将人的大脑移植出来放在一个培养缸里,用一台超级计算机与大脑的末梢神经相连,通过智能系统与其通讯,让其发生记忆、遗忘和思考活动,并对外作出反应[6],我们姑且把这个整体称之为“脑机人”。科幻小说《三体》中有一个人物叫云天明,安乐死之后他的大脑被送到太空,大脑被外星文明复活成一个有自我意识的主体,小说后文有他的诸多神迹,是被读者封神的角色。我们有理由认为,这是人工智能的终极状态,把事物推到极致更容易看清问题的本质,在此情景下分析其可能产生的问题。
第一个问题:我们应该将这个有自我意识的“脑机人”视为一个“人”,还是视为一个“机”?第二个问题:假设缸中保存的是“我”的脑,“我”看到自己的“身体”是一堆机械,我该做何界定自我?第三个问题:假如“我”感知到的一切,都是人们通过计算机虚拟出来的场景,我如何判断周围的世界是真是假?
把此三个哲学问题映射到教育现象中来:首先,任何教育都致力于培养和增强人的智能,尽管没有任何一个教师承认自己视学生为容器,但在教育过程中总是有意无意地向受教育者输送自己认可的知识、思想和观念。虽然很多教师言说自己尊重学生,以学生为主体,但由于他确信自己所追求的是最有价值的,自己所经验的是最真实的,于是越是用心于教育,越表现出强烈的主体性僭越,当学生不认可和不接受自己的理念时,很难做到释怀和毫无怨念。从一定的意义而言,此刻,教师并没有真的将学生视为一个完整的人。
其次,学生在成长的过程中,对自己的身体、自己的课桌、自己的房间有明显的边界意识,但是随着认知领域的不断扩大,自己与世界的边界愈发模糊,直至把自己消解于世界之中。不仅在意识层面上如此,物质层面上也存在同样的情况,物质财富是个体存在的一种方式,学校教育主张个体要回馈和奉献社会。现世的人们,潜意识里也承认并支持主体性的终极消解,日常话语“生不带来死不带去”“众生皆过客”都蕴含着这一思想。
再次,日常话语中有一个使用频率极高的词汇——认真,意指严肃对待,“真”作为价值事物的三种基本类型之一,是指主体认识与客体存在相符合,对“真”的认识、认知和把握,是近现代人们唯一无须为之辩护的追求,严肃对待作为认真的首要含义,就是从此而来。仿真技术赋予了“假”合法性,人对自身的物理感觉、生理感知和心理感受实际上是模糊不清和边界含混的[7],这使得人在物理、生理和心理的感知觉层面难以区分现实和虚拟现实、智能和人工智能,虚实难辨、真假难分将是未来人类面临的新困境。与“认真”相对,会出现一种新的文化形态“尚假主义”文化,用来表征那类超越实体的虚拟世界。
人工智能和教育都关涉人的存在,二者在识别、逻辑推导、经验积累和与环境互动等方面追求趋向一致,人工智能与教育的契合点,同时也是悖论发生之处。人工智能作为新兴技术,其智能直接源自于人,当其与教育发生关联时,又直接作用于人,这个过程中会不会出现类似器官移植和输血一样的排异反应,尚未可知。智能化汽车“刹车失灵”事件的主要原因是,驾驶员和刹车片之间不再是简单的线性关系,其中嵌入了一个刹车智能管理系统。人工智能不同于其它技术,它被允许有一定的自主性。对于教育人工智能而言,这种差异要求教育治理体系必须在柔性的教育道德规范和更具约束力的教育法律规范之间寻找立足点,重建教育人工智能伦理体系。
二、人工智能在教育中应用的伦理悖论
技术体系化以后,人类的生存愈发依赖技术,正如“和平需要由战争来维持”一样,技术的负面效应需要以技术的方式来解决,这种技术自治的后果导致了人类理性的迷失。教育在人类的自我拯救和作茧自缚之间游走,自身沉沦于技术座架又被寄希望作为社会救治的解药。人工智能的介入会增强教育的盲目希翼感,继而必然是巨大无措感。
(一)主体性悖论
智能系统的主体身份陷入失序状态。教育志在引导人们过道德生活,道德生活意味着用理智来指导和控制行动,与自己的共同体和睦相处[8]。智能是道德的基础,共同体生活是道德结构存在的场域,这是伦理学的基本原理。换句话说,没有智能的事物是不会产生道德意识的,智能事物没有共同体生活不会产生道德概念。若干“脑机人”放在一起,通过深度学习可以有智能的演化,但演化的结果会突破现代伦理规则,如微软人工智能机器人Tay由预设“天真型人格”反转为种族主义者,搜索引擎的智能会更大概率上将黑人姓名与犯罪记录联系在一起[9],将农民工与社会底层现象联系起来,人工智能基于大量案例习得这一规律,并将其揭示出来,文明人类会有意识地回避歧视的显性化。人工智能系统缺乏共同体生活,不会产生主体自觉,没有主体自觉就没有主体和他者之分,自然不会产生由己及人的同理心和共在性。
现代伦理无法界定智能演化是“换代”还是“成长”,或许有人不觉得这是个伦理问题,是因为“放在一起”不等于“共同体生活”,共同体生活的重要性在于每个个体都浸润在自我修正的反馈环境中,比如群体中会有“你把聪明劲儿用在正事上好不好”这样的言语,这类反馈使得智能演化是受控的。血亲群体是最典型的共同体生活的形态,其内含一套以辈分为内容的制度。在共同体中生存,辈分关系是每个个体都必须熟悉和遵守的,每个个体都拥有两个自我:个体自我和群体自我,两类自我共同成就完整的主体性。其它所有的社会性群体,基本上都会参照血亲群体构造出类似辈分关系的层级制度。当“脑机人”和学生们组成教育共同体后,学生是否需要给予“脑机教师”像人类教师一样的敬畏和尊重?克隆技术被禁止用于人类,其主要原因,一方面是会产生伦理问题,另一方面是对身体的控制行为比较容易具有故意杀人和故意伤害行为的犯罪特征。这时候问题仅仅出现在身体层面,身体是精神所栖居之舍即精舍,其实栖居于身体之内的那个存在——精神、灵魂、心……才是人之为人的核心要件。至于以何概念指代它,内涵是否完全一致,不是本文讨论的重点,当其以人工智能的形态被客观化出来,之后产生的伦理问题会更难以解决。
目前,部分电子产品里的“小度”“小智”“小爱”“小布”“Siri”等智能系统,多数被孩子们作为戏玩的对象。试想,若有两台分别以学界泰斗N先生和H先生命名的教育人工智能系统,能够进行深度学习,具有自我进化机制,加之真人语音,人们该如何摆置?对于读者诸君,自然可用一个“老师”或“教授”了之,不至于像帝制时代误用不敬之语而因言获罪,但两位先生的硕博士研究生们,还有那些对先生充满崇敬之情的人们,视其为师,还是视其为器?他们的下一代研究生们该称智能先生为师爷么?或许有人读到这个例子时,会迟疑这样的话题是否有对逝者不敬,这恰恰说明,伦理问题在人们潜意识的存在是普遍的和深刻的,心生纠结之绪也是必然的。
(二)权利悖论
传统的技术设计、技术本身以及技术产出的结果,由专利法、产权法作为分配框架,体现出人类借助技术表达能力、表征劳动量及其人际转移关系,对技术的需求界定、流转划分和资源分配已经具备成熟的法律、市场和习俗规则。人工智能的权利关系建立的政治合法性、历史合理性与传统技术不同,主体悖论引发的一个直接性结果就是权利争议。试想,H教授的智能被众弟子将其编程植入教育人工智能系统,研发出“‘H先生’人工智能教育系统”,人工智能从后期的各类交互中学习,即基于外界输入进行自主风险评估并做出决策,由于没有共同体生活,缺少铄金之众口的舆论机制,这种学习会放大人际亲疏和对事物的喜恶偏见,点击概率与叠加传导技术将人类隐微的潜意识言行显性化并强化,非程序设计者所能避免[10]。未来人工智能作品的版权争议将会是棘手的问题,“H先生”认为自己写的论文和教学所产生的收益应该属于“自己”,教育人工智能系统的“造物主”该作何感想?另一方面,倘或该系统在工作中出现了差池,谁的人格、声誉理应为之买单?与此相关的另外一个悖论是教育权问题。人们是否愿意把自己的孩子交给“脑机教师”进行教育?在教育作为社会阶层分筛器,考试文凭作为进阶职场入场券的背景下,对这个问题的回答可能会存在分歧。为了考取理想的大学,牺牲身体健康已经在所不惜,伦理问题变得无足轻重也在情理之中。当必须在目的和手段之间作出选择时,人们对手段的认可和接受往往会让局外人感到不可思议。这个世界上没有哪一条伦理能回避这样一个事实:在无数的情况下,获得善的结果,一个人不得不采取道德上令人怀疑,或者至少有风险的手段。[11]还有,人们在网络中倾向于夸张一点事实[12],一方面是因为这些事实并不直接与自己切身利害相关,另一方面是因为对现实教育的无奈,只能寄希望于未来的可能途径。人们对人工智能的美好期待仍保持高涨的势头,不少人对“脑机教师”持有欢迎和接纳的姿态是可以理解的。
若是在上述问题上存在分歧,不妨再换一个问法:是否有人愿意把自己的婴孩托付给“脑机人”养育?教育主张把人培养成为个性化的主体,强调“成为你自己”,反对把人训练成为工具。“脑机教师”在知识的授递方面被人们接受的可能性,远大于其在育人为人的方面被人们接受的可能性。且不论人们作何选择,这背后隐藏的另一个问题暴露出来了,谁拥有教育权?迈克-波兰尼曾指出,人类知道的远比其能表达出来的更多[13],人类教师长期吟咏斟酌地思考,能表达显性化的不过是冰山一角,但其能在学生愤悱之际介入提点、启发引导,其终极关怀为意义与价值,更重要的是,教师始终以自己的人格作为担保,对自己的言行负责。在这个层面上,无自我意识的智能系统只是一个工具,教育权本质上是人类对自我命运的把控。权利和责任是一对范畴,假若婴儿的健康(且不说人生)出现了偏差,谁该对此负责呢?人工智能的“可追责性”①目前来看是一个大问题。
文明人无不置身于各种知识、思想和问题之中,一旦有闲暇便会思忖生命“终极意义”的有无及其内容。当“价值统一性”幻觉被现实击碎时,只能牢牢抱住价值分裂碎片,求得片刻安宁,犹如沉船事故中抓住一块浮木,把孩子推上浮木或许是人最后的希望,若有人划船经过,人们决然会把孩子推向那个人,而不会想他是什么人。人们更愿意把自己的另一种存在方式即后代抛给人类,而不会选择托付给机器养育。
(三)底线悖论
伦理的本质是人与人之间的关系。东汉经学大师郑玄将其注释为“伦,犹类也;理,分也”[14]。意为一类人与另一类人之间的边界、分野。人工智能的教育伦理,即在教育场域中,人与智能技术的边界及关系。欧盟委员会在2019年发布《人工智能伦理准则》,参与起草工作的德国美因茨大学哲学教授托马斯·梅辛格,对于此准则“没有禁止使用人工智能开发武器”表示批评[15],此批评所反映的就是底线问题。
从个人意愿的角度,技术服务于人类是没有尽头的。技术,包括人工智能,对于个体而言具有无须辩护的意义和价值:保障生存、群体中胜出、加速欲望的实现、提供生活的便利等等。但是,教育研究不仅要从个人的角度来考虑问题,还应当从整个社会的角度来考虑。
当从整个社会和人类的角度再去审视技术,图景截然不同:武器可以保全一个群体,却能毁灭同类;生殖医学可以保护母婴的健康,却消解了自然淘汰机制对人种的优化作用;技术增强了人类改变世界的能力,人类某些功能的退化却是必然的。人类通过技术扩展自身功能的“强化策略”要比单纯生物学变异潜能“进化策略”要强大的多、迅速的多,疫苗的广泛使用就是最好的例证,“自私的基因”决定了文明人不可能为了种的利益而放弃自身的存在[16],自杀和赴死许多时候是为了避免更大“恶”的结果。个体和社会,是观照的技术伦理的两个视点,但若仅从此两点出发,仍不足以充分揭示“边界”的合适位置。人工智能伦理,作为调和未来社会关系的准则,需要考察个体与社会双方对“人之本能欲望”控制权的博弈史。最早,人类和其它动物一样,行为方式完全受本能欲望支配,行为模式刻在基因里,这个阶段,个体掌握着对本能欲望的控制权;在过渡到社会性种群的过程中,个体压制自己的本能欲望,服从群体的意志,典型标志为“约”“理”“道”的出现,即要求凡为人者必须遵守的规则,否则即被逐出群体甚至处死,这个阶段,社会掌握着对本能欲望的控制权;网络技术为人类开辟了另一种存在空间,此空间为人之本能欲望的实现提供了新的可能,原有社会的伦理规则,一则不完全适用于网络空间,二则其发挥作用的控制力量又主要来源于个体,这种情况下,社会对本能欲望的控制就出现空白区。现代人们,经受过文明的洗礼,窃以为,以“善”作为行动的起点即可保障结果的圆满性,岂不知“在通往地狱的道路上铺满了良好的愿望”②。2017年《人民日报》连发三篇评论,对智能平台向用户自动推荐个性化内容的互联网业态提出了批评,指出智能化系统迎合用户趣味,而使得智能平台走向媚俗化[17]。从算法设计者的角度而言,智能化推荐是充分发挥计算机技术优势的创新之举。一位程序员的算法策略犹如“洛伦兹的蝴蝶”,可能会对人类社会产生潜在的、深远的、不可预估的风暴式影响,对其中的因果联解析,其难度恐怕超越了人类的认知极限。人工智能,主观上旨于放大个体(善)的意志,实现服务于社会的目的,客观上,其中携带的欲望成分也会被放大,这部分易于被其他个体所利用,导致欲望的泛滥不羁。人工智能不被禁止使用于开发武器,意味着天地良心的消解,人们可以藉技术之名,任由自己理性的作用,而随便对陌生事物下断语,根据自己的理性去设计行为规范,结果必然是英国历史学家阿克顿所说的那样:很多有良好动机的人干了坏事[18]。犹如英国人把殖民视为向落后地区传播文明。
三、教育人工智能伦理的特殊性、构建路向及核心内容
(一)教育人工智能伦理的特殊性
人工智能伦理作为一般性的社会问题,其核心是不损害“人类”的利益。其困难之处在于,不同的群体会以自身的利益作为人类的利益,不同利益相关方会从各自角度提出相应的准则规范,如何协调统一构建出被整个国际社会认可的伦理框架。不同国家、民族、种族的人们对待亲姻婚配、人类克隆和基因编辑等伦理问题,所持的态度比较相似。但是对于科学技术伦理的构建,不同组织主导的伦理准则,包括像欧盟、G20、经合组织、UNESCO这样国际组织,其工作也难免有失偏颇,如对待核武器、外星文明接触,人们的意见就比较难以统一。此外,人们还会误将短时期的利益作为未来的利益。因此,分散性和时效性是人工智能时代初期伦理准则的必然特征。
教育作为全人类共有的事业,涉及各阶层人群,是最广泛的非赢利性社会活动,教育伦理具有基础性、深远性、不可逆性的特点。教育伦理,包括教育人工智能伦理,其内容并不作为教学材料和教育政策直接进入教育过程,而是以教育价值形态融入教师职业规范、德育评价、教师行为禁忌[19],以隐微的方式协调师生的行为和利益冲突,干预教育制度和政策,保障教育活动在当下和未来的社会系统中顺利有效地开展,既柔性又野蛮地调节着教育与个体和社会之间张力的平衡。
(二)教育人工智能伦理的构建路向
除了符合一般性社会伦理的基本规定,教育人工智能伦理还属于技术伦理的范畴,其构建过程可以参考科技伦理的范式。一般而言,科技伦理的构建有三种模式:理论应用模式、中层原则模式、决疑案例普遍化模式。
理论应用模式采取自上而下的行动路向,从某种形上的伦理观或国家提倡的核心价值观出发,回应具体的技术伦理问题。此模式适用于政府部门具有强力行政权的体制中,在“势在必行”“迫在眉睫”的时候启动运行,以官方文件的形式发布,对相关事态进行监管。教育人工智能伦理问题尚属于未来事件,此模式近期不会启动。
中层原则模式,通常是自觉自发的行动方式,主要由具有学术影响力和前瞻视野的人物提议,由某个组织机构主导,从伦理原则或社会基本诉求出发,审视某类技术的价值内涵、潜在风险,形成相应的伦理规范,成为某个专业、行业的指导原则。著名的“生命伦理学的四原则”就是这么来的[20]。此模式的产出,可以作为政策建议,是政府行政系统的重要智囊。未来教育人工智能准则的出台,走此路向的可能性比较大。
决疑案例普遍化模式是自下而上的路向,社会上出现了影响广泛的真实事件,用现行的法律条文无法调和,如虚拟学生华智冰[21]依靠“自己”的劳动获得了资产,这份酬劳的归属问题;类似的,人工智能作品的版权问题;机器人与人类婚恋问题等。按照现代人们的伦理观念,无论资产还是版权,理应归属该智能系统的开发者或拥有者,此观念隐含的伦理原则是“华智冰不是人”。假设人工智能的发展达到了前文所描述的“脑机人”水平,他是否应该成为道德接受者?是否应该被要求承担责任与义务,这类问题就毋容回避。
人们认识、理解并接受事件背后隐含的伦理原则,需要一个过程,但在特定事件的促逼之下,问题的解决又等不得,此种情况下决疑案例普遍化模式被启动。通过对以往相近案例的收集、比较和分析,将其纳入已有的评判范式中比对,新型价值诉求和已有伦理原则在舆论催化作用下不断杂糅,得出具有普适性的伦理准则。
(三)教育人工智能伦理的核心内容
前文描述的三个悖论有一个共同的内核,即人类对人工智能主体性的认定。人工智能越是接近人们的理想状态,这个问题就越凸显,且不说达到正常人的水平,可以断言:如若能达到一只宠物狗的智能水平,智能机器人足以让大部分人痴迷。
哲学史上对主体的判定可以分为三类:亚里士多德式、康德式和戴维森式[22]。亚里士多德把主体规定为能够审慎思考、拥有实践智慧的存在。“智慧”是人们最寄希望予人工智能的,当然也是人们最怀疑和不愿意承认的地方;至于“审慎思考”,已经不是问题,如各类棋牌博弈软件的算法十分缜密,甚至表现出超越了人类的趋势。用此标准来判定人工智能的主体性,焦点会集中在对“智慧”的理解与界定。教育会维护人类的尊严,拒斥商业性的智慧理解及诸多不严肃的滥用。
康德以自由意志代替实践智慧,将“理性”和“自律”作为判定主体的要件:在自由实践领域,籍由理性能力获得自律方为主体。如博弈机器人能否像棋牌教练那样,在特殊的情境下表现出“承让”。从算法的角度,似乎并不是问题,但是对“特殊情况”的判定可能会超程序员的预估,教练不会一味地打赢学生,示弱以鼓励学生是常有的事。人工智能在理性层面上不存在任何问题,至少在目前的技术水平上,从它不受情感因素的困扰这个角度,可以肯定这一点,但是其“自律”能力就难以把握了。中国俗语“十分聪明用七分,留下三分给儿孙”,且不论俗语的科学性如何,但它所透露的是,人对自我及未来关系的一种理解,通过对自我的掌控,也就是自律,以期与未来发生某种关联。它遵循的是善理原则即寻求内心的宁静,而非真理原则即价值最大化。人工智能的进化,本质上是算法的设计,遵循的是真理原则。如棋牌博弈软件会打败所有的对手,而不论对手是男女老幼、爷孙友朋。教育中存在“陪太子读书”的现象,对先生的“自律”品行有特殊的要求,即便在现实的教育中,教师的自律依然是非常重要的素养。
戴维森将对主体的认定与“行动”及其“原因”联系在一起。他认为,主体的任何行动都是有原因的,其原因是由前态度和相关信念组成的。前态度是指朝向某种行动的意向状态,包括欲望、期待、习俗观念等。而拥有相关信念意味着主体知道、相信、感知到他的行动是前态度朝向的行动[23]。“原因”意味着对“何以如此”的理解与接受,与亚里士多德的“智慧”、康德的“自律”属于相同的主体性范畴。人工智能系统是否会犹豫该不该做某事,是否具有行动的意向性状态,程序员可以在算法上实现让人工智能表现有点“像”,但在可遇见的未来,情感意志的数学模型很难精准建立,智能机器人不会为了父母的期待而刻苦学习,不会“为了中华之崛起而读书”。符合上述三种判定的主体,需要承担相应的道德责任与义务,被人们普遍接受和认可。除此之外,还有一种主体判定的理论,该理论认为,所有的事件都处在因果链条之中,事件最直接的“因”可以被视为主体,如暴雨引发的人类所谓的灾害,导致人死亡,暴雨即是主体。但该主体并不承担我们通常意义上的道德“责任”,它只是自然发生的事件,不具备承担责任的能力[24]。表面上看来,此理论似乎并无太大的价值,既解决不了实际的问题,也未表现出主体性哲学应有的睿智。但恰恰是这个不高明的理论,可以给许多现实的问题一个说辞:野生动物伤人,要不要处死?宠物狗不拴绳恐吓到小朋友,如何划分责任?汽车刹车没有达到驾驶员预期的效果,是非孰应?洪涝疫情导致的损失,是否在理赔范围内?等等。我们称此理论为“非人主体说”,此理论对教育人工智能伦理的构建有很大启发。
首先,永远不要把人工智能摆放在人类“主体”的位置,必须立场鲜明地将其视为机器。科幻电影中,机器人有了人类的情感,当科学家、生产商将其销毁时,赚得了不少观众的眼泪,这是因为彼时机器人代入了观众至亲的主体位置;其次,人永远对自己的行为结果负责,这是教育最核心的伦理观念之一。将暴雨作为主体,意义在于,对不可知事物的祛魅,减少人类对神秘力量的恐惧。驾驶配备人工智能技术的汽车发生了事故,简单地归因于技术缺陷,是不完全合理的。作为能动的、理性的主体,驾驶员应该事先充分熟悉汽车的性能,如果一味地用自己习惯的方式对待新事物,并且指望新事物适应自己,是不理智的。且莫说机器,即便是人,可能也无法完全符合你的意愿。再次,人应该尊重自己,相信自己配的上最高尚的东西[25]。
教育需要提醒人们,退回到位卑一等的动物、智能人造物,并非幸福之路,生命体发展的终极形态是以意识的形态存在,它的发展会加速人类对终极关怀的靠近,这才是最高尚的存在,也是一条无法逃离的不归之路。
四、结语
作为“人造物”,要求人工智能为人类服务是最基本的伦理准则,这一点在任何时候都成立。人工智能和其它工具的差别在于其“自主性”,这种自主性的危险之处是它可能和某个人之间发生有个体意义的关联,而致个体脱序于现实社会。还有,泛在而低廉的存储设备容易检索提取过去的信息,这会彻底打破“记忆”与“遗忘”在人类社会中长期以来维持的平衡状态[26]。当类似的事件达到一定的数量时,就不再是简单的道德问题了,人类就不得不重构已有的伦理体系。
“脑机教师”是教育人工智能的终极形态,它和人们期待的人工智能产品有着相同的本质。人工智能技术包含的计算机、数学、逻辑学、心理学、社会学知识与技术具有无限的拓展空间,人工智能产品也就具有各种发展可能,我们无法断言人工智能的可能形态。在可以预见的未来“脑机人”不会出现,我们可以坦然将人工智能视为机器。因此,对人工智能伦理问题的思考,不可能找到终极宁止点而一劳永逸。从现有的伦理框架出发,做加减法依然是当前最现实的策略。未来,根据人工智能发展的具体水平,制定有针对性的伦理准则为时不晚。
注释:
①欧盟《人工智能伦理准则》七项关键要求之一。即人的自主和监督;可靠性和安全性;隐私和数据治理;透明度;多样性、非歧视性和公平性;社会和环境福祉;可追责性。
②西方谚语,被广泛引用。有的文献标注这句话是塞缪尔·约翰逊(Samuel Johnson,1709-1784)的名言,其实,同时代的卢梭(Jean-JacquesRousseau,1712—1778)在《爱弥尔》中说过这句话。
参考文献:
[1]肖峰.人工智能与认识论的哲学互释:从认知分型到演进逻辑[J].中国社会科学,2020(6):49-71+205-206.
[2]宋建宝.欧盟人工智能伦理准则概要[N].人民法院报,2019-04-19(08).
[3][法]斯蒂格勒.技术与时间3:电影的时间与存在之痛的问题[M].南京:译林出版社,2012:209.
[4][美]波兹曼.娱乐至死.童年的消逝[M].桂林:广西师范大学出版社,2009:66.
[5][加]马歇尔·麦克卢汉.何道宽译.理解媒介:论人的延伸[M].南京:译林出版社,2019:4.
[6][美]普特南.童世骏译.理性,真理与历史[M].上海:上海译文出版社,2005:33.
[7]段伟文.虚拟现实技术的社会伦理问题与应对[J].科技中国,2018(7):98-104.
[8][美]约翰·杜威,詹姆斯·H.塔夫斯.方永译.伦理学[M].北京:商务印书馆,2019:44.
[9]谷学强.搜索引擎中的伦理失范问题与治理研究[J].河南工业大学学报(社科版),2017(6):61-66.
[10]贾开,薛澜.人工智能伦理问题与安全风险治理的全球比较与中国实践[J].公共管理评论,2021(1):122-134.
[11][德]马克斯·韦伯.冯克利译.学术与政治[M].上海:生活·读书·新知三联书店,1998.
[12]David B.Whittier,周梦雅.网络伦理教育与网络心理[J].中国电化教育,2012(3):1-7.
[13]Polanyi,M.The Tacit Dimension[J].Chicago:University of Chicago Press,2009.
[14]蔡元培.中国伦理学史[M].北京:商务印书馆,2012:33.
[15]None.欧盟发布人工智能伦理准则[J].传感器世界,2019,25(4):35.
[16][英]里查德·道金斯.卢允中译.自私的基因[M].长春:吉林人民出版社,1998:33.
[17]人民日报.三评算法推荐[EB/OL].http://opinion.people.com.cn/GB/8213/420650/422761/index.html,2021-07-21.
[18]王永章.过高的道德标准阻碍我们警惕人性之恶[J].人民论坛,2008(13):7.
[19]王正平.以新时代教育伦理道德引导我国教育现代化[J].上海师范大学学报(哲学社会科学版),2020,49(1):71-82.
[20]范瑞平,蔡昱等.关于生命伦理学四原则理论的新讨论[J].中国医学伦理学,2021,34(4):395-407.
[21]新浪科技.对话“华智冰”团队:能力相当于人类多少岁?她会有情感吗?[DB/OL].https://baijiahao.baidu.com/s?id=1702858421890185670&wfr=spider&for=pc,2021-07-25.
[22]Thomas Mowers.On the moral agency of computers[J].Topoi,2013(32):229-230.
[23]Donald Davidson.Actions,Reasons and Causes[A].Essays on Actions and Events[C].Oxford:Clarendon Press,2001.
[24]戴益斌.人工智能伦理何以可能——基于道德主体和道德接受者的视角[J].伦理学研究,2020(5):96-102.
[25][德]弗里德里希·黑格尔.李智谋编译.小逻辑(黑格尔对听众的致辞)[M].重庆:重庆出版社,2006.
[26]邹太龙,易连云.舍恩伯格大数据教育应用思想的伦理关怀[J].中国电化教育,2020(12):55-62.
Ethical Thinking of Artificial Intelligence Empowering Education
Li Ziyun
Abstract:The logic of the fit between education and artificial intelligence at the technical level reveals the three paradoxes facing the ethics of educational artificial intelligence:the Subjectivity Paradox,the Rights Paradox and the Base-line Ethic Paradox.The ethics of educational artificial intelligence is fundamental,far-reaching and irreversible,which regulates the balance of tension between education and individuals and society.The construction of educational artificial intelligence ethics can refer to three models:The Theory Application Model,The Middle Level Principle Model and The Doubtful Cases Generalized Model.No matter which model we choose,the key to solving the paradox problem is to adopt “Non-human subject theory”.We should never regard artificial intelligence as a human subject and must firmly treat it as a machine;Humans can always be responsible for the results of their actions;People should respect themselves and believe that they deserve the noblest things. Only in this way will it not fall into an ethical dilemma with a machine that is inferior to the human being.
Key words:Educational Artificial Intelligence; educational ethics;subjectivity paradox;“non-human subject theory”
责任编辑:宋青青