时间:2023-07-30 10:18:22
序论:好文章的创作是一个不断探索和完善的过程,我们为您推荐十篇人工智能的伦理思考范例,希望它们能助您一臂之力,提升您的阅读品质,带来更深刻的阅读感受。
随着我国教育的迅猛发展,作为科学教育重中之重的小学科学教育逐渐开始被大众所关注,所以探索小学科学教育的新思路已成为教育改革的关键之一。多年来,我国不断借鉴发达国家的教育改革理念与经验,并进行本土化研究,促进我国教育发展。
一、研究背景
HPS教育作为西方20世纪80年代盛行的理论,引入中国已有20余年。作为极其受欢迎的教育理念,凭借着自身优势在中国教育课程改革中占据了一席之地,也为中国科学教育提供了新思路。
(一)HPS的概念界定
HPS的提出源自科学内部对科学反思和科学外部人员对科学本质认识的思考。最初,HPS指的是科学史(HistoryofScience)和科学哲学(PhilosophyofScience)两大学科领域,但在20世纪90年代科学建构论流行后,科学社会学与科学知识社会学被引入科学教育,HPS逐渐演化成科学史(HistoryofScience)、科学哲学(PhilosophyofScience)和科学社会学(SociologyofScience)三者的统称[1]:科学史即研究科学(包括自然科学和社会科学)和科学知识的历史;科学哲学则是对科学本性的理性分析,以及对科学概念、科学话语的哲学思辨,比如科学这把“双刃剑”对人类社会的影响;科学社会学则讨论科学处在社会大系统中,社会种种因素在科学发展过程中的地位和作用,这包括了政治、经济、文化、技术、信仰等因素[2]。在国外,德国科学家和史学家马赫最早提倡HPS教育,突出强调哲学与历史应用至科学教学中的作用。我国HPS相关研究开始晚且研究规模较小,首都师范大学的丁邦平教授认为HPS融入科学课程与教学是培养学生理解科学本质的一个重要途径[3]。
(二)HPS教育理念融入小学科学课程的必要性
运用科学史、科学哲学等进行教学是目前国际上小学科学教育改革的一种新趋势。2017年,教育部颁布的《义务教育小学科学课程标准》标志着我国科学教育步入了新阶段,其不仅要求达成科学知识、科学探究的相应目标,也要养成相应的科学态度,思考科学、技术、社会与环境的融洽相处。该标准提出了“初步了解在科学技术的研究与应用中,需要考虑伦理和道德的价值取向,提倡热爱自然、珍爱生命,提高保护环境意识和社会责任感”。HPS教育与小学科学课程的结合是教学内容由知识到能力再到素养的过程,是小学科学教育的新维度,改变了小学科学课程的教学环境。将科学课程中融入HPS教育的内容,可以帮助学生理解科学本质,研究科学知识是如何产生的,科学对社会的多方面影响以及科学和科学方法的优、缺点等。当《小学课程标准》将科学态度和价值观视为科学教育的有机组成部分时,小学科学课程就有望成为HPS教育的天然载体,同时为小学科学课程渗透HPS教育提出了挑战。目前,我国小学科学课程虽已有部分设计融入了HPS教育理念,但该融入过程仍停留在表面,融入程度低,融入方式单一。所以,研究HPS教育理念融入小学科学课程十分有必要。
(三)HPS教育理念融入小学科学课程的可行性
纵观国内外已有的研究,将HPS教育融入小学科学课程可分为基于传统课堂模式的正式教育课程和基于科技馆、研学机构等的非正式教育课程。由皖新传媒、中国科学技术大学先进技术研究院新媒体研究院、中国科学技术大学出版社三方通力合作、联合打造的《人工智能读本》系列丛书自出版以来已发行八万套,在安徽省多个市区的小学得以应用,是青少年人工智能教育上的一次全新探索。该套丛书分三年级至六年级共四套,涵盖了16个人工智能前沿研究领域知识点,每一节课都设有场景引入、读一读、看一看、试一试4个模块。小学《人工智能读本》作为阐述新兴科技的读本,以亲切的场景对话和可爱幽默的插画等形式吸引了众多小学生的兴趣,不仅可作为学校科学课读本,也可以应用于课外场景。本文则以小学《人工智能读本》为例,对HPS教育进行初步摸索与实践,以期对小学科学教育带来教益。
二、HPS教育理念融入小学科学的典型案例
《人工智能读本》作为HPS教育理念融入小学科学实践的典型案例,侧重引导学生多维度、科学辩证地认识人工智能,内容包括机器学习、决策职能和类脑智能,以及人工智能的不同发展阶段,带领学生思考人工智能带来的伦理问题以及其他挑战,培养学生正确的世界观、人生观和价值观。本研究将以《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”为例,分析HPS教育理念融入小学科学的实践。
(一)科学史:提升课程趣味性
小学科学教育作为培养具有科学素养公众的重要步骤,提升过程的趣味性则十分重要。过去传统的小学科学教育注重知识的传递而忽略了学习过程,填鸭式教学导致学生失去对科学的兴趣与探索欲,不利于公民科学素养的整体提高。而科学史作为研究科学(包括自然科学和社会科学)和科学知识的历史,已经逐渐渗透到科学教育中来。科学史常常介绍科学家的事迹,某一知识诞生所面临的困难和曲折过程,而将科学史融入课程可以带学生重回知识诞生的时刻,切身体会科学。读本作为在小学科学教育中不可或缺的工具,利用科学史内容,以叙事方式可以将科学哲学与科学社会学的思想融入教学过程中,在读本中融入历史,可以提升课程趣味性,帮助学生更加容易探求科学本质,感受科学家不懈努力、敢于质疑的精神,提升科学素养。例如《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”引入部分即以时间顺序展开,介绍人工智能的发展与面临的困境。在“看一看”中机器人索菲亚是否可以结婚的故事不仅为本章节提供了丰富的内容,提升了课程的趣味性,而且还融入了科学与哲学,引发读者对于人工智能的思考。
(二)科学社会学:提升课程社会性
科学社会学是研究一切科学与社会之间的联系与影响,包含科学对社会的影响和社会对科学的影响。科学是一种社会活动,同时也受到政治、经济、文化等多方面影响,比如蒸汽机的诞生表明科学促进社会的发展。在科学教育的课堂中融入科学社会学不仅可以帮助学生理解科学问题,还可以通过介绍科学与社会之间的复杂关系,培养学生灵活、批判看待科学问题的思维能力。如六年级第四单元“人工智能伦理与其他挑战”中,在介绍个人与技术的基础上引入了政府和环境这两个要素,使学生在更宏观的背景下,获得这样一种认知:环境与技术之间有一把“双刃剑”,个人与技术、政府与技术之间是相互促进的主客体关系。《人工智能读本》并不全是说教性质的文字,在“试一试”中的辩论赛环节让同学通过亲身实践,更加了解人工智能对于社会的多方面影响。通过对于科技是一把“双刃剑”这一事实的了解,同学们可以更好地将学习知识与社会的背景联系在一起,深刻体会科学中的人文素养,增强社会责任感。
(三)科学哲学:提升课程思辨性
以往研究发现,国内学科教材中关于科学史和科学社会学内容较多而且呈显性,而对于科学哲学的融入内容不够,且不鲜明。[3]科学哲学融入科学教育无疑可以提升学生的思辨性,帮助学生建立起对于科学正确而全面的认识。例如,《人工智能读本》六年级第四单元“人工智能伦理与其他挑战”中,引入人工智能伦理,通过介绍人工智能面对的挑战、人工智能的具体应对策略,让小学生了解人工智能技术发展的同时也要重视可能引发的法律和伦理道德问题,明白人与人工智能之间的关系以及处理这些关系的准则。通过“读一读”先让学生明白伦理概念,再用一幅画让学生思考在算法的发展下,人类与机器人的关系如何定义,向学生传递树立人类与人工智能和谐共生的技术伦理观。通过这种方式,可以帮助学生逐步建立完整的科学观,全面且思辨地看待科学,提升学生思辨性,进而提升科学素养。
三、HPS教育理念融入小学科学课程的实践建议
《人工智能读本》作为一套理论与实践相结合,具有知识性与趣味性的儿童科普读物,着重引导小学生培养科学创新意识,提升人工智能素养,产生求知探索欲望。但《人工智能读本》作为HPS融入小学科学课程的初始,仍存在教育资源不充分、内容结合较浅等不足,为了将HPS教育更好融入小学科学课程,可从以下三方面加以改进。
(一)开发HPS教育资源
HPS教育需要教育资源的支撑。HPS教育资源来源广泛,无论是学生的现实生活,还是历史资料,都可以提供契机和灵感。《人工智能读本》中收集了大量与人工智能相关的故事和现实案例,都可以作为教育资源,从各个角度达到科普的目的。在新媒体时代,进行HPS教育资源开发时,应当注意借助最新的信息与通信技术增强资源的互动性,如互动多媒体技术、虚拟现实技术、增强现实技术、科学可视化技术等。在传统的科学课堂教学中,主要是通过图片文字讲解,实验演示及互动来开展。这种形式对于现实中能接触到的实验内容,如常见的动植物、可操作的物理化学实验等,比较容易开展。而对于地球与宇宙科学领域的知识,或者一些已经不存在的动植物,则只能通过图片视频进行展示,不容易进行实验展示。通过虚拟现实技术、增强现实技术等,则可以虚拟出世界万物,如不易操作的物理化学实验、已消失的动植物等都可以通过虚拟现实的手段得以呈现。这些技术或能使教学内容变得生动形象,或通过营造沉浸感以使学生有更佳的情境体验,或让学生与教学资源进行交互从而自定义内容,服务于学生科学素养提升的终极目的。
(二)对小学科学教师进行培训
HPS教育的关键是从社会、历史、哲学等角度对自然科学内容进行重新编排,并不是将大量的内容或学科知识简单相加,这对教师能力也提出了更高要求。目前,人工智能教学领域常常出现“学生不会学、老师不会教”的状况,《人工智能读本》作为内容翔实有趣的读本可以弥补一部分缺失。但与此同时,也需要提升教师的教学能力与知识储备。HPS教育理念不仅仅针对历史中的科学人物,所有的学生主体也是历史中的主体,他们也身处于社会中,并且对于生活中的各种科学现象有着自己的思考。所以教师身为引导者,需要注意到学生的思考,深入挖掘,鼓励他们对所思内容进行反思并付诸实践。科学史和科学哲学应当成为科学教师教育项目中的一部分,这能让科学教师更好地理解他们的社会责任。为此,对职业科学教师进行HPS培训便是必要的。
(三)多场景开展小学科学教育
科学素养不是空洞的,它来自学生的认识体验,并从中获得生动、具体的理解和收获。《人工智能读本》作为方便携带的读本,不仅可以在小学科学课堂中作为教材使用,也可以应用在其他场景,如研学旅行、科技馆等场所。课堂学习只是小学科学教育中的一个环节,家庭、科技馆等也可以进行科学教育。例如,科技馆与博物馆可以以科学家和历史科学仪器为主题举办展览,展览中融入HPS教育理念,学生在参观和学习过程中学习有关科学内容。一些历史上大型的科学实验,学校教室或实验室无法满足条件,但在大型的场馆中可以实现。例如,研学旅行作为目前科学教育中最受欢迎的方式之一,已被纳入学校教育教学计划,列为中小学生的“必修课”,正逐渐成为学生获得科学知识的另一个途径。研学旅行作为一种集知识性、教育性、趣味性和娱乐性为一体的旅游形式,通常伴随着知识教育的过程,包括科学知识的普及,所以也是开展小学科学教育的重要场所。在该场景下,运用《人工智能读本》等新兴手段进行科学教育往往取得事半功倍的效果。
结语
目前,HPS教育理念已经积极尝试运用到小学科学教育中,包括学校内的正式学习以及学校外如科技馆、博物馆、研学旅游中的非正式学习之中。其中,科技史以时间维度为线索创造丰富资源的同时也可以提升课程趣味性;科学社会学以科学与社会之间的相互关系帮助学生理解科学本质,提升科学素养;科学哲学则以哲学的视域审视科学的诞生提升学生思辨能力。未来,HPS教育结合小学科学则需要更深入,在资源开发、教师培训以及应用场景等方面加以改进,为提升国民科学素养做出努力。
参考文献:
[1]袁维新.国外科学史融入科学课程的研究综述[J].比较教育研究,2005,26(10):62-67.
[2]张晶.HPS(科学史,科学哲学与科学社会学):一种新的科学教育范式[J].自然辩证法研究,2008,24(9):83-87.
人工智能,Artificial Intelligence,英文缩写AI。在人工智能领域的经典教材,出版于2013年的《人工智能:一种现代的方法(第3版)》中,著名人工智能专家罗素和诺威格从4个方面对人工智能进行了定义,即:能够像人一样思考、像人一样行动、合理地思考、合理地行动的机器。
人机大战只是人工智能开始改变人们生活的一个小例子,事实上,以往只存在于科幻电影的未来世界,正在加速迎面而来,和现实热烈拥抱,甚至让人猝不及防。
“苹果Siri、新闻阅读软件、在线翻译等,都是人工智能技术的代表。”为人工智能摇旗呐喊的不止创新工场创始人李开复一人,微软CEO萨提亚・纳德拉、谷歌CEO桑达尔・皮查伊、百度创始人李彦宏、物理学家斯蒂芬・威廉・霍金……但凡人们叫得上名号的科技公司巨头、计算机科学家无不在向人们诉说着同样一个事实,“人工智能引领的第四次技术革命已经进入爆发的前夜”。
聚焦今天这个时间点,人工智能最耀眼的还是商业化的起步。随着国外科技大佬对于人工智能各种应用场景的开发,国内互联网三巨头BAT也在加速布局,一场真正的AI商业化战争,已经蓄势待发。
整个人类社会的文明史就是一部不断创造的历史。现在人类所有的一切进步无不得益于各种各样大大小小的创造活动。人类逐渐认识到创造带来的巨大福祉,创造、创新成为当今时代的主旋律。同时,不应忽视的是创造与道德的关系问题也日益凸显。我国实施创新驱动发展战略,创造与道德的关系问题的重要性、紧迫性不断显现。科学认识与正确处理创造与道德之间的关系问题,推进中国传统道德的创造性转化、创新性发展,形成有利于创造的良好道德风尚,既是进一步推进“大众创业,万众创新”蓬勃发展的需要,也是构建社会主义和谐社会的需要,还是实现中华民族伟大复兴“中国梦”的需要。
一、创造与道德关系问题的提出
从茹毛饮血到煎烤蒸焖,从树穴洞居到高楼大厦,从刀耕火种到机械化作业……每一次人类社会的进步和发展都离不开创造。尤其是近代以来,“科学技术是第一生产力”,创造推动整个人类社会突飞猛进、日新月异。计算机网络技术的迅猛发展对人类生活产生影响之广与深前所未有,当今世界已经成为一个创新的世界,当今时代也已成为一个创新的时代。为了实现中华民族的伟大复兴,中国顺应潮流掀起“双创”热潮。但是,伴随科技与创造的发展,某些挑战人类道德的事件也时有发生,使人们不得不对创造进行更为深入的思考。如,美国“9・11恐怖袭击事件”中,劫持飞机,并以飞机当武器撞击美国纽约世界贸易中心和华盛顿五角大楼;国内屡屡曝光“地沟油”回收加工重新流回餐桌、“皮鞋酸奶”等危害食品安全事件,等等。在谴责这些不法分子的同时,我们不得不思考这算不算创造?这些恶性事件可不可以避免?创造与道德有关吗?它们之间究竟是什么样的关系?
创造是人类社会永远向前的动力。人们在享受创造所带来的福利的同时,也遇到了伦理道德方面的复杂问题。早在19世纪,马克思就有深刻的论述,他说:“在我们这个时代,每一种事物好像都包含有自己的反面。我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳。财富的新源泉,由于某种奇怪的、不可思议的魔力而变成贫困的源泉。技术的胜利,似乎是以道德的败坏为代价换来的。随着人类愈益控制自然,个人却似乎愈益成为别人的奴隶或自身的卑劣行为的奴隶。甚至科学的纯洁光辉仿佛也只能在愚昧无知的黑暗背景下闪耀。我们的一切发现和进步,似乎结果是使物质力量成为有智慧的生命,而人的生命则化为愚钝的物质力量。现代工业和科学为一方与现代贫困和衰颓为另一方的这种对抗,我们时代的生产力与社会关系之间的这种对抗,是显而易见的、不可避免的和毋庸争辩的事实。”不可否认,20世纪以来的创造,如飞机、计算机、手机等,让我们感到舒适、便利和安逸的同时,也出现了类似马克思所论述的情形,带来了许多不容忽视的问题。正如组织曼哈顿工程的奥本海默,起初满怀激情地从事原子弹的研制工作.但当原子弹试爆成功后,他感到自己成为释放魔鬼的人,此后这种内疚心理一直伴随着他。许多参与曼哈顿工程的研究者都曾感到良心的不安、自责,并对其道德伦理责任有了更为深刻的领悟。创造者在创造活动中不可避免地面临伦理道德的冲击,承担着无可规避的道德责任。1949年国际科学协会联合理事会通过的《科学家》对科学家的义务和责任作了明确规定:最大限度地发挥科学家的影响力,用最有益于人类的方法促进科学的发展,防止对科学的错误利用。
随着现代科技的迅猛发展,创造已经成为当今时代的主题。环境污染、黑客袭击、克隆实验、核威胁、基因改造以及不可再生资源的无节制消耗等也悄然而至。人类逐渐认识到,由于科学技术高度的社会化,高速的商品化、产业化和全球化,自身所隐含的对人、自然和社会的积极的正价值和消极的负价值空前显著,导致了大量新的伦理道德问题的产生,如环境伦理、太空伦理、网络伦理、核伦理、生命伦理、生态伦理、基因伦理等。作为着重研究解决现实社会生活中道德问题的应用伦理学,其中就内在地包含创造与道德的关系问题研究。
当今,人工智能方面的创造一直是一项备受争议的议题。据《华尔街日报》网络版报道,2015年霍金等上百位专业人士,号召禁止人工智能武器的开发。公开信称,如果任何军事力量推动人工智能武器的开发,那么全球性的军备竞赛将不可避免。人工智能武器不像核武器一样需要高昂的成本和难以获得的原材料,一旦开发,人工智能武器很容易在各军事力量中普及。所以,人工智能武器可能将在数年内,而非数十年内就能实现。他们表示,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这更甚于“控制人口数量的意义”。这一公开信事件表明,人类已经自觉意识到人工智能在给人类带来巨大利益、造福人类的同时,也存在着巨大的潜在风险。人工智能一旦失控,就像打开“潘多拉之盒”,人工智能武器会对人类构成致命威胁,导致人类自身灭亡。人工智能问题的热议进一步表明.创造与道德的关系问题是关系人类发展与生存的根本问题,人类必须正确处理好创造与道德的关系,以避免或减少对人类社会的生存与发展造成灾难与伤害。
陶行知说:“处处是创造之地,天天是创造之时,人人是创造之人!”当今中国,创造已经成为主旋律、最强音。全国上上下下、各行各业,无时无刻不在从事着各种各样的创造活动。如若不能正确处理好创造与道德的关系问题,层出不穷的伦理道德危机与社会危机不仅会阻碍创新创业的繁荣发展,更有可能危及人们的安全、健康和福祉。创新的中国,迫切呼唤着对创造与道德关系研究的深入与发展。
中图分类号:TP18 文献标识码:A 文章编号:1007-3973(2013)001-085-03
1引言
人工智能(Artificial Intelligence,AI)自从20世纪50年代产生,经过长期发展,已经有了长足的进步,并且已经深入到社会生活的诸多领域,如语言处理、智能数据检索系统、视觉系统、自动定理证明、智能计算、问题求解、人工智能程序语言以及自动程序设计等。随着科学技术的不断发展,现在的人工智能已经不再是仅仅具有简单的模仿与逻辑思维能力,人们也越来越期待人工智能能够帮助或者替代人类从事各种复杂的工作,加强人的思维功能、行为功能或是感知功能。这就要求人工智能具有更强的情感识别、情感表达以及情感理解能力。通俗的说,为了使得人工智能对外界的变化适应性更强,需要给它们赋予相应的情感从而能够应对这个难以预测的世界。
在赋予人工智能“情感”的过程中,面临着许多的问题,有科技层面上的,也有社会学层面的。本文在这里只讨论其中一个比较基本的社会学问题:“人工智能情感约束问题”,即关注于如何约束赋予给人工智能的情感,不至于使其“情感泛滥”。情感指的是一种特殊的思维方式,人工智能具有了情感后的问题是:人工智能的情感是人类赋予的,人工智能自身并不会创造或者控制自己的情感。如果赋予人工智能的情感种类不合理,或者是赋予的情感程度不恰当,都有可能造成“情感泛滥”并导致一些灾难性的后果。例如,当人工智能具有了情感之后,如果人类自身管理不恰当,有可能导致人工智能反过来伤害人类。尽管目前我们只能在一些科幻作品中看到这种情况发生,但谁也不能保证未来有一天会不会真的出现这种悲剧。
本文第二章对人工智能情感研究进行了概要性回顾,第三章对如何约束人工智能情感进行了尝试性探讨,最后一章对全文进行了总结。
2人工情感发展情况概述
随着科学家对人类大脑及精神系统深入的研究,已经愈来愈肯定情感是智能的一部分。人工情感是以人类自然情感理论为基础,结合人工智能、机器人学等学科,对人类情感过程进行建模,以期获得用单纯理性思维难以达到的智能水平和自主性的一种研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感机器识别与表达、人工情感机理等四个方面的内容。其中,尤以人工情感机理的研究困难最大,研究者也最少。
目前人工情感在很多领域得到了应用和发展,比较典型的是在教育教学、保健护理、家庭助理、服务等行业领域。在教育教学方面比较典型的例子是德国人工智能研究中心发展的三个方案:在虚拟剧场、虚拟市场和对话Agent中引入情感模型和个性特征来帮助开发儿童的想象力及创造力。在保健护理方面比较典型的是家庭保健与护理方向,如Lisetti等人研制的一个用于远程家庭保健的智能情感界面,用多模态情感识别手段来识别病人的情感状态,并输入不同媒体和编码模型进行处理,从而为医生提供关于病人简明而有价值的情感信息以便于进行有效的护理。服务型机器人的典型例子是卡内基梅隆大学发明的一个机器人接待员Valerie。Valerie的面孔形象的出现在一个能够转动方向的移动屏幕上时可以向访问者提供一些天气和方位方面的信息,还可以接电话、解答一些问题;并且Valerie有自己的性格和爱好,情感表达较为丰富。当然这些只是人工情感应用领域中的几个典型的例子,人工智能情感的潜力仍然是巨大的。
尽管关于人工情感的研究已经取得了一定的成果,给我们带来了很多惊喜和利益,但由于情绪表现出的无限纷繁以及它与行为之间的复杂联系,人们对它的运行机理了解的还不成熟,以致使得目前人工情感的研究仍面临着诸如评价标准、情感道德约束等多方面问题。所以必须清楚的认识到我们目前对于人工情感的计算乃至控制机制并没有一个成熟的体系。
3对人工智能的情感约束
正如上文所述,如果放任人工智能“情感泛滥”,很有可能会造成严重的后果。为了使人工智能技术更好的发展,使智能与情感恰到好处的结合起来,我们有必要思考如何对赋予人工智能情感进行引导或者约束。
3.1根据级别赋予情感
可以根据人工智能级别来赋予其情感,如低级别人工智能不赋予情感、高级别人工智能赋予其适当的情感。众所周知,人工智能是一门交叉科学科,要正确认识和掌握人工智能的相关技术的人至少必须同时懂得计算机学、心理学和哲学。首先需要树立这样的一个观点:人工智能的起点不是计算机学而是人的智能本身,也就是说技术不是最重要的,在这之前必须得先解决思想问题。而人工智能由于这方面没有一个严格的或是量度上的控制而容易出现问题。从哲学的角度来说,量变最终会导致质变。现在是科学技术飞速发展的时代,不能排除这个量变导致质变时代的人工智能机器人的到来,而到那个时候后果则不堪设想。因此,在现阶段我们就应该对人工智能的情感赋予程度进行一个约束。
根据维纳的反馈理论,人工智能可以被分成高低两个层次。低层次的是智能型的人工智能,主要具备适应环境和自我优化的能力。高层次的是情感型的人工智能,它的输入过程主要是模仿人的感觉方式,输出过程则是模仿人的反应情绪。据此我们可分别将机器人分为一般用途机器人和高级用途机器人两种。一般用途机器人是指不具有情感,只具有一般编程能力和操作功能的机器人。那么对于一般用途的机器人我们完全可以严格的用程序去控制它的行为而没必要去给他赋予情感。而对于高级层面的情感机器人来说,我们就适当的赋予一些情感。但即使是这样一部分高层次的情感机器人,在赋予人工情感仍然需要考虑到可能会带来的某些潜在的危害,要慎之又慎。
3.2根据角色赋予情感
同样也可以根据人工智能机器人角色的不同选择性的赋予其不同类型的情感。人类与机器合作起来比任何一方单独工作都更为强大。正因为如此,人类就要善于与人工智能机器合作,充分发挥人机合作的最大优势。由于计算机硬件、无线网络与蜂窝数据网络的高速发展,目前的这个时代是人工智能发展的极佳时期,使人工智能机器人处理许多以前无法完成的任务,并使一些全新的应用不再禁锢于研究实验室,可以在公共渠道上为所有人服务,人机合作也将成为一种大的趋势,而他们会以不同的角色与我们进行合作。或作为工具、顾问、工人、宠物、伴侣亦或是其他角色。总之,我们应该和这些机器建立一种合作互助的关系,然后共同完任务。这当然是一种很理想的状态,要做到这样,首先需要我们人类转变自身现有的思维模式:这些机器不再是一种工具,而是平等的服务提供人。
举例来说,当机器人照顾老人或是小孩的时候,我们应该赋予它更多的正面情绪,而不要去赋予负面情绪,否则如果机器人的负向情绪被激发了,对于这些老人或者小孩来说危险性是极大的;但是,如果机器人是作为看门的保安,我们对这种角色的机器人就可以适当的赋予一些负向的情绪,那么对于那些不按规则的来访者或是小偷就有一定的威慑力。总之,在我们赋予这些智能机器人情感前必须要周到的考虑这些情感的程度和种类,不要没有顾忌的想当然的去赋予,而是按分工、作用赋予限制性的情感约束,达到安全的目的。
3.3对赋予人进行约束
对人工智能情感赋予者进行约束,提高赋予者的自身素质,并定期考核,并为每一被赋予情感的人工智能制定责任人。
纵观人工智能技术发展史,我们可以发现很多的事故都是因为人为因素导致的。比如,首起机器人杀人案:1978年9月的一天,在日本广岛,一台机器人正在切割钢板,突然电脑系统出现故障,机器人伸出巨臂,把一名工人活生生地送到钢刀下,切成肉片。
另外,某些研究者也许会因为利益的诱惑,而将人工智能运用在不正当领域,或者人工智能技术落入犯罪分子的手中,被他们用来进行反对人类和危害社会的犯罪活动。也就是用于所谓的“智能犯罪”。任何新技术的最大危险莫过于人类对它失去控制,或者是它落入那些企图利用新技术反对人类的人的手中。
因此为了减少这些由于人而导致的悲剧,我们需要对这些研究者本身进行约束。比如通过相应的培训或是定期的思想政治教育、或是理论知识的学习并制定定期的考核制度来保证这些专家自身的素质,又或者加强对人工智能事故的追究机制,发生问题能立即查询到事故方等等,通过这样一系列强有力的硬性指标达到减少由于人为因素导致悲剧的目的。
3.4制定相应的规章制度来管理人工智能情感的发展
目前世界上并未出台任何一项通用的法律来规范人工智能的发展。不过在1939 年,出生在俄国的美籍作家阿西莫夫在他的小说中描绘了工程师们在设计和制造机器人时通过加入保险除恶装置使机器人有效地被主人控制的情景。这就从技术上提出了预防机器人犯罪的思路。几年后, 他又为这种技术装置提出了伦理学准则的道德三律:(1)机器人不得伤害人类,或看到人类受到伤害而袖手旁观;(2)在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;(3)在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。这一“机器人道德三律”表现了一种在道德忧思的基础上,对如何解决人工智能中有害人类因素所提出的道德原则,虽然得到很多人的指责,但其首创性还是得到公认的。尽管这个定律只是小说家提出来的,但是也代表了很多人的心声,也是值得借鉴的。
那么对于人工智能情感的约束呢?显然,更加没有相应的法律法规来规范。那么,我们就只能在赋予人工智能情感的道理上更加的小心翼翼。比如,我们可以制定一些应急方案来防止可能导致的某些后果,也即出现了问题如何及时的处理之。另外我们在操作和管理上应更加慎重的去对待。也希望随着科学技术的发展,能够在不久的将来出台一部相应的规章制度来规范人工智能情感的管理,使之更加精确化、合理化。
4结束语
人工智能的情感研究目的就是探索利用情感在生物体中所扮演的一些角色、发展技术和方法来增强计算机或机器人的自治性、适应能力和社会交互的能力。但是现阶段对这方面的研究虽然在技术上可能已经很成熟,但是人工智能情感毕竟是模拟人的情感,是个很复杂的过程,本文尝试性的在人工智能发展中可能遇到的问题进行了有益的探讨。但是不可否认仍然有很长的道路要走,但是对于人工智能的发展劲头我们不可否认,将来“百分百情感机器人”的问世也许是迟早的事情。
参考文献:
[1] 赵玉鹏,刘则渊.情感、机器、认知――斯洛曼的人工智能哲学思想探析[J].自然辩证法通讯,2009,31(2):94-99.
[2] 王国江,王志良,杨国亮,等.人工情感研究综述[J].计算机应用研究,2006,23(11):7-11.
[3] 祝宇虹,魏金海,毛俊鑫.人工情感研究综述[J].江南大学学报(自然科学版),2012,11(04):497-504.
[4] Christine Lisett,i Cynthia Lerouge.Affective Computing in Tele-home Health[C].Proceedings of the 37th IEEE Hawaii International Conference on System Sciences,2004.
[5] Valerie.The Roboceptionist[EB/OL].http://.
[6] 张显峰,程宇婕.情感机器人:技术与伦理的双重困境[N].科技日报,2009-4-21(005).
[7] 张晓丽.跟机器人谈伦理道德为时尚早[N].辽宁日报,2011-11-04(007).
[8] Peter Norvig.人工智能:机器会“思考”[J].IT经理世界,2012(Z1):331-332.
中图分类号:J905 文献标识码:A 文章编号:1005-5312(2013)20-0140-01
一、科幻世界
影片为我们营造了一个未来的、虚构的科幻世界。无论是影片伊始科学家们在研究室里展示新型人工智能机器人,讨论“能够疼爱父母”的机器人小孩,还是对未来世界和未来“人类”的构想与描绘,都是对科学、对科技的大胆假设。影片中对高科技的彰显,可谓让人应接不暇。
在影片虚构的未来世界里,人工智能机器人为人类提供了各种各样的服务,他们拥有与人类一样的外形,有思想、有意识甚至有爱有疼痛。他们与人类一样来自各行各业,为社会为人类的发展提供服务。这一切都是对人工智能这门科学发展到现阶段的美好展望。
影片中对冰封2000年后的“未来”的描绘一样让我心旷神怡。未来人类的形象、智慧,未来世界的境况似乎都凌驾于现实之上又以优越于现实的形式而存在,这一切都显示了科幻的美好。
二、伦理困境
观影过程中我常有这样一种想法:《人工智能》与其说是一部科幻片,不如说是一部极具科幻色彩的。《人工智能》对伦理的思考用蒙太奇的手法通过几个镜头的表达层层推进。第一个镜头是大卫被马丁激怒吞食菠菜。第二个镜头是大卫与马丁落水后被遗弃游泳池的画面。第三个镜头则是大卫被莫妮卡永远地抛弃时的情景。
莫妮卡和亨利选择了机器孩子大卫替代自己沉睡不醒的孩子马丁,起初莫妮卡十分的抵触、反对,大卫的人工智能系统也未被激活,他的行动例如大笑声都十分僵硬的,直至莫妮卡决定接受他并且说出了激活码的瞬间,大卫喊出了“妈妈”这个让人心碎的单词。大卫是机器,马丁是人,他鄙视大卫,在马丁的眼中,大卫仅仅是一个新开发的。马丁时刻压迫着大卫作为一个“人”所应有的那份权利。斯皮尔伯格用了大量的细节镜头来表现这种人与机器人之间的不平等性。
影片中对《机器屠宰场》的描绘是矛盾冲突的一个顶点。与人类有着类似外形的机器人以种种酷刑和死亡为代价为人类进行表演。机器人的形象与真人相似度极高,这样的画面让我想起纳粹对犹太人的屠杀同类的情景。在这里,影片似乎在昭示:我们生活的现实世界比电影残酷得多。且不论其他生物,每年有多少孩子在饥饿中丧生,在病痛中,但只因为他是黑人、是孤儿、是残疾,我们就悄悄地背过头,把自己的疼痛感应器关掉了。
三、爱的轮回
1958年,10位美国年轻的学者在一起研讨,正式提出人工智能这个概念。
人工智能经过了60年曲折的发展,有过令人兴奋激动的时刻,也有令人非常沮丧的时刻,现在到了一个新的,这是没有异议的。
特别值得一提的是,专用人工智能领域取得了突破性进展,今年,阿尔法狗是标志性之一,包括竞赛性能的不断提高,特别是在测试中已经超越人。
新版的人型机器非常的震撼人心,在地面上走,尽管歪歪扭扭,但走得还很稳;还有自动驾驶汽车,在雪地里,也可以走得很好;语音识别,这是科达讯飞一个典型的语音识别的例子,效果非常好;人脸识别,尽管还有一些挑战,但是这几年还是不错的。
专用人工智能确实取得了突破性的进展,但人工智能的研究与应用依然任重道远,要在通用人工智能方面取得巨大突破还需要尽洪荒之力,曾经有四句话描写了人工智能目前的水平,有智能没智慧,有智商没情商,会计算不会算计,有专才无通才。
另外,人工智能产业化应用也有了很好的发展,2015年全球人工智能市场规模为1270亿美元,今年预计1650亿美元,到2018年预计超过2000亿美元,发展非常之快。目前,人工智能已经上升到国家战略高度。过去一年人工智能领域的十件大事
过去的一年里,人工智能领域有很多新的变化。
第一项,阿尔法狗。
第二项,各国政府高度重视人工智能发展,包括今年5月份美国白宫举行的4场研讨会。
第三项,IBM类脑超级计算机平台,是基于前几年的芯片。
第四项,软银320亿美元收购ARM,这是很大的收购。
第五项,谷歌、facebook等开源人工智能基础平台反映了一个趋势和动向。
第六项,创建公益性的人工智能机构OpenAI。
第七项,在学术方面,Science发表Bayesian Program 论文。
第八项,微软深层残差网络夺冠2015年ImagnNet。
第九项,谷歌量子计算机取得重要突破,为人工智能计算搭建了一个平台。
第十项,剑桥大学成立了人工智能伦理研究所。
怎样通过这个标志性事件看目前人工智能发展的状态,我将其概括成十段话。
人工智能十大趋势动态
第一,人工智能热潮全球化,从东方到西方,从发达国家到发展中国家,从大国到小国,都掀起了热潮。
第二,产业竞争白热化。
第三,投资并购密集化,过去一年的收购、投资,数不胜数。
第四,人工智能应用普适化,开始向各个领域渗透。
第五,人工智能的服务专业化,一个是研究通用化的人工智能,一个是专业化的人工智能。
第六,基础平台开源化,包括IBM、谷歌开源的平台,是过去一年特别明显的一个新的特征。
第七,关键技术硬件化,包括IBM的类脑计算平台。
第八,技术方法集成化,单一的人工智能计算理论和方法不可能包打天下,集成创新势在必行,阿尔法狗里集成了很多。
第九,学科创新协同化,多学科跨界融合交叉协同创新人工智能创新途径,其中包括量子技术跟人工智能的结合。
第十,社会影响大众化。
人工智能未来发展五大思考
第一,要保持警醒。热潮下面尤其需要冷思考,阿尔法狗在围棋上的表现,确实提高了人们对人工智能的期望,但是对人工智能希望太高,如果没有实现就会非常失望。过去60年中我们有很多这样的教训,在热潮下尤其需要冷静的思考,有就一定会有低谷,这是发展的客观规律,而任何一个时段不可能一直蓬勃,所以一定要保持冷思考。引用最新的新兴技术成熟度曲线。智能机器人、认知等热门技术正处于期望膨胀期,接下来可能是幻灭期,所以需要我们冷静的思考。
第二,切忌跟风。我认为跟风难有大作为,这几年风口热好像说得很多,找风口不如找关口,发展的瓶颈在哪里,突破瓶颈就可能开创一个新天地,抢占先机,大家不要再跟风。
第三,不忘初心。对于人工智能来说是不忘初心继续探索,回归人工智能的本原,是要解决什么问题,别走偏了。所以从研究的内容到研究的目的,在回归本原的过程中尤其要记着,信息科技与脑类科技的交汇,人脑智能机理的挖掘孕育着信息科技的重大变革。
第四,苦练内功。重视前沿基础理论研究,现在是家喻户晓,但是大家不要忘记不是那么火爆的时候在干什么,一直坚持,才有深度学习的今天,所以苦练内功很重要,不能被当下的热点一叶障目。深度学习不等于AI,深度学习只是人工智能领域机器学习方向的一种方法,尽管现在效果很好,确实需要思考如何克服这个瓶颈,人工智能发展的下一个关口在什么地方。深度学习的成功不是理论方法的突破,而是在大数据和大规模计算资源驱动下的基于基础理论的技术突破,其本质是通过映射对复杂函数进行逼近。
深度学习依旧存在明显的局限性,尤其在任务的切换和对环境变化自身完善、对小样本的举一反三等方面,人工智能与人类还是相差甚远。
第五,以史为鉴。丘吉尔说你能看到多远的过去,你就能看到多远的未来,你过去看的有多深,你对未来才能看得有多准,我认为是有道理的,所以这个时候就需要我们做一个思考。从浅层智能到深层智能;从专用人工智能到通用人工智能;从机器智能到混合智能;从数据驱动到数据和知识协同驱动;从线下智能到云上智能;从网下到网上。
人工智能在中国的发展
这些具体的趋势实际上都反映在整个社会化大趋势上,智能化是新一轮科技与产业革命的最显著特征。
我们国家发展有很多机遇,天时地利人和,当然也有挑战,我们的战略思维、冒险精神还不够,所以要思考这些问题,人工智能如何更好地服务社会。
“未来”作为一个时间概念,在人类的思想意识里一直都是前置的。几乎所有人都知道,对于自己来说,“未来”是无可选择的选择。所以,每个人都对未来抱有美好的憧憬和无限的期待。如果您认真阅读了《撞见未来》这本书就能体会到,在从猿类动物开始到人类长期的进化中,在今天,时间概念的“未来”已经走到了尽头,“未来”也许从此不再仅仅属于人类。我们面对的未来再也不是把今天当做起点的时间的射线,而是对各种概念、思想、意识进行完全的重构和解构的宏大场域。在这个场域里,一切都将被重新定义,包括我们人类,包括即将出现的人工智能概念下的超人,等等。从此,世界将不再是我们的,而是“未来”的。
时间概念的历史就像是一个平衡木,几千年来人类在上面艰难舞蹈。虽然常常忽左忽右,战战兢兢,甚至波折颇多,但今天我们终于走到了平衡木的尽头。在这平衡木的尽头,人类只要存在就不能自由滑落,而是必将如滑行到一定速度的飞机一样腾空而起,舍弃时间,舍弃历史,奔向“未来”。毫无疑问,信息技术、人工智能和量子科学把我们已经带到了这样一道门前,门前是我们,门后就是未来。作者初次谈到《撞见未来》的时候,把它定义为关于未来学的著作。从他的努力来看,作者用洪荒之力和惊天勇气将信息技术、人工智能和量子科学等一系列新科技知识和概念聚合起来,作为他书中的“未来”的“起点”。
在人类所认知的范围内建立的逻辑和伦理体系中,人类在这个世界长期占有统治地位,概念、思想和意识几乎是全人类的私属财产,这已经成为一种普遍认同的客观和自然。当宇宙伦理和更新的科技逻辑摆在大家面前,成为大家思考问题的依据的时候,人类在伦理上的优势地位是否还能确保?这成了一个现实的问题。我是谁?我来自哪里?这些将不再是人类的自我追问,而是超人的来自未来的隔空喊话。作者试图把这喊话尽可能清晰准确地传给我们现在的人类,但人类从来没有有意识地试图把一些喊话传给这个现实世界的其他生物。所以,我们和地球上的其他生命从来就没有建立真正的共生关系。而今天,在人类即将走进未来场域的时候,我们需要和未来的一切共生、永生。
跨出这一步,进入共生和永生的人类最终将把时间和历史从我们的头脑中抽离,成为一种现实的物质。从此,人类不再慌张地一直奔跑在“未来”的身后,而是在“未来”的场域里舞蹈、歌唱。过去我们太慌张,经历了太多的战争、瘟疫,承受了太久的饥饿、匮乏。现如今,《撞见未来》告诉我们这一切都将改变,作者系统分析了可再生、可分享、可替代等“七可”,为大家描述了一个思想和意识之外的全新世界。这个世界是我们人类新的家园吗?在这个世界里的人类还将是不是今天的人类?我们在“未来”身后观望,却无法冷静,被这种疑惑紧紧伴随。
人类到底相信不相信未来
好R坞等机构的大制作下出品的各类著名灾难片等等,超炫的未来描述和表现,让太多人类几乎都患上了未来恐惧症。这使人分化成两类:一种是彻底的虚无主义者,从来不相信有什么实在的未来,他们眼里的未来就是即将到来的明天,后天好像就与他们再无任何关系。一种是或轻易或全身心地把未来交给上帝的人。不管是信众眼里的上帝还是牛顿眼中的上帝,这些人都将面向他托付自己的灵魂和终生。在人类历史中,对于这个问题几乎从无可解,更无中间路线可行。毫无疑问,这两类人都不是“未来”的信徒,前一种人的“未来”只是他们预期的享乐,后一种人的“未来”只是他们心目中的想象。
《撞见未来》一书试图找到这样一条途径,尽力把靠近真实的未来呈现在所有人面前。这是很困难的事情,于是作者就从他对全球能源互联网的思考和探讨,从他在学习和工作中的积累与沉淀出发,行囊里装上信息科技、人工智能和量子科学等概念,走向未来。作为未来学概念下的研究成果,《撞见未来》里面显然运用了许多预测手段。这些预测不是凭空而来,而是来自于作者系统的学习和长期的探讨、思考。从《撞见未来》的系统表达来看,这种思考已经自成体系,能够启发人的心智,使人有能力、有胸怀去领悟未来。
在这个体系里,《撞见未来》的第一部分提到的“七可”源自具体,带来的却是颠覆,比如可再生、可替代、可预测、可分享等等,显然超出了我们现有的理论体系和认知能力。虽然作者对此给予了很技术很系统的解释,但让人实实在在地信以为真,恐怕还有很长的路要走。我们的生活真的可以是这个样子吗?在更多人无法克服对未来的怀疑与恐惧的情况下,怎么去验证它呢?面对这个问题,作者在书的第二部分给出了答案。这一部分的题目叫人类的解放事业。确实是,科技解放了人类,在这场行走中信息技术的传播是第一功臣。那么解放之后是什么样子?必然带来自我的重生、经济的革新、政治的重构、文化的转型等等。
《撞见未来》的第三部分指出了未来场域下人所面临的机遇和挑战,这也许是人类面临的最后一次最为宏大悲壮的选择。最终,人类要么成为超人,要么被超人替代,从而进入被选择的未来时空中。其实,在人类甚至生物历史上,这些带着生命概念的物种所有的选择的正确率和准确率都是极低的。特别是在遥远的上古时代,这种正确率和准确率极低的选择为进化论提供了条件,因为这种高代价使每个物种都在慎重选择,保持着渐变的演进态势,这更多的体现的是一种对旧有体系的维持。
渐变是进化论的基础,是一种相对机械的演进方式。而今天,日益发达的信息技术、人工智能和量子科学以及大数据、云计算、物联网从技术上解决了选择的准确性和正确性问题,突变成为常态,物质流动的高速度使选择变得近乎悲壮,速度快得天翻地覆,常常是你生我死,死而复生的惨烈场面。随着物质流动速度越来越快,对寻常世界的颠覆必将成为寻常的事情。《撞见未来》显然准确地把握和科学地分析了这一点,作者在用思想和未来竞赛,虽然无法分出输赢,但总是比我们看得清晰、辽远。
当算法和技术清算了伦理、逻辑等概念
科技的本质是发展了的工具。人类创造了工具,但工具也在改变着人类。从最初的石器到现代的信息技术、量子科学、人工智能,人类对于自己创造的工具或者今天的科技越来越难把握。直接的感受就是科学家们研究越深入,发现越多却感觉对未来世界的了解越少,越无知,以至于几乎无法把控,甚至是从来没有把控过。这符合轮回的规律,未来世界的不可知是一种真理存在,跨越此世奔向彼世的人毕竟凤毛麟角。技术进步和迷惑认识的剪刀差越大,我们距离未来世界一定就越近。于是,牛顿走向了神的世界。这种无力感是不是一种轮回?人类终将走到这个轮回的终点,我们的一切对于下一个轮回来说,就是洪荒世界。那么,下一个轮回所面临的世界其实就是超人或者神的世界,牛顿只是比我们更早更透地看到了这一点。
在已经走进我们的信息技术、人工智能和量子科学的时代,一旦越过横亘在我们面前的那道门槛走进“未来”,一切都重新定义之后,现实世界中的伦理、逻辑等一大堆人类运用娴熟的概念就会突然失效。随之而来的是大数据、虫洞、量子力学、人工智能等扑面而来的概念,依托极其强大的科技、算法技术作为重构未来世界的词汇将统治一切。由此造成人类所拥有的所有概念的集体失效,难道不是对人类的一次全面清算?这是必然?还是偶然?《撞见未来》告诉我们,这当然是一种必然,也是一次全面彻底的清算。就像我们走进一个殿堂之前,都会在门前稍作停留。不管你有意识还是无意识,这种停留既有整理衣冠的需要,也是整理情绪的表现。就像衣服上的灰尘和不良情绪一样,在面向未来的这道门前,伦理、逻辑这些概念必将毫不可惜地被抛弃,被无情覆盖。
在超人的世界里,全新的概念体系为我们建筑了一个什么样的未来?这将不是我们所能掌控的话题,因为,随着科学技术的发展,在“未来”世界,我们将失去主导地位,被超人所取代。众多伦理、逻辑、概念集体失效的背后,是人类让出占统治地位的主角位置。当然,当前对超人的塑造看似还掌控在我们的手里,几乎可以不用杞人忧天。然而,人工智能终究有一天会超过我们人类,这个节点一定是人工智能能够自我创造智能的那一天。让人工智能模仿人是我们人类的事情,让人工智能超越人将是人工智能自己的事情。《撞见未来》明确地告诉我们,科学技术已经进入几何级的升级速度,这意味着科学技术在能量概念下将面临着爆炸性的增长。那么,按照这个道理分析,这个节点距离人类还会远吗?
当人类被超人完全取代,退到配角地位,我们也许会重新认识这个世界。在宇宙伦理、超人逻辑作为规范的未来世界里,科学技术带给我们的不仅是永生,还是全新算法下的变身。变身之后的我们人类在这个宇宙处于什么位置?是在宇宙的演艺厅的观众席上看超人肆意演出?还是被超人扔到各类动物或者其他生命形式充斥的纷乱舞台?对此,作者在《撞见未来》一书中没有明确的答案。毕竟,在量子时代,作为未来学概念下的预测技术还没有脱离物理概念,问题的提出并未必然带有方向。《撞见未来》描述的本来就是一个多维度视角下构建的关于“未来”的宏大场域,用二进制的传统思维解答人类和未来命题显然还显无力。
人类为超人设置算法,但按照线性的发展趋势来分析和认识,超人终有一天会有属于自己的算法,或者他们终将牢牢掌控算法,直到“超”超人的出现。在人类的算法世界里,今天的我们并不比洪荒时代的人类掌控更多的人性,爱、恨、生、死,甚至梦境、幻想等等,在人类的世界里,总有那么一些的不可掌控的东西要交给神或者上帝。但在超人逻辑或未来宇宙逻辑下的算法技术中,今天的这些不能掌控必将被超人掌控。那么,什么人性,什么梦幻,都可能会物质化并技术地随意组合。也许,超人的世界里从此彩虹不一定七色,开水未必L烫,雪山不再清冷,超人的世界不由我们假设,人类也不会懂。
超人是人类的再生还是毁灭
在概念上,大多数宗教强调的神性其实是放大了的人性,是人性自我挣脱意识的现实反映,或者说是人性自我救赎过程中的集体映像。那么超人是不是应该具有超人性?超人性是不是就是我们一直所崇敬的神性?那么,超人是不是也意味着就是我们想象中的“神”?人类造神几千上万年,被自己所创造的神统治了几千上万年,突然人类自己升级成为了“神”,会不会像婴儿来到世界一样,一切都是陌生和新鲜的,一切又都不是自己的,除了这条生命。超人跳出人类圈子,在“神”的世界里还要像一个婴儿一样,呀呀学语,蹒跚学步,迈出神的生命旅程的第一步。
连通现实和未来的通道就是物质,动力来自于科学技术。于是,死亡,从形而上走进形而下。作者在《撞见未来》一书中写到,死亡成了物质的一种转换形式,而不是生命的消亡。这种生命概念的绝对物化,是放在未来世界里重新构建的。有了物质的支撑,也许这个生命概念将会融入类似今天的操作系统、量子力学、信息技术等内容,那么,升级我们人类将成为非常技术的可能和扑面而来的现实,而不是手术刀和各类肌肉、脏器的生硬搏杀。血液里流淌了太多技术元素的超人还是不是人?如果超人是人,超人将意味人类的升级或者再生;如果超人不再是人,那么是不是就意味着我们人类将面临覆灭,或者退回动物的群落,由超人取而代之?
超人的一小步,甩开人类千万步,轻易跨越了人类和超人之间的千沟万壑。随着科技的发展、意识的升级、人与世界的重构,必将建立全新的逻辑和伦理体系,假设中的宇宙伦理、超人逻辑将成为超人的生存和发展准则,这必将给当下的道德体系和思想意识带来无情的碾压,一些基本的概念从此失去了意义,人类有可能从此不再崇高。这种不崇高使人彻底失去了积累万年的万物灵长之优越感,之后人类面临的将是什么心情?也许,进入超人的轮回里,我们人类的区区几万年只是一个痕迹?一位院士曾经说过,不要说拯救地球,地球没有问题,有问题的是人类,需要拯救的是人类。确实是,地球存在了几十亿年,而人类存在时间与之相比不过是那么短暂的一瞬,短暂到对地球的影响几乎可以忽略不计。没有人类,地球依然在,失去了人类,地球依然在。在我们还无法跳出我们的世界,遇到未来的挑战时,超人会拯救我们吗?
应该向谁追责呢?
让我们先来谈谈责任问题吧。首先,我们可以模拟一个侵权(民事)责任问题,想象下,在不远的将来可能会发生这样一个场景:一辆无人驾驶拖拉机原本应该按照指令在A农民的田里播种,但是奇怪的是,它却把种子播种到了B农民家的田里。
让我们先假设A农民是完全按照操作手册来使用那辆无人播种拖拉机的,同时,我们也假设A农民无需再做其他额外的操作,比如在农田交界处设置无线电信标,等等。那么现在,假设农民B要来控告这次错误播种事件(我们暂且不考虑诸如滋扰和侵犯等问题),会遇到哪些问题呢?。
实际上,有很多问题需要被回答,这个事故是农民A的责任吗?可能不是;那么,是无人播种拖拉机厂商的责任吗?有可能,但在此之前,我们是不是该明确与这些问题相关的责任和标准呢?比如无人播种拖拉机的行业标准是什么,制造商的产品规格是否符合相关标准呢?不仅如此,如果自己的土地被他人种植上了其他农作物,这是否算是财产损失,又是否能否追溯经济赔偿呢?
在一连串问题之前,我们其实是先假定了无人播种拖拉机里面的系统软件是由制造商开发的。那么接下来又有新的问题出现了,如果那套人工智能系统是由第三方开发公司完成开发的,该如何处理?还有,系统内部的软件代码是由多人合作完成的,又该如何界定各自的职责?
随着时间的推移,人工智能系统将会越来越不依靠传统的经典算法和代码,而且他们也会展示出更多我们无法预料到的行为,值得一提的是,这些行为没有人可能预测得到,甚至包括人工智能系统的创造者也无法预料。但重要的是,可预见性,其实是处理责任过失问题中一个非常关键的组成部分。
为了能够让读者更好地理解可预见性问题,我们才会假设了上面那个无人播种拖拉机的案例,或许十年、二十年之后,人工智能已经不再是简单的种错庄稼这件事儿了,它可能会是某个意外让人们受伤,更严重一些,人工智能可能会不小心杀人。所以,如果我们的法律无法适时作出改变,那么未来将会导致更多问题出现。就拿上面那个人工智能种错庄稼的事情为例,当无法实现可预见性,最终的结果就是没人承担责任!
责怪人工智能机器人
为什么我们不干脆去责怪机器人呢?毕竟,关于人工智能人格也有过讨论,而且人工智能系统本身也有担负刑事责任的可能。
但是,这种方法在实际应用时又有什么不一样呢?这里,还是借用别人曾经说过的一句话吧。“人工智能系统真的会像著名小说家艾萨克·阿西莫夫笔下的机器管家那样吗?遵守法律,遵从道德良知,还能保护银行存款?”
我们姑且不去讨论人工智能系统是否可以被起诉,但人工智能制造商和开发商们必须受到监管。只有这样,才有可能将一些无法归责的各方,用严格责任赔偿(注:严格责任赔偿是指只要造成了损害,不论行为人有无过错,都要承担赔偿责任。常见的适用于无过错责任原则的,有从事高压、剧毒、高速、放射等作业造成他人损害的。工伤是典型的适用无过错责任原则的,也就是说只要劳动者在工作期间因公受伤了,排除劳动者个人主观故意的因素之外,雇用单位无论有无过错都要承担工伤赔偿的责任的。)约束起来,
实际上,在我们的日常生活里,严格责任赔偿已经应用到了很多地方。当然除了这种责任赔偿之外,如果需要对人工智能追责,其实也可以采用无过错责任赔偿和赔偿方案池等方式。
规章制度
如果从监管的角度来看人工智能,那么你会发现,严格的安全标准,以及建立完善的安全认证流程也都是非常必要的。不过,如何设计一个合适的机构与流程框架,并且让这个框架得以有效运行,依然是一个非常棘手的问题。
人工智能领域复杂难懂,而且外部世界对于人工智能研发圈子普遍缺乏认识,这也就是人工智能专家需要尽快创建行业框架的原因所在。实际上,这里所说的框架,就是规章制度,说通俗些也就是游戏规则。因此,这意味着人工智能顾问委员会需要和政府一起,尽快立法,建设行业标准。
我们不得不承认,人工智能行业存在巨大的潜在效益;但是标准和流程,需要不断的创建、更新、并且执行,这样才能达到一种持续性平衡,继而最大限度地提高公共福利和安全;当然,也只有这样,才不会扼杀创新,更不会出现不必要的法律负担。
一、人工智能时代刑法构建的必要性
(一)刑事立法可以防控人工智能技术带来的风险
人工智能与现实社会的联系日益紧密,已经成为法律无法回避的领域,互联网时代的发展推动了人工智能时代的到来,互联网技术中的信息与数据是孕育人工智能的土壤。当今社会,人工智能技术已经渗透到生活的各个方面,我们的医疗、军事、交通、城市建设等方面,处处都有人工智能的身影。当我们享受着先进技术带来的好处时,也不能忽略其潜在的法律风险。因为这样紧密的联系就决定了人工智能会高频率地参与人类社会的活动,那么当其参与的行为涉及刑法时,就需要立法来规制。
(二)刑事立法可以及时应对这一新生事物对于现行刑法的挑战
不可否认,法律具有滞后性,新技术带来的犯罪无法被现行的刑法及时规制,甚至会产生冲击。只有通过立法及时修补法律的空白之处,解决刑法对于人工智能类犯罪的适用等问题,才可以保证这一技术的健康发展和合理使用。[1 ]
二、现行刑法规制人工智能犯罪的困境
(一)从刑事责任主体角度
在我国现行刑法中可以规制的人工智能类犯罪极其有限,仅限于行为人直接将人工智能当作工具进行生产、利用的情形,换言之,人工智能此时执行的一切操作仅为犯罪者的意志和行为的延伸,这种情形下的刑事责任主体为利用人。例如,绍兴市破获的全国首例利用人工智能侵犯公民个人信息案,犯罪团伙利用人工智能技术盗取数据,识别图片,进行诈骗,窃取公民个人信息进行犯罪。在这个案件中,人工智能被当作工具直接被犯罪分子支配利用,可以根据刑法第二百五十三条之一侵犯公民个人信息罪对犯罪分子进行定罪。当然,即便如此,这样的定罪依然存在瑕疵,后文第(二)节将从另一角度阐述。然而,真正棘手的问题是,当人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生了犯罪行为(如无人驾驶汽车涉及交通事故罪,手术机器人涉及医疗事故罪等),其刑事责任主体又该如何确定,是人工智能本身,还是其用户,又或者是发明者,由于现行刑法刑事责任主体认定的局限性,这种情形下刑事责任主体的确定存在争议。
(二)从罪名角度
不可否认,人工智能时代的到来产生了许多前所未有的行为方式,所以,针对以下三种情形,即便行为主体符合我国现行刑法对于刑事责任主体的认定(自然人、单位),因为缺乏与之相对应的罪名,也无法直接且有效的规制:首先,是犯罪主体滥用人工智能学习技术训练其进行犯罪的情形。正如前文所述的,绍兴市破获的全国首例利用人工智能侵犯公民个人信息案,我们可以按照侵犯公民个人信息罪对犯罪分子进行定罪,但是其非法滥用人工智能技术的行为是无法规制的。其次,是由于人工智能的生产者、发明者在程序编写等技术方面的问题,导致人工智能运行时发生危害社会安全的犯罪行为的情形。比如,2018 年3 月发生在亚利桑那州坦佩市的Uber无人驾驶汽车意外撞死一名行人的案例,[2 ]经后续调查给出的技术解释是,由于技术限制,其识别系统会在恶劣环境下发生识别有误,甚至无法识别的情况,Uber公司对其人工智能的某一算法设置上存在纰漏,但最终的审判结果却是Uber公司不负刑事责任。这虽然是国外的案例,但也对我国刑事立法提供了思考的方向,或许有观点认为,在我国发生类似案例,可以直接按照刑法第一百四十六条的相关规定按照生产、销售不符合安全标准的产品罪来定罪。但笔者认为,人工智能本就属于新兴技术,其发展必然存在不成熟的因素,但也不能忽视其进步性,所以,在一定限度内,我们应该对人工智能产品所带来的风险有一定程度上的容许,如此才有利于行业的发展,而这就需要设立新的罪名来解决。
三、人工智能刑事立法构建策略
(一)关于刑事责任主体认定
针对上文提出的,人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生的犯罪行为的责任主体认定问题,我们可以分为两类讨论:首先,是弱人工智能发生的犯罪行为。所谓“弱人工智能”是指没有自主意识,缺乏创造性、遵循机械规律的人工智能。此类人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生的犯罪行为,多半是程序等技术的瑕疵造成的。此时,此类人工智能无法满足犯罪主客观一致的要求,不具有承担刑事责任的能力,所以应该认定其发明者为刑事责任主体,因为发明者在发明此类弱人工智能时,可以且应当预见到人工智能的行为和潜在的风险,发明者此时具有确保其发明物不会危及公共安全和人身安全的义务。当然,也有例外情况,如果是由于他人(黑客等)恶意入侵的行为造成的犯罪,应当认定该介入因素切断了原先的因果关系,应该认定入侵者为刑事责任主体。其次,是强人工智能发生的犯罪行为。所谓“强人工智能”是指具有独立意识,有思考能力,通过学习可建立对于周围环境的认识、判断的自主运行的人工智能。这类人工智能的犯罪能够符合客观方面(危害行为、危害结果、因果关系、犯罪的时间、地点、方法)的要求,也能够符合主观方面(如意识因素、意志因素)的要求,应当认定其为刑事责任主体,独立承担刑事责任。首先,这类人工智能具有更强的学习能力,思考能力,它们可以通过学习和思考产生自主意志和是非判断能力,已经不再是使用者意志和行为的延伸;其次,强人工智能在自主意识和判断力的基础上,完全有能力获取其研发人未编入其程序的知识,而这些知识极有可能具有人身危害性,但这些内容是很难被及时预见并立刻删除的;最后,基于前两点的内容,我们完全有理由认为,强人工智能是具有可罚性的,此时的人工智能已经具有了自然人的伦理属性,可以被当作“机械犯罪人”。我们可以对其执行删除数据并且将该人工智能销毁的刑罚。故针对强人工智能的犯罪,我们不必设立新的罪名,但需要出台相关的司法解释来调整、明确刑事责任主体的认定。比如,针对现行刑法的某些犯罪(如公共安全类犯罪、除外侵犯人身权利的犯罪、侵犯财产类型的犯罪等等)出台司法解释,增加强人工智能本体为刑事责任主体,并补充强人工智能的刑罚执行制度,只有完善了司法解释,才不会使上述策略成为空中楼阁。
(二)关于新罪名的设立
1 .设立滥用人工智能技术罪随着技术的发展,人类对于人工智能技术的依赖性会越来越大,这已是大势所趋,但这势必会引起该技术滥用的行为。就如全国首例利用人工智能侵犯公民个人信息案,犯罪分子利用人工智能,可以使传统的犯罪行为更加快速,更加低成本,低风险。所以我们有必要设立滥用人工智能技术罪,在规制犯罪分子基本犯罪行为的基础上,[3 ]该罪名应该纳入刑法分则第六章妨害社会管理秩序罪中进行明确规定。2 .设立人工智能重大责任事故罪针对人工智能的生产者、发明者在程序编写等技术方面的问题(主要针对弱人工智能),导致人工智能自行运行时发生危害社会安全的犯罪行为的情形,应该成立人工智能重大责任事故罪,规制发明者、生产者在发明、设计、生产环节中未完全按照行业标准和国家标准履行义务的行为。但是,结合前文所述对于新兴技术发展的支持态度,应该对其中的生产方采取严格责任制,即如果生产商有足够证据证明自己的生产过程是严格遵守现有的相关标准的,则可以免于承担刑事责任。该罪名应该纳入刑法第二章危害公共安全罪中进行明确规定。
四、结语
人工智能时代的到来既给我们以便利,同时也会给我们带来法律的困扰,甚至对传统的刑法带来冲击,相关的刑事立法可能会改变长久以来的传统的刑事责任定义,这正是新兴技术的发展对于刑事立法的挑战,所以我们既要制裁人工智能类的犯罪,又不能阻碍该行业的发展,只有这样,才是成功应对我国当下人工智能犯罪的刑法困境。
参考文献
人机环境系统交互的产物
众所周知,当前制约机器人科技发展的瓶颈是人工智能,人工智能研究的难点是对认知的解释与建构,而认知研究的关键问题则是对自主和情感等意识现象的破解。
在真实的人机环境系统交互领域中,人的情景意识SA(Situation Awarensss)、机器的物理SA、环境的地理SA等往往同构于同一时空中(人的五种感知也应是并行的)。人机环境交互系统往往是由有意志、有目的和有学习能力的人的活动构成,涉及变量众多、关系复杂,贯穿着人的主观因素和自觉目的,所以其中的主客体界线常常模糊,具有个别性、人为性、异质性、不确定性、价值与事实的统一性、主客相关性等特点,其中充满了复杂的随机因素的作用,不具备重复性。
在充满变数的人机环境交互系统中,存在的逻辑不是主客观的必然性和确定性,而是与各种可能性保持互动的同步性,是一种得“意”忘“形”的招拆招和随机应变能力。这种思维和能力可能更适合复杂的人类。凡此种种,恰恰是人工智能所欠缺的地方。
人机之间的不同之处
人与机器相比,人的语言或信息组块能力强,具有有限记忆和理性;机器对于语言或信息组块能力弱,具有无限记忆和理性,其语言(程序)运行和自我监督机制的同时实现应是保障机器可靠性的基本原则。人可以在使用母语时以不考虑语法的方式进行交流,并且在很多情境下可以感知语言、图画、音乐的多义性,如人的听觉、视觉、触觉等在具有辨别性的同时还具有情感性,常常能够理解到只可意会不可言传的信息或概念(如对哲学这种很难通过学习得到学问的思考)。机器尽管可以下棋、回答问题,但对跨领域情境的随机应变能力很弱,对彼此矛盾或含糊不清的信息不能有效反应(缺少必要的竞争冒险选择机制),主次不分,综合辨析识别能力不足,不会使用归纳推理演绎等方法形成概念或提出新概念,更不用奢谈产生形而上学的理论形式。
人与机器在语言及信息的处理差异方面,主要体现在把表面上无关的事物相关在一起的能力。尽管大数据时代可能会有所变化,但对机器而言,抽象表征的提炼,亦即基于规则条件及概率统计的决策方式与基于情感感动及顿悟冥想的判断机理之间的鸿沟依然存在。
人工智能与哲学
人类文明实际上是认知的体现,无论是最早的美索不达米亚文明(距今6000多年),还是四大文明之后以西方为代表的现代科技力量,其原点都可以落实到认知领域上。历史学家认为:以古希腊文化为驱动力的现代西方文明来源于古巴比伦和古埃及,其本质反映的是人与物(客观对象)之间的关系;而古印度所表征的文明中常常蕴含着人与神之间的信念;排名最后的古代中国文明是四大古文明中唯一较为完整地绵延至今的文化脉搏,其核心道理反映的是人与人、人与环境之间的沟通交流。在这些人、机(物)、环境之间系统交互的过程中,认知数据的产生、流通、处理、变异、卷曲、放大、衰减、消逝无时无刻不在进行着……
有人说人工智能是哲学问题。这句话有一定的道理,因为“我们是否能在计算机上完整地实现人类智能”,是一个哲学问题。康德认为哲学需要回答三个问题:我能知道什么?我应该做什么?我可以期待什么?分别对应着认知、道德和信仰。哲学不是要追究“什么是什么”,而是追求为什么“是”和如何“是”的问题。哲学意义上的“我”也许就是人类研究的坐标原点或出发点,“我是谁”“我从哪里来”“要到哪里去”这些问题也许就是人工智能研究的关键瓶颈。