时间:2023-07-30 10:18:39
序论:好文章的创作是一个不断探索和完善的过程,我们为您推荐十篇人工智能带来的思考范例,希望它们能助您一臂之力,提升您的阅读品质,带来更深刻的阅读感受。
1、人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新技术科学。
2、人工智能是计算机科学的一个分支,它企图了解智能的实质,可以产出一种新的可以和人类智能相似的方式做出反应的智能机器,该领域的研究主要有机器人、语言识别、图像识别、自然语言处理和专家系统等。
3、自从人工智能诞生以来,理论和技术越来越成熟,应用领域在不断的扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以把人的意识、思维的信息过程的模拟。虽然人工智能不是人的智能,但可以像人那样思考、最终可能超过人的智能。
(来源:文章屋网 )
中图分类号:TP18 文献标识码:A 文章编号:1671-2064(2017)01-00218-01
人工智能包含三个层次:计算智能、感知智能和认知智能,讯飞超脑计划是包含模拟人脑的知识表示与推理、类人学习机制与新知识的获取、机器加载专业知识成为专门的教育领域。讯飞超脑计划是基于全球关于人工神经网络的深度学习研究,简单来说就是希望未来讯飞超脑计划能够将人工智能从只是简单地能听会说到能够深度思考相关问题的科技转变。人工智能的不断开拓创新是为了帮助人类能够更好地生活,我们应该注重人工智能的发展推进,将其广泛合理地应用到生活的实际中去。
1 讯飞超脑计划目前取得的阶段学习研究成果
1.1 讯飞超脑计划关于我国现阶段关于高中生学习教育的人工智能成果
随着近年来教育电子多媒体设备的投入普及使用,使目前的高中老师在课堂上更习惯用电子化的教学方式来替代传统的板书课本单一枯燥的教学,与此同时,现阶段高中生也同样具备使用移动互联网的条件,这样就使得科大讯飞超脑计划的教育产品可以形成以下的模式如图1所示。
采用此智能的学习模式可以使我国的高中生接受公平的最好的教育,这就需要借助人工智能的帮助来使老师提高自身的教育水平,使高中生丰富并开阔自身的视野。课堂教学包括了在线课堂、畅言交互式多媒体教学系统以及畅言智能语音等,这种新颖的课堂教学模式使原本单一的教学方式变成了思想上任意遨游的知识海洋;智能考试包含了标准考场、英语四六级网上阅卷、普通话与英语口语测试等方面,智能考试系统从字迹工整的程度、词汇量的丰富度、语法的正确性与通顺性等多个方面来评判考试试卷,加上多年来的不断改进,人工智能的评判方法跟相关专家的人工试卷评判的相似度相差无几,很大程度地增加了试卷评判的效率性与公平性;学习产品与教育评价更是覆盖到了从低到高的各个层面的产品组织结构,更有利于高中生的学习与应试教育的公平性。
1.2 讯飞超脑计划对于提高人类生活水平的成果
随着人工智能技术在经济、教育、文化、娱乐等领域的不断应用,使人们的生活质量水平得到了很大程度的提高,人工智能带来的方便快捷对于人类的发展进化与物质文化的进步产生了不可忽视的作用。随着讯飞超脑计划的推出,一方面,可以把人类从繁重的劳动中解放出来,很大程度地提高人类生产生活的效率与质量;另一方面,人工智能的进步会极大地革新人类的思维方式,使人们能够多角度地认知世界,加深对人类对自身所处的宇宙地位的思考,利于人不断地探索奥秘,进一步推进人类社会的进步。
2 讯飞超脑计划下人工智能对于未来生活的影响及其发展趋势
2.1 讯飞超脑计划下人工智能对未来生活的影响
由于讯飞超脑计划是感知智能结合认知智能的再创新,使得未来机器将会实现高水平的感知智能,具有更多的包括语音识别、手写识别以及图像识别的更多智能感知能力与实现包括智能客服、人机交互等的取代人类脑力劳动的认知智能突破。所以说讯飞超脑计划下的人工智能在未来的教育、经济、文化、社会结构等未来生活的各个方面都会产生重大影响。在教育上,人工智能的应用优化了课堂结构,使学生能够实时接受外界的新知识以及与时俱进的教育模式改革;在经济上,人工智能的高效能与高效率会明显提高经济效益,用人工智能来进行财务管理有助于缩减不必要的人工劳务开支与相关的培训费用,利于经济的变革与提高;在文化上,人工智能对于人类语言文化与图像处理上的优势日益凸显出来,可以确定的是人工智能的发展将会深入到人类生活的各个层面中去。
2.2 讯飞超脑计划下人工智能的未来发展趋势
随着人工智能的不断演进,人工智能从最初能存会算的计算智能阶段,到后来的能听会说、能看会认的感知智能阶段,最后再到讯飞超脑计划下提出的让机器能理解、会思考的认知智能阶段,未来的人工智能在语言理解、知识表达、联想推理以及自主学习等方面都将会取得很大的进展。
3 结语
人工智能对于未来生活的影响是多方面的,在未来生活的各个方面都十分显著。与此同时,讯飞超脑计划下的人工智能不断的改革创新与发展,也将更快地推动人类的发展,人工智能与人类的生活是互相影响又相互制约的。人工智能的不断发展给人类的未来生活带来了很大程度的改变,人类在不断开拓人工智能的领域时也应不断提高自身能力与素养,以适应人工智能带来的不断创新和改变。
参考文献:
1、人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
2、人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
3、人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。
4、人工智能不只是研发机器人,它的主要研究目的在于方便我们的生活,下面小编就来告诉大家人工智能在生活中有哪些作用。想要了解更多相关内容,请关注优就业IT常见问题栏目。
(来源:文章屋网 )
人工智能的发展包括哪些阶段?
人工智能的发展可分为三个阶段:弱人工智能、强人工智能和超人工智能。弱人工智能是擅长于单个方面的人工智能,比如“阿法狗”,只会下围棋。
强人工智能,达到了人类级别的人工智能,也就是在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。
超人工智能,即超级智能。牛津哲学家,知名人工智能思想家尼克・博斯特罗姆把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是为什么人工智能这个话题这么火热的缘故。
为什么说我们正在越来越快地接近超人工智能?
通过观察历史,我们可以发现一个规律,即人类出现以来所有技术发展都是以指数增长。也就是说,一开始技术发展是小的,但是一旦信息和经验积累到一定的基础,发展开始快速增长,以指数的形式,然后是以指数的指数形式增长。
未来学家瑞・库兹韦尔把这种人类的加速发展称作加速回报定律。之所以会存在这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快。
李四光也曾经写道:“人类的发展不是等速度运动,而是类似一种加速度运动,即愈到后来前进的速度愈是成倍地增加。”
人工智能技术的关键难点是什么?
用计算机科学家高德纳的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”一些我们觉得困难的事情――微积分、金融市场策略、翻译等,对于电脑来说都太简单了。我们觉得容易的事情――视觉、动态、移动、直觉――对电脑来说则太难了。
摩尔定律真的那么有效吗?
摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps(每秒运算次数)。现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。瑞・库茨维尔提出的加速回报定理,也就是摩尔定律的扩展定理。
我们什么时候能用上和人脑一样聪明的电脑?
现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。
我们如何造出超人工智能?
第一步:增加电脑处理速度。这步比较简单。
第二步:让电脑变得智能。这步比较难,有三种可能的途径:一是模拟人脑,二是模拟生物演化过程,让计算机演化出智能,三是建造一个能进行两项任务的电脑――研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了,我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务。
为什么说强人工智能可能比我们预期的更早降临?
因为,一,指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快。二,软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。就好像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式,但是日心说的发现让一切变得容易很多。创造一个能自我改进的电脑来说,对我们来说还很远,但是可能一个无意的变动,就能让现在的系统变得强大千倍,从而开启朝人类级别智能的冲刺。
超人工智能为什么会导致智能爆炸?
这里我们要引出一个概念――递归的自我改进。这个概念是这样的:一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平――这就是智能爆炸,也是加速回报定律的终极表现。
我们还要多久才能迎来超人工智能?
著名人工智能专家、谷歌公司的技术总监瑞・库兹韦尔相信电脑会在2029年达成强人工智能,而等到2045年,我们不但会造出超人工智能,还会迎来一个完全不同的世界――奇点时代。
什么是奇点时代?
所谓奇点时代,指的是超人工智能的出现将世界带入的一个新的时代。在这个时代中,人类将无法预测技术如何发展,因为超人工智能的行为将超出人类的理解能力。
超人工智能可能给人类带来的最大益处是什么?
永生。在理论上,死亡并非是不可克服的,只不过这需要超人工智能在纳米技术和生物技术方面取得我们难以想象的突破。超人工智能可以建造一个“年轻机器”,当一个60岁的人走进去后,再出来时就拥有了年轻30岁的身体。就算是逐渐糊涂的大脑也可能年轻化,只要超人工智能足够聪明,能够发现不影响大脑数据的方法来改造大脑就好了。一个90岁的失忆症患者可以走进“年轻机器”,再出来时就拥有了年轻的大脑。这些听起来很离谱,但是身体只是一堆原子罢了,只要超人工智能可以操纵各种原子结构的话,这就完全不离谱。
中图分类号:G642.0文献标志码:A文章编号:1674-9324(2019)41-0144-02
一、人工智能课程伦理考虑的基本内涵
人工智能课程中进行伦理考虑,是在人工智能课程中有针对性地加入道德教育的元素。在方式上,可以借用西方的“隐形教育”方式。在内容上,必须符合中国的人工智能发展态势,更要受中国社会主义核心价值体系的引导。目前中国的人工智能课程,过度偏向于技术性。尤其是许多社会机构提供的课程,更是偏向于功利性,目的在于让学习课程的学习者快速获得工作。因此,必须从源头入手,对这些社会机构进行一定的约束和规范,对人工智能课程内容进行整体的架构。
二、高校人工智能课程中伦理考虑的必要性
(一)我国对于科技工作者职业道德建设的要求
首先,科技工作者的职业道德建设是促进社会治理体系现代化的必然要求。加强社会治理制度建设,一靠法治,二靠德治。中国正聚焦力量加强自主创新,科技是第一生产力。基于当代中国语境下,科技工作者的职业道德建设就至关重要。科技工作者对自己的社会责任与伦理责任应该有着充分的理解,在科研活动中既要着眼于为社会提供科学技术上的新成果,同时也要强调在伦理道德建设中起到应有的作用。
其次,从长期看,科技工作者的职业道德建设利于国家科技的发展,利于促进科技难题的解决。发展是连续和间断的同一,科技发展不能一蹴而就。在面临科技瓶颈问题时,就更要求科技工作者具有坚韧不拔的品质和无私奉献的精神。这些精神都是进行职业道德教育中的重要内容,也是科技工作者承担的社会角色中必不可少的特质。
最后,高尚的职业道德是科技工作者奋进的不竭动力。一个科技工作者只有站在最广大人民的立场上,奉献自我才能成就事业。随着全球化的发展,受西方“享乐主义”的负面影响,科技工作者只有更加坚守自我、承担社会责任,才能具有不断前进的精神支柱。
(二)对解决人工智能伦理困境的源头性作用
随着人工智能应用领域的广泛化,以及应用群体的普及化,难以避免的带来一些伦理问题上的困境。例如伦理学中经典的“电车难题”,在当代科技发展中也出现了在人工智能领域的“无人车难题”。无人车产生事故的责任归属与分配就是目前很多学者在关注的伦理问题。人工智能的发展对当前的法律规制,还有现存的人伦规范都产生了挑战。人工智能的未来发展方向,在操作性上要避免技术鸿沟,在设计过程中要坚持算法公开化、透明化,并且在出现数据漏洞时应尽快地进行自我修复。这对于科技工作者自身的素质提出了很高的要求,不但要求科技工作者自身的知识素质与知识能力过硬,而且要求科技工作者要严于律己,具有较高的思想道德素质。要求科技工作者对于人工智能的发展保持理性的态度,坚持为国为民。许多科幻电影和小说中都体现了未来人工智能发展到一定阶段时,人与机器产生的情感迷思。作为科技工作者,在设计与调整过程中都应保持情感中立,勇于承担社会责任。目前我国正处于人工智能发展的初级阶段,人工智能尚不能拥有自主意识,人工智能的行为责任必须要找到其背后的拥有自主意识的人。无论是现阶段还是未来,作为人工智能产品开发者与设计者的科技工作者树立正确的价值观和承担相应的社会责任是十分必要的。科技工作者的知识层次与道德品质在某种程度上说,是研发人工智能产品的起点。因此,对科技工作者的成长过程中进行持续的道德教育,使其树立高尚的道德观念,对于解决许多人工智能带来的伦理困境都具有源头性、基础性的作用。
三、高校人工智能课程与伦理道德教育的结合方式探索
(一)高校人工智能课程资源的充分运用与更新
从资源形态上看,实物化资源与虚拟化资源,线上资源与线下资源都应充分运用。随着智能校园的普及,有基础条件的地区与校园可以充分运用好身边的人工智能。人工智能课程是一门理论与实践相结合的课程,因此课程的内容也不能仅停留在理论层面。除了对于学术资源的运用,也应当结合实体的人工智能产品进行学习。但因为人工智能的发展程度还没有普及化,人工智能机器人也远没有达到触手可及的程度。因此运用新媒体技术,通过虚拟现实的手段进行在教学过程中的知行结合是可以尝试的路径。VR技术在网络设备硬件教学中可以节约成本,便于人工智能课堂的普及化。在理论教学中,可以通过与虚拟机器人的交互增强趣味性。VR技术有3个最突出的特点:交互性、沉浸性和构想性。课程设置者可以充分借助VR的沉浸性设置相应的场景,让课程学习者通过对特定道德场景的判断引出思考。这种新媒体手段既可以更新原有课堂知识的教学教法,更适合作为伦理教育走入人工智能课堂的重要媒介。
从资源时态上看,人工智能课程资源必须随着人工智能的发展而不断更新。从现实角度来看,最初开设人工智能课程时,其教学目标还是相对简单的——即培养学生的创造性与知识能力。但随着人工智能的普及应用,产生了许多人工智能语境下的道德困境。从指导思想来看,我国逐步走向世界舞台,随着实力增强指导思想也是不断变化的,新时代会提出新目标,为了实现中华民族的伟大复兴,课程内容的丰富也是十分必要的。因此,人工智能课程若要符合时代需要,就需要不断地更新课程资源。人工智能这一学科是具有学科交叉性的,与之相关各个领域的最新前沿问题都需要结合相应的道德教育,只有这样才能适应时代的发展。
(二)高校人工智能课程内容的合理架构
对于不同年龄层次的人工智能课程,必须考虑到不同群体的教育规律。提出合理的教育目标,用不同群体可以接受的方式方法才能达到最优的教学效果。我国人工智能课程目前的课程架构中,已经有学者进行了分年龄层次的研究。人工智能课程可以规划为专业性逐渐增强的、从边缘到中心的课程层级系统。对于高校本科生和研究生来说,人工智能课程设置内容必须具有专业性。在上文的课程体系建构中添加了艺术、文学、哲学等内容,其中包含对于人工智能伦理学的思考与认识。但在某种意义上这些青年的社会价值观就代表了未来科技工作者的社会价值观。因此在这一阶段,人工智能课程的架构与实施,国家应加以引导和监督。一方面需要建立统一标准的高校人工智能课程体系,另一方面在應对课程具体内容的落实方面给予一定程度的监督。
(三)在高校人工智能课程教学过程中充分运用案例
是的,自动驾驶汽车总有一天会发生意外造成人类死亡,但这并不是因为它的自我意识想要这样做的。而是传感器故障或者算法缺陷。如果抛开具体的结果,我们会发现这和一个计算机程序停止响应并没有本质区别。它带来的风险显然不会导致人类灭绝这样的灾难性后果。
为了更好的理解这件事,必须深入了解现代人工智能系统如何工作。每个应用可以当做是一个最优化问题,我们的目标是找到最少成本和最大回报的解。这种人工智能没有任何神奇之处,也不需要具有情感。人工智能在求解这类问题时和我们人类的思维方式是很相似的。举例来说,一个人工智能驾驶的汽车会选择到目的地最短行程的路线,行驶过程中,一个计算机系统会从实时摄像头提供的画面中发现路中央的一只猫并决定避开它。人们也是这样想这样做的。
即便在从未如此流行的“深度学习”领域中,数据被放在神经元网络中,追根究底它的运行方式仍然是寻找最优解,也就是找到与训练数据拥有最佳拟合的模式。
一个判断图像内容的程序并不比一个下棋程序更有自我感知能力。这些应用系统都没有真正的“思考”,它们只是在寻求一个给定问题的最优解。即便一些系统的复杂程度超乎想象,人工智能系统仍然只会做程序员给定的那些线性工作。
什么样的技术进步会带来这种剧变?本书将要验证的假说是:人工智能和神经技术这两个领域的技术进步会加速奇点的到来。我们已经破解了生命的秘密,能够理解基因的工作原理。生物技术带来的改变已经非常巨大,但是和人工制造思维的能力相比,就差多了。
从某种重要的意义上来说,今天的智能是固定的,这影响了技术进步的广度和速度。几千年来,人们掌握的知识已经非常丰富,而且随着文字、印刷术和互联网的出现,传播知识的能力也增强了。但是,创造知识的器官(有智慧的人的大脑)在过去的几千年中变化不大,认知能力的秘密还没有被我们揭开。
如果人工智能和神经科学能充分发挥潜力,这种情况将会改变。如果不仅是智能创造技术,技术反过来也可以创造智能,那么就会产生一个循环。这个循环的结果是难以预料的,可能带来爆炸性的改变。作为原来的创造者,如果智能也可以被创造出来,那么它就可以提升自己。根据奇点理论,不久以后,这个循环中就不再需要人类了,人工智能或进行过认知改造的生物智能将占据主导地位,人类已经跟不上了。
我们需要认真对待奇点理论的假说吗?又或者它只适合出现在科幻小说里?雷・库兹韦尔认为我们应该认真对待这一假说,并提出了“加速回报定律”。如果一项科技符合加速回报定律,那么这项科技越先进,它进步的速度就越快,在一段时间以后就会实现指数级进步。一个很好的例子就是“摩尔定律”。然而,信息技术不是唯一高速发展的领域。在医学领域,DNA测序的成本快速下降,测序的速度则呈指数级上升,大脑扫描的分辨率也在以指数级速度上升。
从历史的角度来看,出现重大技术进步的时间间隔在缩短:从农业、印刷术、电力到电脑。除了技术的进步,进化过程中出现里程碑式突破的间隔也在不断缩短:从真核生物、脊椎动物、灵长类动物到智人。很多评论家认为人类发展的轨迹是一条复杂的曲线,一直延伸到远古时代。但是, 我们只需要研究这条曲线中科技的部分,并推演科技曲线的未来趋势。我们发现,未来会出现一个转折点,人类发明的技术会让自己落伍。
由于物理规律的制约,指数级技术发展最终会遇到瓶颈。指数级技术发展的停滞可能有各种经济、政治或者科学的原因。但是,我们先假设与人工智能以及神经技术最相关的发展将会保持势头,加快破解大脑秘密的速度,并且最终合成人工智能。我们不难相信,不管是人工智能还是人类智能,都会遵循加速回报定律,最终到达技术奇点。
有些作者预言,奇点的到来会在21世纪中叶。我们可以不把奇点只作为预言来研究,预言毕竟是比较虚无缥缈的。首先,奇点是一个很有意思的深刻的学术话题,无论它最后是否真的会出现或不知什么时候出现。其次,奇点出现的可能性虽然看起来很微小,但是却值得我们从务实的角度,在理性的基础上讨论。即使未来学的理论有瑕疵,但只要未来学描述的场景存在可能性,就值得我们认真关注。如果奇点真的出现,对人类来讲,其后果将是颠覆性的。
总体而言,人工智能(AI)和物联网将同时改变互联网和全球经济。在未来5年内,我们可以预期人工智能和机器学习将会被整合到各种各样的技术中,这些技术包括数据交换和分析。这将带来巨大的机遇,如全新的服务和科学突破,人类智力的提升,以及它与数字世界的融合。
在人工智能领域存在相当大的不确定性,如决策转由机器执行,缺乏透明度,技术变革将超过治理和政策规范的发展。自动化可能会深刻地改变行业,影响就业和公共服务的交付。政府和社会需要为其影响做好准备:
经济和社会必须为人工智能以及物联网带来的颠覆做好准备。
在人工智能的设计和部署中,必须优先考虑伦理问题。
人工智能和自动化将带来全新的社会经济机会,但对个人和社会的影响和取舍还不清楚。
人工智能正改变着我们的决策方式,我们必须确保人类仍然处于“驾驶座”的主导位置。
在社会内部和社会之间,人工智能的益处分配将不均衡,进而加剧当前和未来的数字鸿沟。这种现象发生的风险极高。
人工智能世界的治理与伦理问题
人工智能引发了对伦理问题的广泛担忧。技术人员表示,这项技术需遵从人类的价值观,在人工智能系统的设计、开发和部署的每一个阶段,都必须优先考虑伦理层面的问题。
目前,人工智能和相关技术正在开发和部署,短期内将需要大量的投资和努力,以避免对社会和人类造成意想不到的影响。在未来,我们需要把焦点放在研究上以及有效的管理架构上,以确保人工智能技术带来的是契机,而不是损害。目前,开发算法的工作仍然由人类完成。对我们所做的事,我们仍拥有些许控制。
然而,如果我们把这类工作拱手相让给中介机构,而中介机构又让算法来设计算法。那么在五年内,开发算法的工作可能就不是人类在做了,而是人工智能在掌控。是否将出现这样的前景:我们打交道的中介机构将被人工智能替代。
此外,人工智能引发的重要考虑事项涵盖了隐私、透明度、安全性、工作性质,以及整体经济。例如,基于面部识别技术可以提升用户在社交媒体上的体验。但同样的技术也可以用来提升监视效果,牺牲个人隐私。亦或是,如果人工智能成为社交媒体网络和在线平台的永久功能,在这些平台上,算法被用来管理在线体验、有关自由选择和偏见的问题将会加剧。人们将对数据收集和决策的透明度和责任性感到担忧。这种担忧将会加速伦理原则的制定。而这些原则的作用是什么?用以指导人工智能的设计和部署。
一个社会如果完全以数据收集为基础,那么从商业角度来看,在没有适当的民主监督和平衡的情况下,将助长社会过度依赖监督。机器提供了太多自动选择,人类无需过多思考,从而失去了某些自我决策的机会。
数据分析技术产生的自动化将对人类行为和决策产生更大的影响。
政府将如何应对人工智能带来的更大的经济和社会影响?政府是否具备这样做的能力和资源?在政府内部,由于政策的制定和调整越来越多地受到数据的驱动,人工智能可能会带来一种根本性的决策调整。此外,人工智能可能成为未来政策选择的一种决策工具,而且使用起来可能会草率而不透明。
物联网和人工智能的发展将为政府决策提供科学依据,并帮助它们快速应对民众的需求。
许多人预见,未来几年将展开一场激烈的竞争,以争夺商业人工智能领域的霸主地位。尽管这可能会推动创新,并有可能颠覆当前的市场结构,但也存在竞争方面的担忧。预测者认为,在可预见的未来,如今的领先科技公司将会控制人工智能市场。
人工智能对互联网经济的影响
一些人认为,预测人工智能是一种营销炒作,但很多业内人士和政府都在为人工智能的普及做准备。CB Insights估计,2016年超过50亿美元的风投资金流向了人工智能创业公司,比前一年增长了62%。人工智能为创造新工作、新产业和新沟通方式提供了巨大机遇。
随着人工智能和自动化在各个行业推动重大结构变革,工作的本质将发生改变。随着人工智能获取用户数据,改变产品和服务的交付方式,许多现有的工作岗位可能会被取代。如何适应变化的步伐将是未来一项重大的全球性挑战。
与人工智能和物联网相关的项目引领了我们很长一段时间,提升了我们现有的技术,让普通人生活更加方便。
人工智能系统和技术可以改变工作的性质,让员工能力得到提升,从而减少人类之间和国家之间的不平等。人工智能让我们承担和解决更大的挑战。正如一份调查报告所显示,“人们的大脑和互联网之间的距离会变得越来越近,而两者之间的交叉会变得越来越复杂。”
机器与机器之间的通信增加了成本压力,人们正在被取代。这只会随着时间的推移而不断增加,这对经济有好处,但会对就业提出挑战。
人工智能为科学研究、交通运输和服务提供带来了巨大潜在收益。如果可访问性和开源开发胜出,人工智能有可能给发达国家和发展中国家带来红利。例如,依赖农业生产的国家可以利用人工智能技术分析作物产量,优化粮食产量。在医疗保健领域使用人工智能可能会改变低收入地区的疾病检测方法。
人工智能是一种创造性的毁灭,它将淘汰许多工作岗位,但也将创造新的角色和工作岗位。
但是,社会本身是否已经准备好接受这种变化,我们是否为新型经济做好了充分的准备?对于发展中经济体而言,新技术总是能创造出更多的可能性,尽管部署人工智能(以及物联网)的基础设施非常重要。人工智能的好处也可能不均衡:对于依赖低技能劳动力的经济体,自动化可能会挑战它们在全球劳动力市场中的竞争优势,并加剧当地的失业形势,影响经济发展。
用于管理制造业或服务业的智能和服务,可能仍集中在发达国家。人工智能可能会在很大程度上加剧数字鸿沟,这将会带来政治上的影响。
确保互联网技术创造市场就业机会,且不会对就业市场造成损害,这是未来5年必须解决的一个挑战,也是国际上一个紧迫而严重的问题。
人工智能对互联网安全和网络智能的影响
算法开始做出决策,它们比人类决策更快,并且可以代表我们的意志。此外,系统越来越不透明。我们不知道他们在哪里,他们在做什么决定。
虽然安全与信任对人工智能的未来至关重要,但这项技术也可以帮助解决安全挑战。随着网络和信息流变得越来越复杂,人工智能可以帮助网络管理人员理解交通模式,创建识别安全威胁的方法。在基本的企业层面上,人工智能可以执行由IT帮助台执行的任务,比如解决员工的电脑问题。
围棋的复杂性世界公认,这个三千年前发端于中国的游戏变化路数层出不穷,被认为是一种极其复杂和富有变化的竞赛活动。几十年来,古老的围棋游戏一直是计算机难以涉足的领域。就连这个领域的专家都承认,人工智能在围棋上战胜人类至少还需要10年时间。但话音刚落,这个判断就被提前打破,以迅雷不及掩耳之势,机器连赢人类两局。于是,人们开始大呼“狼来了”――
人们之所以惊呼,无外乎这几点:
一是,梦想和现实的鸿沟居然这么小,瞬间就被踏平了。在这之前,我们的判断几乎是一致的,因为围棋是世界上最难的。有科学家给出了数据,数学家们对围棋已经进行了深入的研究,仅仅在最初的40步棋,就有超过原子在可见宇宙范围内数目的棋子摆放组合,组合数量大约达到80位数,在国际象棋中,这样的组合数大约有50位数。机器人能有这样的智慧和判断能力吗?小小围棋,却处处体现出人类的大智慧,风云变幻、难以揣摩。就在尊严被高高挂起多年后,就被连厕所都不用上的AlphaGo打败,打败的还是围棋届的领军人物,在这些乐观人士看来,尊严没有了,颜面扫地呀!
二是,人工智能发展的速度如此之快。这个被汉语言译为阿尔法狗的机器人,下棋的时候真的很厉害,它居然不按常理出牌,不按大家公认的套路下棋而是走了自己认为应该走的,甚至下出了让围棋大咖们惊叹的奇招,这让人们越来越相信,难求一胜的不是电脑,而是李世石。苍天呀大地呀,这是一只会学习的“狗”,是一个真正拥有自我学习和进化能力的智能系统。会自己学习,会自己思考,牛X呀!
许多科学家担忧:
人工智能是人类生存的最大威胁
事实上,许多科学家对人工智能表示担忧。著名物理学家霍金曾与多位科技界名人发表联署公开信,表示人工智能对于人类的威胁更甚于核武器。他认为:“对完全人工智能的发展可能会招致人类历史的终结。”他警告称人类正面临来自智能技术的威胁,随着技术体自身开始学会自我思考,并学会适应环境,我们人类将面对不确定的未来。他表示:“成功制造出一台人工智能机器人将是人类历史上的里程碑。但不幸的是,它也可能会成为我们历史上最后的一个里程碑,除非我们能学会如何去规避这种风险。短期来看,人工智能产生何种影响取决于谁在控制它;而长期来看,这种影响将取决于我们还能否控制它。”
霍金并不是唯一一个对人工智能表示担忧的人。特斯拉汽车的首席执行官马斯克的看法更加引人注目,他用个人推特账号警示,称人工智能是人类遇到的最严重的“生存风险”。既然人类可以进化出文明,人工智能为什么不可以建立自己的文明?既然机器有了自己的意识和思维,那它是否会拥有自主意识,就如同“奴隶”意识到自己是“人类”。在人类不长的历史中,确实存在过长达千年的“奴隶社会”时代,那时候的“奴隶”根本没有人的权利,只能被称为“会说话”的工具。英国数学家欧文・约翰・古德把超智能机器的发展形容为“人类需要做的最后一项发明”,因为在超智能机器出现后,人类会把创新与技术研发的工作让给超智能机器这位更为智慧的继任者。
机器人会伤害人吗?
1950年,阿西莫夫提出了著名的《机器人学三大法则》:
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
在阿西莫夫创作一系列机器人短篇科幻小说并提出“机器人学三大法则”时,世界上还没有机器人。而随着人类社会的发展,人工智能与人类的关系发展也将产生阶段性的变化,我们可以先暂且简单分为如下阶段:
第一阶段:机器人还没有自我认知,只是服从人类编写的程序。
第二阶段:机器人知道自己是机器人,并可以自我学习,但还未超越人类。
第三阶段:机器人可以自主升级迭代,全面超越人类。
无论在哪一个阶段,阿西莫夫的“机器人学三大法则”都充满了“种族歧视”。
规定机器人不可伤害人类,难道人类就可以随意伤害机器人吗?机器人在阿西莫夫的科幻小说中,因为三大法则的制约,被描述成为人类的忠仆与朋友。但如果真按这套法则去执行,估计到了第三阶段,机器人就会完全被人类教坏。当机器人自主升级迭代时,他们大概也会思考人类有无存在的必要性。
链接2
人类能够控制机器人的善恶吗?
显然,在目前的科技及计算机领域,我们已经看到了部分类似人工智能的应用形式,可以模仿人类的大脑来思考,达到某种目的。但真正像科幻电影中具备自主思考能力、学习能力甚至是情感的人工智能什么时候会出现,暂时还很难说。但可以肯定的是,人类是一种擅于不断挑战极限的生物,从整个人类的发展史来看,我们已经创造了太多奇迹,如果有一天人工智能真的出现,也不足为奇。首先,它们正变得越来越聪明和强大;其次,目前很难通过编程或设计来保证它们的无害性。那么,人们真的无法设计出一个友善的人工智能程序吗?科学家表示这是极为复杂和不确定的,因为人工智能会模仿人类思考方式,人性本身便是复杂的,可善可恶,我们无法来制定一个不变的标准。
人工智能将使人类丧失斗志?
还有一些科学家认为,人工智能最大的威胁不是毁灭人类,而是将取代人类。李开复认为:大部分人类工作可被机器取代。他表示,虽然机器在逻辑分析推算方面的能力会远超人类,但是依然是属于人类操控的工具。“阿尔法围棋”这类的“人工智能”机器真正可能带来的危机,不是奴役人类,而是让人类丧失斗志,无所事事。“阿尔法围棋”是一个能深度学习的机器人,经过专家的调节,它能在任何可以纯凭逻辑分析推算的问题上,把人类远远地抛在后面。基于深度学习的人工智能将带来什么改变呢?我们将看到无数的商机和产品,能够解决问题、拯救生命、产生巨大的商业和用户价值。这些技术可能辅助专家,也可能取代专家。很多非专家的工作者将面临失业。未来十年,大部分今天的人类工作可被机器取代。人类最应该担心的是:一旦当机器供养着人类,人类达到了马斯洛需求的基本需求,人类真的还会有动力去追求更宏伟的目标?还是醉生梦死、无所事事?人工智能让人类越来越缺乏思考,而其自身则有可能越来越聪明,从而威胁到人类的生存。
乐观派科学家认为:人工智能将为人类服务
在支持者看来,人工智能的发展并不会给人类带来威胁,而之所以会引发恐慌则是因为人们对于人工智能的工作原理并不了解。从科技发展史上看,并没有因为汽车和轮船的出现而使田径、游泳这些体育项目消失。他们坚信,人工智能的未来是要给人类带来更加高效、便利的生活。就在“人机围棋大战”的前一天,谷歌董事长施密特在会上表示,这场比赛李世石无论输赢都代表着人类的胜利,因为是人类的努力才让人工智能取得了这样的突破。谷歌不只是想做一个棋类程序,而是希望打造一个通用的智能计算系统,用于灾害预测、风险控制、医疗健康和机器人等复杂领域。英国著名人工智能科学家、智能机器人Cleverbot的发明者罗洛・卡朋特表示,他相信人类在相当长一段时间内将保持对人工智能技术的掌控,而且未来将实现利用人工智能技术解决众多世界性难题。
前人工智能发展尚处在早期阶段
当然,我们现在谈论“人机大融合”可能还为时尚早,人工智能的发展目前仍处于早期阶段。既然现在机器的计算能力已经完胜人类,学习模式也在逼近,为什么还说人工智能处在发展早期?主要原因或者说难点有三:
第一,机器在信息输入端还望尘莫及。人类的感官对世界的感知是目前机器最为缺失的。比如人有视觉、听觉、嗅觉、触觉、味觉,这些人类大脑的“输入设备”是经过几亿年的进化而来,极其精良。以最容易数字化的视觉为例,目前为止还没有电子设备在生活场景中可以赶上人类的眼睛对信息的快速捕捉。更别说人类还有同情心和好奇心,同情心是对他人情感的感知和共鸣,好奇心是对陌生信息的获取、处理、存储的动力。机器对这些信息的捕捉能力还有待发展。
第二,机器在输出端同样捉襟见肘。机器人要如何赶上人类的身体构造呢?“阿尔法围棋”仍然需要一个替身去代它和李世石下棋,而不能自己去潇洒地持子。人类一个看似简单的动作,机器模仿起来都很困难,更别说去满足机器人保姆之类的工作需求。
第三,人类大脑的复杂性恐难企及。人类的大脑神经元是一种生物化学构造的树状结构,对信息的存储、检索、缓存和分析的效率极高。计算机要想全面赶上,可能在硬件结构和算法设计上还需要一些突破。
新知识的产生往往需要站在前人的肩膀上。在互联网时代,人类信息和知识获取的成本在不断降低,这极大地促进了新知识的产生,继而整个人类科学的发展应该是在不断加速的,你看,原本想也不敢想的自动驾驶现在也近在眼前。随着技术的不断突破,未来十年一定会是人工智能的黄金十年。
链接1
机器人下棋为何会战胜人类?
有些人描述“阿尔法围棋”是“和人一样的方式思考,但是比人快无数倍”。这么说并不精确。“阿尔法围棋”确实比人快无数倍,但是“阿尔法围棋”的思考只能说是“被人的大脑启发”,而并非和人类一样思考。机器运算速度会越来越快,学习能力会越来越强,数据会越来越多。谷歌的“阿尔法围棋”之所以能战胜职业棋手,借助的是模仿人类大脑的神经回路、被称为“深度学习”的最尖端人工智能技术。谷歌采用这项技术,在2015年推出了一边玩电子游戏一边找出新战术的人工智能“DQN”,创造了超过人类的高分,展现了人工智能在深度学习领域的实力。以“阿尔法围棋”为例,首先输入协助开发的职业棋手的3000万种围棋下法让其学习,达到能够以57%的概率预测与其对阵的人类行动的水平。在此基础上,人工智能将自己的对战重温数百万次,在不断积累胜负经验的过程中,掌握取胜方式。它在观察围棋棋子的整体布局的基础上选择最佳下法,这一方式接近于带着直觉和第六感做出判断的人类大脑的功能。
链接3
哪些工作会被人工智能代替?
随着人工智能的发展,机器确实可以通过深度学习来代替人类做越来越多的工作。根据一项报告,到2025年,约有25%的工作将被人工智能或是机器人所取代。具体而言,内外科医生、编舞、教师、作家、律师、人力资源经理、科学家、工程师和记者属于比较安全的、不容易被替代的职业;司机、技工、建筑工人、裁缝、快递员、抄表员、收银员、保安和洗碗工则属于比较危险的、有可能被替代的职业。