时间:2023-06-21 08:59:56
序论:好文章的创作是一个不断探索和完善的过程,我们为您推荐十篇人工智能的法律规制范例,希望它们能助您一臂之力,提升您的阅读品质,带来更深刻的阅读感受。
如果我们摆脱简单的拟人思维,把人工智能看作互联网智能演进的新阶段,为理解其法律规则,就有必要理解互联网法律在过去20年中形成的路径和推动力,从而探讨人工智能是否有任何特殊性以至于需要新的规则。本文将从网络法的两个视角――实证性和生产性――切入,将它们延伸至人工智能语境下分别讨论。“实证性”视角是我们观察和应用任何规则的惯常思维方式,例如人工智能行为的具体规则如何确立、如何规制等,本文将讨论支撑人工智能的两个构成性要素――算法与数据――可能带来的法律问题,以及法律人处理人工智能的两种路径;“生产性”视角则深入规则背后,探索规则形成的政治经济因素,特别是经济生产方式的内在要求。人工智能本质上是一套复杂的代码设计,既是影响社会行为的强力规范,也是产生新价值的生产机制;它驱动整个社会朝向更智能的方向变化,从而要求法律做出相应调整,尤其是确认新型经济利益的合法性。
限于篇幅,本文姑且将人工智能看成法律上的客体,暂不讨论赛博格(cyborg)之类的人体转向机械体或通过基因技术改变身体的问题(仍是法律上的人),也不讨论人工智能作为一种人造物的自我意识问题(一个难以达成共识的哲学问题)。
理解网络法的变迁
网络法在中国的变迁大致遵循两类逻辑:外生性的政治/监管逻辑和内生性的商业逻辑。政治/监管逻辑体现为对“实证性规则”的追求,这些规则集中在国家(包括法院和监管机构)如何对互联网的内容和行为进行规制,包括对网络和信息安全的追寻。这集中反映了国家权力如何试图介入新技术带来的问题与挑战。这一视角最早由美国法学界引出,特别是Lawrence Lessig的代码理论将代码(架构)和法律并列。由此,所谓的网络法不仅要约束社会主体在网络空间中的行为,也要对架构的变化本身做出回应。
首先,就规制主体行为而言,出现了是否按照传统线下行为规则的思路约束线上行为的讨论。这一讨论的核心是,互联网问题是否具有任何特殊性,需要某些新规来解决。我们已经看到,中国的互联网行为监管在很大程度上延续了传统规则和管理方式,采取渐进的方式,这不仅成本较小,也给予监管者一定的学习和探索空间。其次,就架构变化本身而言,国家在宏观上主张网络空间中仍然需要,不能成为法外之地,在微观上相应出现了国家与平台权力/责任二分的讨论。例如,政府权力何时需要介入平台治理,加强平台的行政管理责任或安全保障责任,还是由后者根据自身情况自我规制,实现治理目标。政治/监管逻辑要么遵循管理者的路径依赖效应,要么坚持既有社会稳定、意识形态安全价值。问题在于,监管者在多大程度上能够认识到代码及其商业模式的特殊性,从而使监管行为和行业特性相互协调融合。
另一种看待规则产生的方式遵循商业逻辑。这种生产性视角关注微观权力运作,综合将代码、法律与社会规范放在一起,不单纯从社会学意义上观察社会主体行为如何受到影响,而是在政治经济学意义上将网络空间的生成和扩散看成是一个由商业力量推动主导的生产性过程,关注价值由谁产生、如何分配,由此推动对新规则的内生需求。按照这一视角,无论是法律还是架构,在具有实证性规制功能的同时,也是一种“生产性规则”。互联网的生产模式决定了其对社会范围内生产资料的创造性生产和再利用,需要法律确认其生产方式的合法性,重塑关键法律制度,并解决和传统生产模式的利益冲突。这一视角无疑帮助厘清新经济主张的例外特性,不仅展示出架构和相应的法律改变,更指明了背后的政治经济原因,是更好地理解实证性规则的基础。
两类不同的逻辑在过去20年中交替出现,相互制约,共同塑造了中国网络法体系,也推动了中国互联网的整体发展。总体而言,鉴于国家有意促进新经济,需要推动传统的属地化、分口治理,事后运动治理模式发生转变,认清互联网商业模式和价值产生的根源,有利探索适应新经济性质的管理体制。从这个意义上说,信息资本主义不断要求对法律内核进行改造,取代其中的传统经济要素,打破限制生产要素自由流通的各类规则。
人工智能法律的实证性视角
如前所述,人工智能的本质在于算法和数据处理,物理形体不必然是人工智能的构成要素,因为即使是人形机器人,也不过是一个算法主导的硬件系统,它实时收集信息,并按照算法的要求做出决定,继而行动。更重要的是,具有物理形体的人工智能可以推动群体智能发展,通过分布式终端收集更多数据加以处理,并不断传输至云端“大脑”,提升整体网络的智能水平。 人工智能巳深度介入医疗领域
根据算法的复杂性和学习/运算能力对强人工智能和弱人工智能进行区分,这在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。而人工智能从单一的自动化服务向多元通用服务转变的过程可能是一个相当长的光谱,法律需要针对其本质特征进行约束,并探索一套应对未来的方案。当我们说社会变得越来越智能的时候,事实上指由于数据搜集、储存和处理的能力不断增强,所有软件/算法都可能朝向自动收集数据,做出决定或判断的趋势,由于算法的复杂性,算法带来的结果可能无法预测,并在更大范围内带来系统性的不利后果。这种后果未必是毁灭性的风险,甚至只是在某领域的制度设计问题,但人工智能恰好将这类社会问题具象化,掩藏在外表华丽、高效、更多是私人控制的“黑箱”中,就会引发一系列问题。
如果放在一个更大范围内观察,在历史上,人类社会随着复杂性的增加,不可避免地产生以组织和技术形态出现的各类“黑箱”,它们的决定影响着社会发展和大众福利,但仍然保持着某种秘密性。这一隐喻未必是阴谋论,其核心问题在于信息不对称。为平衡相关当事人和社会大众的知情权、避免恐慌、保持某种预测能力,人们不断设计出某种程度的信息公开和透明化机制,例如政治辩论的公开化,法院诉讼程序透明化甚至公开庭审,上市公司强制信息披露等等。而人工智能不过是信息技术时代的新型黑箱,带来更加严重的系统化影响。互联网在兴起过程中,通过降低信息成本,推动了开放政府、庭审直播,使信息公开透明更加便利,将生产性资源不断解放出来,在更大社会范围内重新配置,产生新价值。然而,这一过程在消除一个又一个传统黑箱的同时,产生了更为复杂的新黑箱,进而主导整个社会的生产过程。生产资料之间的信息变得越来越对称,甚至可以实时互通信息,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者无法理解的秘密状态,这回到了法律如何处理与代码的关系问题。
一个类似的比较是人类自身:人脑经过上百万年的进化,演变成十分复杂精致的系统。尽管当代神经科学不断改变我们对人脑的认知,甚至每个人的大脑都不完全一样,但就法律而言意义不大,这只能在边际上改变个案判决。即使无从了解人脑的运转机制,或者依据某种更加先进的科学知识解释社会主体行动的具体理由,人类还是有能力形成社会规范,并演进成更加理性化的规则。这套规则只需要假定一般社会主体是(受限)理性的,由少数概念界定不同情形的心理状态(故意、过失),并集中对人的外在行为进行约束,确定权利与义务,就足以以简单规则应对(而非认识)这一纷繁复杂的世界。类似地,在处理算法的负外部性时,也可以有两种不同的路径:(1)关注算法的外部行为与后果,(2)关注算法内部的设计规则。
大部分现有规则关注算法导致的(未意料)结果,例如内容分发算法未经审查造成非法或侵权内容传播,这一般由信息传播者(即内容服务商)承担责任,算法本身并无法律地位,在造成不利后果的过程中只是一个工具。这类责任假定内容服务商应当知道非法内容的存在,并有能力通过算法设计或人力(比如人工审查)加以阻止。在诸多侵权场合,内容服务商可以通过“避风港”规则免责,只要无法证明它实际知晓状态。更复杂的是,如果软件开发者声称自己无法控制信息的生产和传播,却造成一定社会危害的情形。无论是在快播案还是BT案中,软件开发者都无法因这一原因而逃脱责任,法院的理由仍然是,开发者有能力知晓非法内容的输出(如果不是故意的话,例如快播向推广该播放器)。类似地,如果一个具有物理形体的人工智能由于处理信息不当造成了外在损害,按照这一逻辑仍应由算法开发者负责。
而且,还有必要将算法产生的错误和算法缺陷本身区分开。长期以来,软件行业一直通过拆封合同(shrink-wrap)解决缺陷软件造成的短时崩溃或重启问题,这种格式条款旨在确认这样一种事实:没有任何软件是百分之百完美的,只要在用户拆封使用该软件时运行正常即可,服务商并不为软件崩溃或死机造成的消费者损失负责,因为前者无法预料到缺陷带来的风险。这就是为什么消费者需要接受软件生产商不停的更新和补丁,软件/应用不受产品责任的约束,被视为一种可以不断升级改进的服务,这在免费软件时代更是如此。按照这一思路,似乎有理由认为,无人驾驶汽车因算法计算错误导致车祸(何况造成事故的概率远远小于人类司机的错误)是这类软件的正常的缺陷,消费者应当容忍这类错误。但无论是监管者还是潜在的受害人都无法接受这种比拟。声称有潜在缺陷的交通工具(也包括医疗设备和其他与生命财产直接相关的算法)一旦投入使用就需要为此造成的后果负责。无论如何,这类思路仍然是通过后果施加事后责任,监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故可以避免,黑箱提供者就应当承担责任。在这种情况下,保险(甚至是强制险)就成为确保这类发生概率小但潜在损失巨大的不二选择,航空、医疗保险市场十分发达,可以预见将会延伸至更多由人工智能驱动的服务行业。 现实与虚拟的界限不断模糊化
如果说事后救济还无法确保安全,事前干预算法设计则是另一种选择,同时带来的问题也更复杂。早在20世纪,阿西莫夫就试图为机器人立法,尽管他从未讨论技术上的可行性。安全可能是人工智能服务的首要问题之一:一个中心化的入侵可能会导致所有终端都变得极度不安全。行业监管者在不同行业为特定服务中的人工智能设定安全标准(如医疗器械、交通工具、自动化武器),实行安全保护等级制度,甚至要求被认定为重要设施的源代码(如windows系统)供监管者备案,或在设计自动化交易程序时控制报单频率的阈值等。又例如,在魏则西事件后,联合调查组在整改意见中要求落实以信誉度为主要权重的排名算法,对商业推广信息逐条加注醒目标识,予以风险提示。如果说这些监管手段针对的是作为商业秘密的私人算法,诸如Open人工智能这样的倡议则意在延续开源软件运动路径,确保软件漏洞能够得到更大范围内的监督和修补。至少在中国,信息披露机制尚未成为算法监管的重要手段,无论是强制性披露还是第三方披露。
(作者单位:上海财经大学法学院)
注释:
[1]当下的大众媒体、文化产品和社会公共认知正努力将未来的人工智能塑造成具有独立意识的逐渐演化的主体,这集中体现在诸如《终结者》《我,机器人》《西部世界》《2001银河漫游》这类科幻影视作品中。尽管人们也有理由进一步想象,一旦人工智能具有了自我意识,就不再可能忠实地为人类服务,而更可能对人类生存构成威胁。其路径和思维方式仍是20世纪的,和21世纪依托大数据机器学习迥然不同。事实上,按照日本学者森政弘提出的“恐怖谷理论”,人工智能不太可能在短时间内人形普及化,因为这会在消费者心理上引发不安甚至恐惧。像Siri和Cornata这样的语音助手、像Tay和小冰这样的聊天机器人则不会有这种负面效果,因为用户知道自己在和一个尚未通过图灵测试的算法对话,他们甚至乐于教Tay在推特上辱骂用户、发表种族主义和煽动性的政治言论。另一个可能影响中文世界读者想象的因素是,把robot翻译成“机器人”先验地赋予了这类客体某种拟人化主体地位,而人形机器人(android)却没有引起更多的关注。
[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一个更加有用的综合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究将具有物理形体的机器人作为法律的对象,特别区分了信息性和物理性效果,见Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一个不同观点,见Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把机器人视为人在法律上也有相当的历史,见Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.
[3]吴军:《智能时代》,中信出版社2016年版。
[4]例如阿西莫夫的机器人系列小说中,无一例外地设定机器人拥有一个“正子脑”(positronic br人工智能 n),但却没有给出任何解释。见阿西莫夫:《机器人短篇全集》,江苏文艺出版社2014年版。
[5]这被称为终极算法(master algorithm),见佩德罗・多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,中信出版社2016年版。
[6]尼古拉斯・卡尔:《玻璃笼子:自动化时代和我们的未来》,中信出版社2015年版。在互联网发展的每一个阶段都有某种意识形态化的术语或热词吸引投资,例如宽带、大数据、分享经济、VR(虚拟现实)等,它们不过是互联网形态的各类变种。例如,一个关于分享经济和之前互联网经济的关联,参见胡凌:《分享经济的法律规制》,载《文化纵横》2015年第4期。
[7]这种思维方式可追溯到霍布斯以来的法律实证主义。
[8]胡凌:《代码、著作权保护与公共资源池》,载《腾云》2016年12月刊。
[9]关于两类逻辑的具体表现,集中参见胡凌:《探寻网络法的政治经济起源》,上海财经大学出版社2016年版。
[10]这在众多(特别是国外的)中国互联网观察者身上十分常见,人们的注意力全都转向中国政府如何严格管理和控制互联网。在政治学研究中自然而然地并入“国家与市民社会”传统框架,并吸纳了关于在线抗争、集体行动的传播学与社会学研究。
[11]劳伦斯・莱斯格:《代码2.0》,清华大学出版社2008年版。
[12]一个概述,见胡凌:《马的法律与网络法》,载张平主编:《网络法律评论》2010年第11卷。
[13]胡凌:《非法兴起:理解中国互联网演进的一个框架》,d《文化纵横》2016年第5期。这体现在版权、隐私、财产、不正当竞争、垄断、劳动法等一系列制度中。这种对法律制度的改变不单纯是在既有工业生产背景下微型创新带来的变化,而是社会生产的重塑。
[14]比如说,平台责任议题的出现,和互联网平台更多转向由第三方提供服务的信息中介模式直接相关。
[15]这一区分和观察中国式资本主义兴起的框架十分类似,政治经济学家们争论的焦点就在于如何解释中国改革开放三十年的成功经验,究竟是政府主导还是市场主导,但实质上是一个混合制经济。
[16]由于科斯所说的企业信息成本和管理成本降低,调动生产要素的边际成本趋近于零,企业组织形态本身将成为竞争的高成本。
[17]尼克・波斯特洛姆:《超级智能:路线图、危险性与应对策略》,中信出版社2015年版。
[18]古代的政治过程、现代的企业决策都是黑箱,对外人而言如果不是神秘,也是除魅之后的国家/商业秘密。卡夫卡的小说《审判》就精确描述了作为黑箱的诉讼过程,同一时代的韦伯也描述了理性化的国家机器应当像自动售货机一样。
[19]Frank Pasquale:《黑箱社:掌控信息和金钱的数据法则》,中信出版社2015年版。
[20]帕伯斯:《差错:软件错误的致命影响》,人民邮电出版社2012年版。
[21]长久以来民用航空器已经由软件深度介入驾驶过程,以至于人类驾驶员无法在短时间内预热,形成另一种风险。
[22]阿西莫夫提出的“机器人三定律”(后来扩展至四点)虽然十分基础,但仍然很难在具体情况下起作用,特别是当代伦理学上著名的“线车难题”之类的伦理困境。考虑到这些定律是为模拟人脑状态下设计的,就更可疑;因为人脑并不总是按某些理性伦理原则行事的,在某些关键场合强烈依靠某些默认设置――直觉。
[23]由监管机构强制披露并审查事实做不到,只能依靠像苹果这样的平台公司和软件分发平台帮助对成千上万个软件进行至少是安全审查。在台式机时代,这一平台责任几乎不可能,自然状态下的windows只能导致争夺私人控制权的3Q大战。但像乌云网这样的第三方白帽黑客也被禁止探测和公开互联网公司的漏洞。
[24]同注11。
[25]在笔者看来,法院应当将注意力放在知情同意的合同条款本身的适当性上,而不是一味接受黑箱的逻辑,因为后者确实无懈可击。如果格式合同能准确反映代码的设计,对其条款的审查是更好的选择。百度引发的被遗忘权第一案反映的也是这个问题。
[26]一个补救方法还是尽可能地披露算法信息,允许用户理性地生产/隐瞒个人信息,见戴昕:《自愿披露隐私的规制》,载苏力主编:《法律和社会科学》第15卷第1辑,法律出版社2016年版。
中图分类号:TP18
文献标识码:A
一、人工智能技术的发展及其影响
人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。
随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。
二、人工智能技术发展面临的问题及其原因
随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。
调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。
第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。
第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。
第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。
三、人工智能技术的发展转向
人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。
1.技术层面
(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。
(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。
(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。
2.人类自身层面
(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。
(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。
(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。
3.道德法律用
(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。
(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。
此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。
四、结语
科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。
参考文献:
[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.
[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.
[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.
[4]王志良.人工情感[M].北京:机械工业出版社,2009.
[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).
[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.
[7]田金萍.人工智能发展综述[J].科技广场,2007(1).
[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.
[4] Dorothy J. Glancy. Privacy in Autonomous Vehicles[J]. Santa Clara L. Rev., 2012 (4) .
[5]刘宪权.人工智能时代的内忧、外患与刑事责任[J].东方法学, 2018 (1) .
[6] Sabine Gless; Emily Silverman; Thomas Weigend, If Robots Cause Harm, Who Is to Blame:Self-Driving Cars and Criminal Liability[J]. New C rim. L. Rev., 2016 (3) .
[7] 无人驾驶第一命案:特斯拉制造[EB/OL]. (2016-07-05) [2018-04-20]. cnfl. com. cn/2016/0705/292845. html.
[8]金园园.大数据时代个人信息的刑法保护访武汉大学法学院教授皮勇[J].人民检察, 2015 (17) .
[9]陈晓林.无人驾驶汽车对现行法律的挑战及应对[J].理论学刊, 2016 (1) .
[10]高铭暄, 马克昌.刑法学[M].北京:北京大学出版社, 2014.
[11]李凯.交通犯罪的刑法规制[M].北京:法律出版社, 2017
[12]杨澜.人工智能真的来了[M].南京:江苏凤凰文艺出版, 2017.
[13]谢望原, 何龙.醉驾型危险驾驶罪螺杆问题探析[J].法商研究, 2013 (4) .
[14]立普森库曼.无人驾驶[M].林露茵, 金阳, 译.上海:文汇出版社, 2017.
[15] 全球首个无人驾驶清洁车队上海试运行可识别红灯[EB/OL]. (2018-04-14) [2018-06-01]. tech. sina.com. cn/it/2018-04-14/doc-ifzcyxmu2805747. shtml.
[16] 前谷歌工程师创立的公司无人配送车助力生鲜配送[EB/OL]. (2018-01-30) [2018-06-01]. 36kr.com/p/5116964. html.
[17] 埃隆马斯克的圣战:从人工智能的手中拯救人类[EB/OL]. (2017-04-03) [2018-05-16]. sohu.com/a/131812821_640805.
[18] 姜红.英学者解读阿尔法围棋人工智能以科学伦理把控人工智能风险[N].中国社会科学报, 2016-04-11.
[19] 着名机器人专家认为埃隆马斯克不懂人工智能[EB/OL]. (2017-07-20) [2018-05-16]. tech. sina. com.cn/it/2017-07-20/doc-ifyihrit0918522. shtml.
[20] 李开复.人工智能根本不用在意[EB/OL]. (2017-05-12) [2018-05-17]. sohu. com/a/140072199_575626.
中图分类号:G642.0文献标志码:A文章编号:1674-9324(2019)41-0144-02
一、人工智能课程伦理考虑的基本内涵
人工智能课程中进行伦理考虑,是在人工智能课程中有针对性地加入道德教育的元素。在方式上,可以借用西方的“隐形教育”方式。在内容上,必须符合中国的人工智能发展态势,更要受中国社会主义核心价值体系的引导。目前中国的人工智能课程,过度偏向于技术性。尤其是许多社会机构提供的课程,更是偏向于功利性,目的在于让学习课程的学习者快速获得工作。因此,必须从源头入手,对这些社会机构进行一定的约束和规范,对人工智能课程内容进行整体的架构。
二、高校人工智能课程中伦理考虑的必要性
(一)我国对于科技工作者职业道德建设的要求
首先,科技工作者的职业道德建设是促进社会治理体系现代化的必然要求。加强社会治理制度建设,一靠法治,二靠德治。中国正聚焦力量加强自主创新,科技是第一生产力。基于当代中国语境下,科技工作者的职业道德建设就至关重要。科技工作者对自己的社会责任与伦理责任应该有着充分的理解,在科研活动中既要着眼于为社会提供科学技术上的新成果,同时也要强调在伦理道德建设中起到应有的作用。
其次,从长期看,科技工作者的职业道德建设利于国家科技的发展,利于促进科技难题的解决。发展是连续和间断的同一,科技发展不能一蹴而就。在面临科技瓶颈问题时,就更要求科技工作者具有坚韧不拔的品质和无私奉献的精神。这些精神都是进行职业道德教育中的重要内容,也是科技工作者承担的社会角色中必不可少的特质。
最后,高尚的职业道德是科技工作者奋进的不竭动力。一个科技工作者只有站在最广大人民的立场上,奉献自我才能成就事业。随着全球化的发展,受西方“享乐主义”的负面影响,科技工作者只有更加坚守自我、承担社会责任,才能具有不断前进的精神支柱。
(二)对解决人工智能伦理困境的源头性作用
随着人工智能应用领域的广泛化,以及应用群体的普及化,难以避免的带来一些伦理问题上的困境。例如伦理学中经典的“电车难题”,在当代科技发展中也出现了在人工智能领域的“无人车难题”。无人车产生事故的责任归属与分配就是目前很多学者在关注的伦理问题。人工智能的发展对当前的法律规制,还有现存的人伦规范都产生了挑战。人工智能的未来发展方向,在操作性上要避免技术鸿沟,在设计过程中要坚持算法公开化、透明化,并且在出现数据漏洞时应尽快地进行自我修复。这对于科技工作者自身的素质提出了很高的要求,不但要求科技工作者自身的知识素质与知识能力过硬,而且要求科技工作者要严于律己,具有较高的思想道德素质。要求科技工作者对于人工智能的发展保持理性的态度,坚持为国为民。许多科幻电影和小说中都体现了未来人工智能发展到一定阶段时,人与机器产生的情感迷思。作为科技工作者,在设计与调整过程中都应保持情感中立,勇于承担社会责任。目前我国正处于人工智能发展的初级阶段,人工智能尚不能拥有自主意识,人工智能的行为责任必须要找到其背后的拥有自主意识的人。无论是现阶段还是未来,作为人工智能产品开发者与设计者的科技工作者树立正确的价值观和承担相应的社会责任是十分必要的。科技工作者的知识层次与道德品质在某种程度上说,是研发人工智能产品的起点。因此,对科技工作者的成长过程中进行持续的道德教育,使其树立高尚的道德观念,对于解决许多人工智能带来的伦理困境都具有源头性、基础性的作用。
三、高校人工智能课程与伦理道德教育的结合方式探索
(一)高校人工智能课程资源的充分运用与更新
从资源形态上看,实物化资源与虚拟化资源,线上资源与线下资源都应充分运用。随着智能校园的普及,有基础条件的地区与校园可以充分运用好身边的人工智能。人工智能课程是一门理论与实践相结合的课程,因此课程的内容也不能仅停留在理论层面。除了对于学术资源的运用,也应当结合实体的人工智能产品进行学习。但因为人工智能的发展程度还没有普及化,人工智能机器人也远没有达到触手可及的程度。因此运用新媒体技术,通过虚拟现实的手段进行在教学过程中的知行结合是可以尝试的路径。VR技术在网络设备硬件教学中可以节约成本,便于人工智能课堂的普及化。在理论教学中,可以通过与虚拟机器人的交互增强趣味性。VR技术有3个最突出的特点:交互性、沉浸性和构想性。课程设置者可以充分借助VR的沉浸性设置相应的场景,让课程学习者通过对特定道德场景的判断引出思考。这种新媒体手段既可以更新原有课堂知识的教学教法,更适合作为伦理教育走入人工智能课堂的重要媒介。
从资源时态上看,人工智能课程资源必须随着人工智能的发展而不断更新。从现实角度来看,最初开设人工智能课程时,其教学目标还是相对简单的——即培养学生的创造性与知识能力。但随着人工智能的普及应用,产生了许多人工智能语境下的道德困境。从指导思想来看,我国逐步走向世界舞台,随着实力增强指导思想也是不断变化的,新时代会提出新目标,为了实现中华民族的伟大复兴,课程内容的丰富也是十分必要的。因此,人工智能课程若要符合时代需要,就需要不断地更新课程资源。人工智能这一学科是具有学科交叉性的,与之相关各个领域的最新前沿问题都需要结合相应的道德教育,只有这样才能适应时代的发展。
(二)高校人工智能课程内容的合理架构
对于不同年龄层次的人工智能课程,必须考虑到不同群体的教育规律。提出合理的教育目标,用不同群体可以接受的方式方法才能达到最优的教学效果。我国人工智能课程目前的课程架构中,已经有学者进行了分年龄层次的研究。人工智能课程可以规划为专业性逐渐增强的、从边缘到中心的课程层级系统。对于高校本科生和研究生来说,人工智能课程设置内容必须具有专业性。在上文的课程体系建构中添加了艺术、文学、哲学等内容,其中包含对于人工智能伦理学的思考与认识。但在某种意义上这些青年的社会价值观就代表了未来科技工作者的社会价值观。因此在这一阶段,人工智能课程的架构与实施,国家应加以引导和监督。一方面需要建立统一标准的高校人工智能课程体系,另一方面在應对课程具体内容的落实方面给予一定程度的监督。
(三)在高校人工智能课程教学过程中充分运用案例
0引言
数字网络技术不断发展,已经深刻改变了人们的生活方式。对于著作权而言,数字网络是一把双刃剑:一方面,借助于数字网络技术,普通大众能够提升创造的可能性,尤其是人工智能与大数据让人们的创造更加便捷与高效,产生越来越多著作权保护的需要;另一方面,数字网络技术带来了大数据与人工智能等技术,使得原本制定的法律规范难以适应网络时代的变化,使得法律适用变得复杂。对于刑法而言,遵循“罪刑法定”与“谦抑性”原则,会导致刑法在保护著作权的过程中,难以有效应对数字网络技术带来的变革。例如,网络直播平台中,侵犯他人原创性视频以获取非法利益的行为、自媒体或公众号等平台侵犯他人著作权的行为等,当数额巨大、达到刑法规范的程度,便需要适用刑法。然而现实中刑法适用存在诸多困境。因此,数字网络时代中著作权的刑法适用成为一项值得研究的课题。
1数字网络时代下我国著作权刑法适用的困境
1.1刑法滞后性使得刑法难以有效适应数字网络时代下著作权保护
数字网络技术发展迅速,给著作权保护带来新变化。著作权的数字化倾向越来越明显,具有独创性的数据开发成果成为著作权保护的对象。著作权借助于网络科技,能够在短时间内迅速扩散,使得著作权一旦受到侵害便难以停止或者挽回损失。利用数字网络技术,使得创作过程多在网络条件下进行,通过数字网络技术保存与传播。与此同时,黑客等利用网络技术侵入他人电脑或者数据库,窃取信息或者电子著作权的可能性加大。由于数字网络技术具有隐蔽性与开放性,一旦著作权被侵犯,难以进行收集证据、准确认定,也给著作权的刑法保护带来难度。
1.2网络著作权犯罪行为的认定缺乏明确性与具体性
刑法在规制著作权犯罪行为中,具有不同于民法、行政法等其他法律规范的独特之处。相较之下,刑法更加严厉,惩罚的手段包括人身刑与财产刑,给犯罪嫌疑人更多的威慑力。所以,有效利用刑法手段保护数字网络下的著作权,是促进著作权健康发展的题中应有之义。由于我国刑法缺乏明确认定著作权犯罪的程序,尤其是在数字网络背景下的刑法认定,缺乏具体性,影响其操作性。所以,很多数字网络中的著作权犯罪行为无法得到及时有效的惩治。数字网络时代中的著作权该如何认定,如何进行定罪量刑,与传统意义上的著作权犯罪不尽相同,在缺乏明确与具体认定程序的情况下,让一部分著作权犯罪分子逃脱刑法制裁。
2数字网络时代下我国著作权刑法适用的完善
2.1完善刑法规范以适应数字网络时代中的著作权保护
数字网络下著作权的刑法保护,必须提升刑法与网络技术的结合,及时完善刑法条文,针对数字网络时代的具体特征,完善立法、执法与司法,使刑法更好地保护著作权。加快出台相关的司法解释,提升刑法在数字网络时代中的适用性,提升其对网络著作权、信息传播权等著作权内容的保护。在具体的适用环节中,还需要增强侦查机关与司法机关对数字网络技术的了解,以便更好地提升刑法对著作权的保护。在我国存在互联网法院与知识产权法院,著作权属于知识产权,进入数字网络时代又具有互联网法院管辖的特点,通过加强互联网法院与知识产权法律的交流与互动,提升刑法适用效果。
2.2明确数字网络时代下著作权犯罪的认定程序
尊敬的 教授:
您好!
为了更好地服务新乡泌尿外科患者,提高新乡地区泌尿外科、男科疾病的诊治水平,同时为新乡地区泌尿外科、男科专科医生以及从事泌尿外科男科工作的非专科医生搭建一个沟通交流的学术平台,新乡医学院第三附属医院泌尿外科定于20xx年1月17日(周六),上午8:30分~12:30分(午餐为快餐、饮料,免会务费),在新乡医学院第三附属医院口腔楼7楼学术报告厅,举办新乡医学院20xx泌尿外科、男科学术研讨会。会议针对当前泌尿外科及男科的前沿技术、实用技术,设置了国内及本地区著名泌尿外科、男科专家的讲座及手术演示。会议还将建立新乡地区泌尿男科专家微信群,借助移动互联网,形成便捷的远程病例讨论、免费会诊模式,为各位与会专家今后的工作和交流带来便利!
新年学术盛宴,诚挚地邀请您的到来!祝各位与会专家新春快乐,阖家幸福!
新医三附院恭候您的光临!
新乡医学院第三附属医院泌尿外科
20xx年1月7日
学术研讨会邀请函(二)
尊敬的参会嘉宾:
直接还原铁和废钢是短流程电炉炼钢的主要原料,美国、墨西哥、伊朗和印度等国家和地区直接还原铁和废钢的电炉加入比例已经达到50%以上。在中国区域内直接还原铁没有出现批量供应市场的主要原因是没有大型的直接还原铁生产技术装备。
未来,中国一定会迎来直接还原铁市场的大发展,届时直接还原铁的市场价格将会对废钢的市场价格走势产生直接的影响。
武汉科思瑞迪科技有限公司及其前身经过10多年的研究和探索,先后开发拥有完全自主知识产权的年产10万吨、30万吨、50万吨、80万吨和100万吨及以上等级的大型直接还原铁生产技术装置。并于20xx年在宜昌建成了第一座万吨级的煤基还原竖炉工试基地,于20xx年建成投产了缅甸的5万吨煤基还原竖炉,目前这两座竖炉运行顺畅,被业主和来访专家认定为先进可靠、经济环保的直接还原技术。
为了进一步推进商业化运营,借20xx年中国废钢年会在宜昌召开之际,公司诚挚邀请与会人员观摩武汉科思瑞迪公司直接还原宜昌工试基地。敬请您莅临观摩指导!
武汉科思瑞迪科技有限公司
学术研讨会邀请函(三)
_____________女士/先生:
1799年6月6日,俄罗斯诗歌的太阳普希金诞生在莫斯科一个贵族家庭。正是这个有着黑人血统的诗人为俄罗斯开启了文化的黄金时代,他为自己所建立的非人工的纪念碑至今依然耸立在俄罗斯人民的心中,也影响到了远在东方的中国。在长达百余年的中俄文字之交过程中,普希金创作中的自由精神、公民意识、动人的爱情故事、奇妙的艺术手法,深深影响了中国文学,尤其是中国的近现代文学。诗人的作品几乎全都译成了中文,浸润了几代中国人的思想和灵魂。近年来,中国俄罗斯文学研究领域对普希金的研究日趋深入,与世界斯拉夫学界的普希金学遥相呼应,成果蔚为壮观。然而,伟大诗人的作品依然存在巨大的阐释空间,新的学术研究方法为学者提供了更为多样性的阐释和理解。人们对普希金的创作从哲学、语言学、文化学等多个视角开展了颇具规模的跨学科研究,并不断有令人惊喜的发现。
20xx年,恰逢普希金诞辰220周年,为加强国内外学者对普希金研究的深化和交流,促进普希金学与前沿学科间的交叉和渗透,推进我国普希金研究专家与国外同行的了解和联系,中国外国文学学会俄罗斯文学研究会、黑龙江省俄语语言文学研究基地、黑龙江大学俄语学院、黑龙江大学俄罗斯语言文学与文化研究中心将于20xx年6月14-16日在黑龙江大学联合举办纪念普希金诞辰220周年国际学术研讨会。素仰您在俄罗斯文学及俄语语言文化方面高深的学术造诣,诚邀您拨冗出席此次研讨会以抒高见。
一、会议时间
20xx年6月14-16日
二、会议地点
黑龙江大学
三、主要议题
1.普希金与俄罗斯文学经典在当代
2.普希金学的跨学科研究
3.普希金与中国现当代文学
4.中国的普希金及俄罗斯文学经典的翻译与研究
5.俄罗斯文学教学与研究
6.俄罗斯文学与文化前沿问题
7.当代中俄文字之交
四、会议工作语言
汉语、俄语
五、会议回执及论文摘要
论文中俄文双语摘要(300500字)电子版与会议回执请于20xx年5月15日之前发至会务组邮箱:
六、会议日程:
20xx年6月14日全天报到,会期为6月15日-16日。
七、会务费
国内外代表:RMB 800元/人(在校研究生400元/人),参会代表的往返旅费及住宿费自理。
八、其他
会议具体日程以及其他相关事宜的安排另行通知。相关信息将在黑龙江大学俄语学院和黑龙江大学俄罗斯语言文学与文化研究中心)网站上。
九、会务联系方式
联系人及联系方式:
会议电子信箱:
通信地址:哈尔滨市南岗区学府路74号黑龙江大学俄语学院
中国外国文学学会俄罗斯文学研究会
学术研讨会邀请函(四)
动物药材是中药的重要组成部分,在中医发展史上具有特殊的地位。以大型动物为资源的药材如麝香、牛黄、熊胆、羚羊角等在危急重症中具有不可替代的作用,以小型昆虫为资源的虫类药材如蜈蚣、全蝎、僵蚕、壁虎、地龙等,在治疗疑难杂症中疗效显著。为了进一步发挥中药动物药材的独特作用,交流动物药材临床应用经验,提高中医诊疗疑难杂症与危机重症的临床疗效,兹决定于20xx年月9月10日在北京中国科学技术会堂召开第二届全国动物药材临床应用学术报告会。现将有关事项通知如下
主办单位:中华中医药学会
承办单位:中医杂志社
协办单位:中国中药公司北京华邈中药工程技术开发中心
时 间:20xx年9月10日下午14:00
地 点:中国科学技术会堂B105会议室
参加人员:中医科学院广安门医院、卫生部中日友好医院及广东省、重庆市等省市中医临床工作者近200人。
特邀嘉宾:国家中医药管理局、中国中医科学院、中华中医药学会、北京市中医局、中国中医药报社等有关单位领导。
主 题:发挥动物药材优势,提高中医临床疗效
主 报 告:动物药材冻干炮制的特征
报 告 人:国家药典会委员、北京中医药大学教授
经验分享:中日友好医院资深专家胡佩珍教授
《熊胆粉在内科杂病中的应用经验》
广安门医院肿瘤科主任熊露教授
《 鹿血温肾增免防治肿瘤临床经验》
北京东方医院亚健康科主任彭玉清教授
《熊胆粉在代谢疾病中的应用》
中日友好医院肿瘤科主任医师李学
《鹿血改善肿瘤血象临床观察》
(本次学术研讨会为国家中医药管理局20xx年继续教育项目,享受一类学分8分。)
会务组联系人
学术研讨会邀请函(五)
随着人工智能的迅速发展,当今社会已经进入了智能互联网的新时代。人类社会原有的生产方式、生活方式和社会关系发生了深刻改变。这既构成了对现有法律制度的重大挑战,又推动着法律制度的创新发展和法学研究的范式转换。为积极回应国家《新一代人工智能发展规划》战略,在理论上深入研讨智能互联网发展中的重大法律问题,从而推进法学研究的时展,中国法学会法理学研究与西北政法大学、山东大学法学院联合发起、主办人工智慧与未来法治学术研讨会。首届研讨会已于20xx年1月6日在西北政法大学成功举办,经研究,现拟举办第二届学术研讨会,此次会议由《华东政法大学学报》编辑部、华东政法大学法理学科和华东政法大学公民社会与法治发展比较研究中心共同承办。
一、研讨主题
本次会议继续围绕人工智慧与未来法治这一主题,对智能互联网法律问题进行研讨,包括但不限于下列主题:
1. 国外智能互联网与法律研究的最新进展
2. 智能互联网与当代法律变革
3. 智能互联网的问题、风险与法律规制
4. 智能互联网的治理机制与法治秩序
5. 智慧司法与司法改革
二、会议安排
1.会议时间:20xx年9月22日
2.报到地点:学苑宾馆(上海市松江区)
3.宾馆地址:松江区广富林路3499号(广富林路与三新北路交叉口)
4.宾馆电话:
5.会议论文:本次会议坚持以文会友的原则,参会人员请于20xx年6月31日前将论文发至z,注明作者姓名和工作单位,请务必同时将参会回执一并发送至该邮箱,以便会务组统一安排。
1.智能合约的概念界定及法律特性
2008年,互联网技术随着“区块链”的问世进一步与其他领域进行了深入融合发展,2013年“以太坊”的出现则将区块链技术运用到了更多领域的去中心化中,智能合约与区块链技术的结合便很好地体现了这一点。
1994年,尼克·萨博首先提出了智能合约这一概念。通俗地讲,就是将合约内容利用计算机语言以代码的形式编写为程序,当程序的某种预定条件被满足时,程序将自动运行,此时意味着合约也就被自动履行。由于当时的互联网技术较为落后,这一构想并未得到较好的应用,而当今的互联网已经发展到可以满足其较好运行的水平。
在整体特性方面,智能合约相较传统合同具有以下特点:首先是匿名性,由于在区块链中运行,智能合约的账户运用了公钥和私钥等技术,造成交易过程在公有链上全网公开却对交易当事人具体身份隐匿的情形。其次是公开存储性,与传统合同不同,智能合约以打包区块的模式全节点共识存储,即使是非当事方账户也可以对合约的具体情况进行查阅,在特定条件下甚至可以对该份合约进行调用。再次是统一性,智能合约的编写需采用统一的计算机程序语言,与传统合同使用日常语言不同,这样可以在合约内容的表示方面有效减少歧义,更具统一性。最后是电子程序性,智能合约从编写到执行均是通过一系列电子程序的设计和运行来完成的,不同于传统合同的实在性,这些程序都存储在数据节点中,运行于网络中,不具备实體性。
2.区块链技术下智能合约对合同法的影响
2.1智能合约对意思表示的影响
在拟定智能合约的过程中,协商阶段的智能合约与传统合约类似,当事人会对合约的具体事项进行商讨,最终约定一致意味着完成协商,之后再将把这些表示一致的合意内容以计算机代码的形式写成程序。但由于计算机语言不同于日常交流语言,代码难以完整透彻地表示出当事人的意思,因此,在日常交流语言转化为计算机语言的过程中,难免会产生一定程度的差异。故智能合约在编程转化过程中,存在一定的意思表示误差。
2.2智能合约对合同效力的影响
2.2.1对于智能合约生效时间认定
在以智能合约的形式订立合同前,首先需要考虑其成立和生效的时间。智能合约从拟定到执行经历了协商、编程、打包、发块等众多程序,一旦经过其中打包、发块等程序,合约就进入了不可逆阶段。由此,笔者认为,在智能合约的订立过程中,在当事人就合约内容协商一致,并将该内容编写为程序后即代表合约成立,并自此生效;对于提前编好并以供调用的合约程序,其在被调用时认定合约成立并生效;若涉及“附条件”或“附期限”生效要件,当程序识别条件成就时或自程序设定的期限届至时认定合约生效;对于需办理相关手续才能生效的合约,则应采取线上与线下结合的方式,在线下相关手续办理完成时认定合同生效。
2.2.2对认定合同无效的影响
尽管从当前法律革新的趋势可以发现认定合同无效的情况越来越少,但仍不可忽视在智能合约的订立和履行过程中可能存在合同无效的情形,故有必要对智能合约无效的相关情形进行讨论和分析。智能合约以区块链技术作为支撑,其“匿名性”的特点使得合约内容公开而当事人信息隐秘的情况。一方面,在目前尚无技术手段可以确定外部账户控制者年龄、智力与精神状况的情况下,对于无民事行为能力人利用他人身份信息拟定合约的情形,事前另一方当事人无法察觉,事后也难以认定无效。另一方面,合约内容公开也帮助了因合约内容违反法律、行政法规强制性规定而无效的认定。
2.2.3对智能合约合同效力待定情形的影响
与上文认定合同无效的难处一样,由于智能合约中匿名的缘故,同样无法判断合约是否因订立主体为限制民事行为能力人而导致效力待定。此外,当智能合约中的程序识别到条件达成时将自动履行,此时会出现类似于的情况。笔者认为,由于设计程序前当事方已经经过了充分协商,且都知晓程序的执行过程,因此,智能合约中的程序通常情况下有权;但当运行过程中出现了设计时双方当事人未曾预见的新情况,若此时程序对这些预料之外的情况做出反应,则应视为无权,合约的效力为待定状态,有待订立主体的追认。
2.2.4对合同可撤销制度存在客观限制
合同作为一种典型的民事法律行为,当出现法定情形时是可撤销的。智能合约也同样可能出现重大误解或显失公平的情况,特别是基于匿名性的特点,更加大了对合约当事方身份产生重大误解的可能性。由于智能合约具有自动执行、不可逆等特点,因此其一旦到区块链上则难以撤销。虽然在协商阶段当事人可以选择放弃拟定合约,但此时合约仍处在拟定初期,尚未生效,所以自然也不存在可撤销的问题。由此看来,智能合约会在一定程度上限制当事人的撤销权。
2.3智能合约对价支付的合法性认定
当前智能合约的应用需要在一定的平台上进行,而在该类平台上交易,支付对价的方式往往限于特定的加密货币,例如“以太坊”中的智能合约则是使用以太币的方式来支付合约的对价。为防止不法分子不当使用加密货币,我国对与此类货币相关的可能发生的洗钱、诈骗等犯罪行为严格管控。目前主流观点认为加密货币具有一定商品属性,与依法发行的货币不享有同等地位。但笔者认为,既然对价支付并未要求必须是货币,那么在智能合约中以加密货币作为对价支付的行为是合理合法的。
2.4智能合约对违约及违约救济的影响
2.4.1智能合约可有效减少违约情况
智能合约作为一个从拟定到执行的动态整体,其在区块链上自主运行,极大地排除了合约双方当事人在执行过程中的干预,利用网络程序技术有效减少了违约情况的发生,有利于更好地保证履约的经济效益。虽然,智能合约的这一特征在一定程度上也对双方当事人部分权利的行使造成了限制,但其对减少违约现象的帮助也是不容忽视的。
2.4.2智能合约平台的违约救济缺位
当前智能合约的应用主要还是依赖于“以太坊”这类的平台,但对于智能合约可能出现的恶意缔约以及欺诈、重大误解等情况,相关平台缺乏后续的救济,使得出现了智能合约救济缺位的情形。与传统的交易平台公司不同,一方面,此类平台更类似于一个应用平台而不是一个法人,其通过搭建非实体的网络系统来提供服务;另一方面,这类平台的内部构成是以系统程序的方式运行在网络中,当前缺乏相关的监管技术,也没有专门的机构对其进行监管。这样的平台只是一个提供技术的工具,但缺少后续的跟踪和管理,没有完备的救济体系。因此,对于在使用智能合约过程中出现的违约等情况,现阶段还是只能通过传统的司法途径去解决。
3.智能合约纳入《民法典》调整的路径及建议
3.1在技术层面予以支撑
智能合约作为一项新兴技术,其本身仍存在不足,需要在技术上进行相应的改善,促进自身的规范化发展。目前,普遍认为区块链技术中智能合约所用到的数字货币不是货币,而是一种商品。现阶段,在中国境内发展加密货币是受到严格限制的,我国禁止金融机构提供相关业务,因此,发行法定数字货币是将智能合约纳入法律规制的首要前提。2014年起中国人民银行开始对法定数字货币展开研究,当前与法定数字货币相关的各项测试和准备工作正在有条不紊地推进着。
3.2加强《民法典》合同编适用的解释论研究
3.2.1对意思表示一致做扩大认定
对于上文提出的智能合约中计算机语言与传统合约语言存在差异进而影响意思表示的问题,笔者认为,可以对《民法典》中的意思表示一致进一步做扩大认定,即根据客观事实来对是否达到所表意思做出认定。由于在传统合约中,同一事物可以有不同的语言表示,因此在智能合约中判断意思表示是否一致时应根据程序代码设定的具体情况来确定。若程序代码所能达到的意思客观上与当事人所表达的意思没有实质区别,此时应忽略从日常语言到计算机程序语言的转换误差,将其认定为意思表示一致。
3.2.2认定智能合约的生效时间
根据《民法典》的规定,传统合同一般情况下在成立时即生效。而相较于传统合同,智能合约从协商拟定到履行的过程有更多的程序,为了防止合约当事人在成立时间的认定上出现不必要的争议,应进一步明确对智能合约成立时间的认定。根据智能合约拟定过程中的各程序的特点,笔者认为在当事人协商一致后,程序拟定完成时认定合约成立最妥当,生效时间仍根据《民法典》的相关规定认定在合同成立时生效。
3.2.3对合约当事人进行一定的匿名限制
匿名性作为智能合约的一大特性发挥着其独特的优势,但同时也会对合同的效力、履行、救济等方面造成较大影响,甚至滋生犯罪。因此,为推进智能合约的顺畅平稳运行,可以增加一些针对智能合约的反匿名规定,对当事人的匿名行为做出适度限制。例如:针对当事人民事行为能力影响合约效力这一问题,可以对当事人账户进行非共识实名年龄验证,只验证当事人的民事行为能力,对其身份依旧可选择保密,且不对其他上链主体公开;同时,对虚报年龄或其他做假行为加大监管和惩罚力度,最大限度地促进合约交易的有效进行。
3.2.4对智能程序的权进行认定
随着大数据、人工智能、区块链等新兴技术的兴起,金融业也迎来了全新的发展热潮,科技赋予金融业以新的面貌。金融科技是技术驱动下的金融创新,简单理解就是“互联网+金融”,利用科学技术服务金融业。金融科技正深刻地改变着金融业的发展形态,成为金融业发展的重要发力点。但是金融科技在为金融业带来发展机遇的同时也暗含风险,一方面金融科技依然面临着传统金融风险的冲击,另一方面在新的技术环境下,金融科技还面临着新的风险。要推动金融科技的稳态发展,防范化解金融风险,必须克服现有的监管难题,构建行之有效的监管方式和监管体系。
一、金融科技风险分析
金融科技依托快速发展的科学技术,不断创新金融业态,改变传统中小企业融资难问题,实现普惠金融。但是在金融科技的发展过程中也凸显了许多问题,冲击着传统的金融监管方式。
(一)操作风险
首先,现代科学技术的发展离不开大数据的支持,金融科技的发展也离不开数据的支撑。在互联网情境中存在大量的数据交换和处理,传统金融监管的被动监管模式难以进行有效监管,极易出现数据造假和数据泄露问题。其次,普通消费者不具有相关专业性,缺乏专业的风险评估能力和金融产品的判断能力,容易进行不合理的投资,给自身造成严重风险负担。最后,金融科技依靠新兴技术,企业本身可能面临技术短板,无法有效对风险进行预测分析。
(二)信用风险
在金融业发展领域,信用风险是普遍性的金融风险类型,是由参与交易的乙方或者双方实施的可能违背约定的行为造成的。造成信用风险的一个重要原因就是信息披露程度低,导致信息不对称。金融就其本质来说就是要解决信息不对称问题。金融交易以信息为支点,信息流动具有重要价值,但是在金融科技背景下,互联网信息数据鱼龙混杂,难以分辨其准确性和真实性,如果对交易参与者不进行充分的信息审查,极易增加潜在的信用风险。同时,当前金融科技产品呈现出同质化倾向,信息披露程度低,普通民众缺乏专业知识,风险意识低,交易时普遍存在信息不对称现象,导致金融科技潜在的信用风险持续走高。
(三)法律风险
在金融科技层面,各类信息技术的发展使金融交易和金融服务发生了巨变,无论是传统金融行业还是新兴的互联网金融企业,其交易习惯和方式都有一定程度的改变或重塑。不断涌现的新兴金融交易方式和金融业态给金融监管提出了巨大挑战,在现有的法律框架下难以实现规制目的。同时,一个金融交易行为可能涉及多种法律规则,如何进行法律界定和规制也是一大难题。随着信息技术的不断进步,个人信息泄露日益严重,网络金融诈骗层出不穷,金融服务提供者身份难辨,使得金融犯罪情形更加复杂,加之我国当前相关的金融科技法律法规缺失,打击违法犯罪行为无规可依,更加剧了金融科技的法律风险。
二、金融科技监管面临的突出性挑战
(一)法律层面:法律制度覆盖面窄
金融科技发展势如破竹,更新换代迅速,法律的滞后性使其难以匹配金融科技的发展速度。当前,我国的金融监管体系由《保险法》《证券法》《商业银行法》及《银行业监督管理法》等法律及其规范构成,然而现存的法律规范是为了应对已存在的风险,是对已存在和过去出现的问题进行规制的规则。法律和规则的制定需要一个过程,现有的立法相对于新出现的金融科技具有明显的滞后性。我国当前还未进行有关金融科技的立法,对金融科技的监管还处于空白阶段。同时,金融科技在互联网大数据的支撑下得以进行,金融科技的运作过程也是信息数据的交换过程,在此情境下,侵犯消费者个人信息、数据泄露、金融诈骗、贩卖数据牟利等情况不断发生,因此,在金融领域保护参与者的个人信息,防止金融数据泄露也需要采取法律手段予以规制。
(二)技术层面:监管科技效用性低
金融科技的深入应用拓展了金融交易的人员参与范围,传统的金融监管方式已经无法达到防范金融科技风险的要求。传统的金融监管以制定全面具体的标准和细则为准绳,而金融科技风险的主要来源是新兴科学技术,因此规制金融科技风险,必须对技术风险进行有效的约束。实践中,对技术的监管总是落后于技术本身的发展,监管科技发展滞后导致了无法有效应对风险的频繁发生。许多新的技术为科技监管提供了支持,但是金融科技同样依托于新兴技术,这就对监管科技提出了更高的要求。
(三)监管层面:传统监管局限性强
我国现阶段采用“一元多头”的分业监管体制,形成有序的监管体系。但是在科技加持的情况下,金融业开始朝混业式经营发展,分业式经营体系不断受到冲击,不再适合对混业式经营的监管。同时,“一元多头”的监管体制存在监管重合和监管盲区,容易导致风险隐匿的出现,已经不能够满足金融科技深入发展的需要。传统的金融监管主要包括3种方式:一是公告监管,金融机构按照法律法规规定的程序和方式向有关监管部门提供其经营资料;二是规范监管,国家制定规则对金融机构的经营事项、管理办法、惩罚措施进行规定;三是实体监管,对金融机构的设立、发展、清算以及破产进行实时全面的监管。传统的金融监管方式主要是金融机构依法提交的各类实体经营材料和企业经营信息进行静态监管、被动监管,但是金融科技具有快速性特征,在其支持下,金融市场的规模和交易速率有了大幅提升,对金融监管提出了更高的要求,要求监管方式更具有灵活性和时效性。在金融科技火速发展的当下,传统的金融监管手段急需改头换面。
三、金融科技监管的有效治理路径
(一)填补法律空白,建立完备的法律制度
1.树立金融科技监管的一般规则。金融科技正处于快速发展和不断变化的阶段,对于金融科技的法律监管应适当地具有灵活性。首先,可以采用原则性的监管办法。原则性监管较为灵活,能够适应金融科技的未来发展变化,同时也可以作为一种临时性的规制办法,为规则性监管制度的构建提供指导。其次,对现有的法律制度进行修订。为了避免法律重复出现的情况,可以在现有法律的基础上增设有关金融科技风险监管的专门内容,以适应金融科技给金融监管带来的变化。最后,制定新的法律规范,针对金融科技的全面深入发展,在立法条件成熟时,制定专门的金融科技法律,对金融科技风险进行全面有力地规制。2.多角度建设金融科技监管法律体系。第一,充分考虑科学技术在金融行业呈现的作用特征和价值,健全当前的金融法制体系,对当前金融法制体系中不适应金融科技发展的有关规范进行调整。第二,针对不同的金融机构、金融业务、金融创新领域进行系统性的研究和梳理,制定共通性的金融科技法律规范,并进一步制定细则。第三,针对特殊科学技术、特殊部门、业务制定出专门规定,有针对性地采取差别化措施,不断提高金融科技领域法律监管的精确度。第四,加快互联网金融的消费者保护立法,为消费者权益保护增设法律屏障。
(二)强化监管科技,充分发挥技术先进性
1.明确监管科技发展满足合规性。监管科技是金融监管的新方式,是对传统金融方式的补足,因此,监管科技的发展必须合法合规,应将其纳入现有的金融监管体系,并推动监管方式的进步。加强监管科技的顶层设计。从技术标准到管理和应用标准,全方位地建立起监管科技的标准体系,以保障其规范性、科学性。2.推动监管科技应用进程。现阶段,我国的监管科技还处于萌芽时期,为发挥监管科技的长远效应,推进监管科技的科学化、合理化发展进程,可以采取试点应用的方式,通过优质范例带动全面发展。可以设立专门的监管科技应用部门,整合相关资源,进行监管科技的实验工作,并进行追踪记录,对可行性进行确认,最后在总结经验的基础上进行推广。将科技和监管结合,形成监管科技,对发展变化的金融科技进行有效地监管。
(三)改进监管方式,构建多元化监管体系
美国为控制系统性风险,对金融业进行了新的监管改革,全方位扩大了政府的监管范围,将监管方式从分散监管向集中监管转变,将金融监管的重点放在了全面监管上,改变了以往着重地方监管和个体监管的局面。我国可以学习美国的经验,并根据我国金融科技的发展现状,推动协同式监管的构建。在国务院金融稳定发展委员会的统一领导下,促进其他金融部门和监管部门之间的联动,在各司其职的状态下加强统一合作,并不断提高监管效力和效率。除此以外,要加大对社会资源的充分调动,拓宽监管主体,形成多元主体的监管体系。在确保政府统一监管的基础上,推动社会、行业、企业等民间主体共同参与,加快构建多元化金融科技监管体系。1.金融科技企业自主监管。一方面,在金融监科技管领域,被监管人往往比监管人对自身更加了解,外部人通常难以得知金融科技企业内部的特定信息。另一方面,金融科技企业之间存在着激烈的竞争,作为竞争对手,金融科技企业之间也会对彼此更加关注。倡导金融科技企业自主监管,有利于加强企业对自身的约束和自我监督,也有利于加强企业之间的互相监督。因此,政府可以赋予金融科技企业更大的自,提高金融参与主体的积极性,促进金融科技企业自律。2.行业自律。行业应当承担起自身责任以应对行业的持续健康发展,英国为推动金融科技发展和金融创新成立了专门的管理机构。我国可以学习相关经验,成立金融科技监管组织,发挥行业的监管作用。现阶段,可以由金融稳定发展委员会牵头,推动行业自律机制的构建,制定行业准则,进行投资者保护和信息披露工作,引导行业加强自律,审慎经营,实现金融科技行业的稳健发展。3.社会监督。金融科技涉及方方面面,与社会群众的生活密不可分。在信息技术快速发展的今天,有关的金融监督部门应当广开言路,不断提高公民的参与度,拓展监督渠道,建立举报激励机制,鼓励和引导社会大众积极参与金融科技的社会监管,并积极开展金融科技教育活动,提高社会大众的金融知识水平和金融监督意识。
四、结语
金融与科技的充分融合和深入发展给现行的金融监管体系带来了巨大挑战,如何在金融科技创新和金融风险防控中找到一个平衡点,实现金融科技的健康发展和有效监督,成为金融科技发展过程中亟待解决的难题。在这种情况下,必须以法律为基础,加强行业自律,构建适宜的监管体系,以“科技”应对“科技”,实现对金融科技风险的有效治理。
参考文献:
[1]夏诗园,汤柳.金融科技潜在风险、监管挑战与国际经验[J].征信,2020(9):8-14.
[2]蒙杰.论金融科技风险的法律监管[J].对外经贸,2020(8):111-115.
[3]张凯.金融科技:风险衍生、监管挑战与治理路径[J].西南金融,2021(3):39-51.
一、会计信息质量概述
会计信息质量是投资者、政府等主体有效使用信息并做出决策的前提。财政部颁布的企业会计准则中表示,会计信息质量主要包括可靠性、谨慎性、重要性、及时性、可理解性和相关性。可靠性要求如实反映,要求会计信息具有完整性和无差错性等特征。谨慎性要求对相关事项保持谨慎的判断,充分考虑企业面临的各种损失和风险。重要性要求根据实际情况,反映与企业经营成果、财务状况等有关的重要交易或事项。同时,会计信息具有及时性,外部环境的快速变化使得信息的可用性具有一定的时效。可理解性要求会计信息清晰明确,便于理解。相关性要求信息具有反馈和预测价值,能为财务报告使用者做出正确决策提供参考价值。
二、大数据与会计信息质量的发展现状
现阶段,我国经济市场发展尚不完善,规范程度仍待提升。近些年来,国内外上市公司财务舞弊现象层出不穷。无论是獐子岛的“扇贝逃跑”事件,还是业内经典的美国安然事件,都给投资者、企业带来了巨大损失。虚假性与不透明是会计信息披露过程中的典型问题,大大降低了会计信息质量,对证券市场的正常发展产生了负面影响。随着我国信息技术的发展,大数据得到了广泛运用。大数据的出现让信息成指数型的增长,海量冗杂的财务数据让人眼花缭乱,仅通过人工已经无法高效的实现对数据的处理与解析。同时,大数据的出现也让以非结构化数据为主的会计信息有了一定程度的发展。强大的数据分析不断地完善信息产生和记录的过程,对会计信息的处理与监测产生了积极作用。
三、大数据对会计信息质量的积极影响
大数据的应用在数据量爆炸的现代社会尤为重要。大数据让会计信息质量的管理更具优势。这里主要探讨大数据技术对会计信息可靠性、谨慎性、重要性、及时性、可理解性以及相关性六个质量要求产生的积极影响。
(一)可靠性影响可靠性的具体要求
包括信息完整、无错等。完整性是从使用者角度出发的,要求会计信息必须包含使用者需要的所有必要信息。但实际上,信息主要是会计人员提供,完整性是由会计人员决定的。同样,无错性也依赖于财会人员的职业技能,任何失误或者蓄意行为都会产生会计差错。而大数据发挥了重要作用。对于完整性,大数据技术能够从经济活动的不同角度采集信息,极大地保留了原始信息。对于无错性,大数据减弱了人在信息产生处理过程中的主观能动性,做到了可接受范围内的“基本准确”。大数据可以通过智能程序设置对信息的产生、处理过程进行监控,并留下可追溯的痕迹,一定程度上避免了财会人员的蓄意舞弊和财务造假行为,极大的提高了会计信息的可靠性。
(二)谨慎性影响
在日常工作中,会计人员需要根据谨慎性原则对资产、负债等进行确认和计量,这依赖于会计人员的实践经验以及职业判断能力。想要消除会计错判问题,仅依赖于人是远远不够的。大数据结合人工智能,能够有效校正偏误导致的会计信息失真。随着大数据的不断发展,机器的会计分析和判断能力逐渐提高。借助智能化数据分析工具,会计重要事项的确认与计量有了可靠依据,减少了人主观判断可能出现的问题,增强了会计信息的谨慎性。
(三)重要性影响
重要性也是从信息使用者的角度定义的。重要性没有固定的衡量标准,会计信息重要与否,由信息使用者所处的具体环境决定。然而一般情况下是由会计人员选择信息,代替使用者决定该信息是否重要。大数据突破了传统信息产生过程中的限制,提高了信息生产的效率。会计人员无需再考虑重要性问题,而是由云计算协助完成。信息使用者可以通过互联网,根据自身的需求寻找重要的信息进行决策。
(四)及时性影响
及时性是基于使用者需求的一项特征。在信息时代,信息使用者要根据市场变化迅速反应,越陈旧的信息可用性越差。然而,传统的会计信息从产生、处理到最终传输需要一定的时间,这势必会对信息质量造成损伤。但大数据使得实时会计成为可能。以大数据为支撑的区块链技术可以让企业和信息使用者随时随地分享和获取有效的信息,让信息传输更加及时。
(五)可理解性影响
可理解性要求会计信息能够以清晰的方式被表述。然而,财务报告的信息密度大且综合度高,即使是具有完善和专业知识的人,要利用财务报告理解并做出决策仍然面临着很多困难。随着大数据技术的成熟,可视化成为快速理解信息的有效途径。可视化能够将冗杂的会计信息以图表、声音等方式直观易懂的表现出来,实现了信息的多样化输出。信息使用者还可以通过数据链接追踪数据的来源与去处,便于更好的理解会计信息。
(六)相关性影响相关性要求
会计信息具备影响决策的能力。会计信息的相关性体现在会计信息所包含的确认价值和预测价值。会计工作的重点逐渐从事后反映转变为预测未来。大数据可以通过共享平台、网络公开数据等向信息使用者提供完整、可靠和及时的会计信息。通过数据模型和分析,使用者可以从已有信息中获取更多仅依赖人工分析无法发现的新线索,大大提高会计信息的相关性。
四、大数据背景下会计信息质量发展存在的问题
(一)缺乏高层次的综合性
人才传统会计人员日常工作的内容和流程较为固定,以会计核算为主。但大数据环境下,会计的基础性工作可以被计算机完全取代,会计的职能逐渐从核算转向分析。会计人员不仅需要完善的财会知识体系,还需具备数据处理和分析能力。特别是对于企业的管理者来说,如果不能有效分析数据和信息,决策就无所依据。因此社会对于会计人员的信息化技能要求逐渐变高。然而,当前会计行业的管理型人才本就处于紧缺状态,具备数据分析能力的综合性人才更是缺乏。
(二)信息安全性和保密性
无法保障大数据技术在我国发展尚不成熟,会计信息的保密和安全面临着巨大风险。一方面,大数据的出现使信息的存储媒介由纸质材料转变为电子设备。一旦电脑系统瘫痪或是出现问题,很容易丢失信息且难以恢复。另一方面,以电子数据存储在媒介中的会计信息保密性较差。一旦遭到黑客攻击,就会面临着信息泄露、信息失真等一系列风险,企业和利益者都将面临巨大的经济损失。
(三)缺乏完善的监督体制和法律法规制度
会计信息质量监督是会计工作的重要内容。然而现阶段,我国会计信息质量监督体制仍有很多不足,针对网络上会计信息安全等问题的法律法规仍不完善,对于给利益相关者造成的损失也没有明确的赔偿措施。法律对于会计信息披露不规范等问题的惩罚力度较小,对企业无法产生威慑作用,助长了市场上信息造假不良风气的形成。
五、针对会计信息质量问题的解决措施
(一)加强高水平人才队伍建设
会计人才队伍的建设对企业的发展十分重要。首先,企业要积极引进综合性人才,人员应具备扎实的专业知识基础以及一定的信息技术能力以适应企业发展的需求。其次,企业应定期加强对在岗人员的计算机技术和专业技能培训,提高员工的竞争力,帮助员工快速适应工作重心的转变,提高企业内部的运作效率。
(二)建立数据保护体系,保障数据安全
数据安全是每一个企业都要重视的问题。首先,在企业内部,应提高工作人员对会计信息安全的重视程度。在利用网络共享信息时,应采用私人密码进行数据的改写、删除等操作,并严格追踪业务参与者的网络轨迹,避免内部人员的恶意修改、盗取数据。其次,在与外部企业合作时,要注意对关键信息的加密与备份,防止信息泄露。
(三)加强政府监督和社会监督监督
在会计信息质量的发展过程中不可忽略。现行的政府监督体系存在多头监管的情形。为更好的监管,政府可以利用大数据建立公共信息监管平台,实现各部门之间的监管数据共享,提高政府监管的效率。在社会监督方面,可以建立监管举报机制,为普通群众提供举报的平台,实现大众监督。
(四)完善相关的法律法规体系
从立法方面,首先应进一步完善会计相关的法律法规。加大对信息披露违规违法行为的惩罚力度,增加财务信息造假的成本。其次,应逐步完善互联网信息安全相关的法律法规,对恶意攻击、非法盗取信息的违法人员建立严格的惩罚机制。确保在企业的合法权益受到侵害时,可以依据法律维护权益并获得赔偿。六、结语从上述分析可知,大数据的应用让企业同时面临着机遇与挑战。一方面,我国信息造假的事件层出不穷,会计信息质量得不到保障。而大数据技术的应用能够让可靠性、谨慎性等六个会计信息质量特征得到良好的发展。另一方面,会计行业存在缺乏人才、缺乏监督和法律、信息安全和保密性较差等诸多问题。因此,社会各方都应针对这些问题积极解决,以减少我国财务信息造假现象,不断提高和发展会计信息质量。
参考文献
中图分类号: TU198 文献标识码: A 文章编号:
一、建筑工程绿色施工的特点
实施绿色工程,可以有条件地将人、自然、施工有机地联系在一起,为我国发展循环经济和低碳经济提供有力保障。
绿色施工追求经济效益、社会效益和环境效益的统一
绿色施工是指将环境保护、节约资源为前提地发展建筑工程。以“节能、节水、节约资源”为控制目标,从而把原先的拼设备、拼材料、拼人力转变为依靠科技技术的项目目标管理层上。
绿色施工需要信息技术的支持
传统的施工一般是资源浪费严重,安全系数偏低,粗放型的方式对施工进行管理,很难在技术、管理等层面上与同行业拉开距离。这就要求管理者依靠科技的力量,对施工实行动态的管理,以最少的资源投入产生出同样的甚至更多效益,达到高效、节能、环保的目的。
统筹协调工作更加复杂
要想使得绿色工程在整体上达到最好的效果,这就要求管理者做好协调工作。因为建筑工程的施工程序比较复杂,对各专业的综合要求比较高。如果协调工作没有做好,可能会产生资源白白被浪费、进度拖延等问题。
二、我国绿色施工发展现状及存在的问题
1、法律法规制度不健全
我国目前关于绿色施工有《绿色施工导则》等法规,但是针对性不强,专业性不强。另外,我国现行的建设工程管理制度对绿色施工也存在着一定的阻碍作用,比如投资成本大、协调难度大、协调成本高,优化组合难以实现的问题。这就在一定程度上制约了绿色施工的发展。这就要求相关部门采取一定的措施来解决上述问题,完善相应的法律法规,调整相应的管理制度。
2、绿色施工意识低
我国绿色施工的主要问题还是在于企业施工意识不高。由于项目本身固有的特征以及一些工作人员文化素质不高,使得他们似乎已经习惯了一些错误的方法,从而在无意识中浪费了很多资源。这就成为了绿色施工的主要障碍之一。因此,只有各个参与方的环保意识增强了,绿色施工才能在我国广泛推行。推行绿色施工除了需要建筑行业的绿色意识外,还需要政府的规划、国土、环保、质监、安全等部门,设计、检测、验收等社会中介都有不可推卸的责任。
3、监督评价机制不完善
我国目前出台了《绿色建筑评价标准》和《绿色奥运建筑评估体系》等评判标准,但是还没有一部系统性的评价绿色施工的监管机制来促进施工的发展,绿色施工评价体系也不够完善。
三、建筑工程绿色施工实施的对策
为了全面落实科学发展观,支持国家的循环经济和低碳经济,推行绿色施工迫在眉睫。应努力做好以下几个方面的工作:
1、建立绿色施工评估体系,按标准加强对绿色施工的监管
我国的绿色施工评价标准和技术都尚处于研究阶段,我国人口众多,资源不平衡,需要尽快建立符合系列法规。当前经济技术条件下,对所能认识到的建筑施工中的不可持续发展的行为、材料与设备,从技术标准、法规上加以限制或淘汰。要改变招投标中一味压低价格的作法,对实施绿色施工的企业加分,并逐渐将绿色施工的要求作为招投标的重要门槛,向绿色施工实施政策倾斜。结合当地特点,广泛利用太阳能、风能、地热能、沼气等可再生能源,减少能耗和对环境的污染,达到最高效率地利用当地资源、能源,最低限度地影响环境的目标。
2、实施“绿色税收”,建立有效的激励机制
绿色税收的出发点是代内公平、代际公平和公平分配有限资源的公平原则。开发商要对其造成的全部后果承担完整的成本,因而应当采用带有倾向性的税收政策体现社会公正。在具体实施过程中,可以建立示范工程,用榜样的力量积极引导市场,明确政策导向,吸引投资帮助绿色建筑的发展,为绿色施工创造一个良好的外部环境和市场条件。这种管理体制在一定程度上就制约了绿色施工的发展。由此可见,推进绿色施工的发展就需要完善法律法规,调整相应的管理制度,取一定的激励政策。
3、将绿色施工列入各级政府工作目标,充分发挥政府主导作用
政府应适时制定并实施有关循环经济的法律制度规章,使有关职能部门的管理工作有法可依,有章可循,有所约束。市场本身存在缺陷,需要通过政府的宏观调控、价格投资等政策进行调整。对致力于发展绿色施工的单位给予奖励和支持大力支持和鼓励绿色施工技术体系的创新;政府相关部门要继续改进作风,协调社会中介涉及检测、验收等环节的工作链条,提高工作效率。立足为企业服务,起到协调社会的作用。要加强全程监管,强制执行“四节”和环保标准。在建筑的立项、规划、设计、审图、施工、监理、检测、竣工验收、核准销售、维护使用等各个环节加强监管,层层把关,做到不符合绿色建筑标准的不批准、不立项、不施工,从根本上控制不达标建筑的建造。
4、加强宣传培训,推进全社会的生态意识教育
要从多个途径上大力宣传绿色科技,提高公民的环保意识,使得公民真正地了解绿色建筑对我国的意义。要从以下几个方面来加强公众的绿色意识:第一,绿色施工不等于文明施工,前者包括后者。绿色施工技术和文明施工都有封闭施工、减少环境污染、减少噪音扰民、清洁运输灯功效。但是绿色施工还包括尊重环境、减少填埋废弃物的数量以及科学管理等;第二,绿色施工是经济效益和环保效益的统一。有些人认为绿色施工投入大,经济上划不来。要加强对建筑设计师的可持续发展的生态意识教育,推动建筑设计师的创作更加关心历史、社会人文和生态环境。可以通过减少施工现场的破坏、土石方的挖运和人工智能系统的安装,降低现场清理费用;要切实加强劳务工培训,从思想认识上、操作规程上进行严格的训练;第三,绿色施工需要多方的参与。绿色施工总体框架由节水与水资源利用、环境保护、施工管理、节地与施工用地保护、节材与材料资源利用、节能与能源利用等六个方面组成。绿色工程的完成需要各方的配合,建立绿色施工工程,建筑企业是主力军,同时也需要有关部门组织管理和规划。
参考文献: