欢迎访问发表云网!为您提供杂志订阅、期刊投稿咨询服务!

人工智能的法律规制大全11篇

时间:2023-08-06 10:51:58

人工智能的法律规制

人工智能的法律规制篇(1)

【正 文】

一、人工智能法律系统的历史

计算机先驱思想家莱布尼兹曾这样不无浪漫地谈到推理与计算的关系:“我们要造成这样一个结果,使所有推理的错误都只成为计算的错误,这样,当争论发生的时候,两个哲学家同两个计算家一样,用不着辩论,只要把笔拿在手里,并且在算盘面前坐下,两个人面对面地说:让我们来计算一下吧!”(注:转引自肖尔兹著:《简明逻辑史》,张家龙译,商务印书馆1977年版,第54页。)

如果连抽象的哲学推理都能转变为计算问题来解决,法律推理的定量化也许还要相对简单一些。尽管理论上的可能性与技术可行性之间依然存在着巨大的鸿沟,但是,人工智能技术的发展速度确实令人惊叹。从诞生至今的短短45年内,人工智能从一般问题的研究向特殊领域不断深入。1956年纽厄尔和西蒙教授的“逻辑理论家”程序,证明了罗素《数学原理》第二章52个定理中的38个定理。塞缪尔的课题组利用对策论和启发式探索技术开发的具有自学习能力的跳棋程序,在1959年击败了其设计者,1962年击败了州跳棋冠军,1997年超级计算机“深蓝”使世界头号国际象棋大师卡斯帕罗夫俯首称臣。

20世纪60年代,人工智能研究的主要课题是博弈、难题求解和智能机器人;70年代开始研究自然语言理解和专家系统。1971年费根鲍姆教授等人研制出“化学家系统”之后,“计算机数学家”、“计算机医生”等系统相继诞生。在其他领域专家系统研究取得突出成就的鼓舞下,一些律师提出了研制“法律诊断”系统和律师系统的可能性。(注:Simon Chalton,Legal Diagnostics,Computers and Law,No.25,August 1980.pp.13-15.Bryan Niblett,Expert Systems for Lawyers,Computers and Law,No.29,August 1981.p.2.)

1970年Buchanan & Headrick发表了《关于人工智能和法律推理若干问题的考察》,一文,拉开了对法律推理进行人工智能研究的序幕。文章认为,理解、模拟法律论证或法律推理,需要在许多知识领域进行艰难的研究。首先要了解如何描述案件、规则和论证等几种知识类型,即如何描述法律知识,其中处理开放结构的法律概念是主要难题。其次,要了解如何运用各种知识进行推理,包括分别运用规则、判例和假设的推理,以及混合运用规则和判例的推理。再次,要了解审判实践中法律推理运用的实际过程,如审判程序的运行,规则的适用,事实的辩论等等。最后,如何将它们最终运用于编制能执行法律推理和辩论任务的计算机程序,区别和分析不同的案件,预测并规避对手的辩护策略,建立巧妙的假设等等。(注:Buchanan & Headrick,Some SpeculationAbout Artificial Intelligence and Legal Reasoning,23 StanfordLaw Review(1970).pp.40-62.)法律推理的人工智能研究在这一时期主要沿着两条途径前进:一是基于规则模拟归纳推理,70年代初由Walter G.Popp和Bernhard Schlink开发了JUDITH律师推理系统。二是模拟法律分析,寻求在模型与以前贮存的基础数据之间建立实际联系,并仅依这种关联的相似性而得出结论。Jeffrey Meld-man 1977年开发了计算机辅助法律分析系统,它以律师推理为模拟对象,试图识别与案件事实模型相似的其他案件。考虑到律师分析案件既用归纳推理又用演绎推理,程序对两者都给予了必要的关注,并且包括了各种水平的分析推理方法。

专家系统在法律中的第一次实际应用,是D.沃特曼和M.皮特森1981年开发的法律判决辅助系统(LDS)。研究者探索将其当作法律适用的实践工具,对美国民法制度的某个方面进行检测,运用严格责任、相对疏忽和损害赔偿等模型,计算出责任案件的赔偿价值,并论证了如何模拟法律专家意见的方法论问题。(注:'Models of LegalDecisionmaking Report',R-2717-ICJ(1981).)

我国法律专家系统的研制于20世纪80年代中期起步。(注: 钱学森教授:《论法治系统工程的任务与方法》(《科技管理研究》1981年第4期)、《社会主义和法治学与现代科学技术》(《法制建设》1984年第3期)、《现代科学技术与法和法制建设》(《政法论坛》)1985年第3期)等文章,为我国法律专家系统的研发起了思想解放和理论奠基作用。)1986年由朱华荣、肖开权主持的《量刑综合平衡与电脑辅助量刑专家系统研究》被确定为国家社科“七五”研究课题,它在建立盗窃罪量刑数学模型方面取得了成果。在法律数据库开发方面,1993年中山大学学生胡钊、周宗毅、汪宏杰等人合作研制了《LOA律师办公自动化系统》。(注:杨建广、骆梅芬编著:《法治系统工程》,中山大学出版社1996年版,第344-349页。)1993年武汉大学法学院赵廷光教授主持开发了《实用刑法专家系统》。(注:赵廷光等著:《实用刑法专家系统用户手册》,北京新概念软件研究所1993年版。)它由咨询检索系统、辅助定性系统和辅助量刑系统组成,具有检索刑法知识和对刑事个案进行推理判断的功能。

专家系统与以往的“通用难题求解”相比具有以下特点:(1)它要解决复杂的实际问题,而不是规则简单的游戏或数学定理证明问题;(2)它面向更加专门的应用领域,而不是单纯的原理性探索;(3)它主要根据具体的问题域,选择合理的方法来表达和运用特殊的知识,而不强调与问题的特殊性无关的普适性推理和搜索策略。

法律专家系统在法规和判例的辅助检索方面确实发挥了重要作用,解放了律师一部分脑力劳动。但绝大多数专家系统目前只能做法律数据的检索工作,缺乏应有的推理功能。20世纪90年代以后,人工智能法律系统进入了以知识工程为主要技术手段的开发时期。知识工程是指以知识为处理对象,以能在计算机上表达和运用知识的技术为主要手段,研究知识型系统的设计、构造和维护的一门更加高级的人工智能技术。(注:《中国大百科全书·自动控制与系统工程》,中国大百科全书出版社1991年版,第579页。)知识工程概念的提出,改变了以往人们认为几个推理定律再加上强大的计算机就会产生专家功能的信念。以知识工程为技术手段的法律系统研制,如果能在法律知识的获得、表达和应用等方面获得突破,将会使人工智能法律系统的研制产生一个质的飞跃。

人工智能法律系统的发展源于两种动力。其一是法律实践自身的要求。随着社会生活和法律关系的复杂化,法律实践需要新的思维工具,否则,法律家(律师、检察官和法官)将无法承受法律文献日积月累和法律案件不断增多的重负。其二是人工智能发展的需要。人工智能以模拟人的全部思维活动为目标,但又必须以具体思维活动一城一池的攻克为过程。它需要通过对不同思维领域的征服,来证明知识的每个领域都可以精确描述并制造出类似人类智能的机器。此外,人工智能选择法律领域寻求突破,还有下述原因:(1)尽管法律推理十分复杂,但它有相对稳定的对象(案件)、相对明确的前提(法律规则、法律事实)及严格的程序规则,且须得出确定的判决结论。这为人工智能模拟提供了极为有利的条件。(2)法律推理特别是抗辩制审判中的司法推理,以明确的规则、理性的标准、充分的辩论,为观察思维活动的轨迹提供了可以记录和回放的样本。(3)法律知识长期的积累、完备的档案,为模拟法律知识的获得、表达和应用提供了丰富、准确的资料。(4)法律活动所特有的自我意识、自我批评精神,对法律程序和假设进行检验的传统,为模拟法律推理提供了良好的反思条件。

二、人工智能法律系统的价值

人工智能法律系统的研制对法学理论和法律实践的价值和意义,可以概括为以下几点:

一是方法论启示。P.Wahlgren说:“人工智能方法的研究可以支持和深化在创造性方法上的法理学反思。这个信仰反映了法理学可以被视为旨在于开发法律分析和法律推理之方法的活动。从法理学的观点看,这种研究的最终目标是揭示方法论的潜在作用,从而有助于开展从法理学观点所提出的解决方法的讨论,而不仅仅是探讨与计算机科学和人工智能有关的非常细致的技术方面。”(注:P.Wahlgren,Automationof Legal Reasoning:A Study on Artificial Intelligence and Law,Computer Law Series 11.Kluwer Law and Taxation Publishers.Deventer Boston 1992.Chapter 7.)在模拟法律推理的过程中,法学家通过与工人智能专家的密切合作,可以从其对法律推理的独特理解中获得有关方法论方面的启示。例如,由于很少有两个案件完全相似,在判例法实践中,总有某些不相似的方面需要法律家运用假设来分析已有判例与现实案件的相关性程度。但法学家们在假设的性质问题上常常莫衷一是。然而HYPO的设计者,在无真实判例或真实判例不能充分解释现实案件的情况下,以假设的反例来反驳对方的观点,用补充、删减和改变事实的机械论方法来生成假设。这种用人工智能方法来处理假设的办法,就使复杂问题变得十分简单:假设实际上是一个新的论证产生于一个经过修正的老的论证的过程。总之,人工智能方法可以帮助法学家跳出法理学方法的思维定势,用其他学科的方法来重新审视法学问题,从而为法律问题的解决提供了新的途径。

二是提供了思想实验手段。西蒙认为,尽管我们还不知道思维在头脑中是怎样由生理作用完成的,“但我们知道这些处理在数字电子计算机中是由电子作用完成的。给计算机编程序使之思维,已经证明有可能为思维提供机械论解释”。(注:转引自童天湘:《人工智能与第N代计算机》,载《哲学研究》1985年第5期。)童天湘先生认为:“通过编制有关思维活动的程序,就会加深对思维活动具体细节的了解,并将这种程序送进计算机运行,检验其正确性。这是一种思想实验,有助于我们研究人脑思维的机理。”(注:转引自童天湘:《人工智能与第N代计算机》,载《哲学研究》1985年第5期。)人工智能法律系统研究的直接目标是使计算机能够获取、表达和应用法律知识,软件工程师为模拟法律推理而编制程序,必须先对人的推理过程作出基于人工智能理论和方法的独特解释。人工智能以功能模拟开路,在未搞清法律家的推理结构之前,首先从功能上对法律证成、法律检索、法律解释、法律适用等法律推理的要素和活动进行数理分析,将法理学、诉讼法学关于法律推理的研究成果模型化,以实现法律推理知识的机器表达或再现,从而为认识法律推理的过程和规律提供了一种实验手段。法学家则可以将人工智能法律系统的推理过程、方法和结论与人类法律推理活动相对照,为法律推理的法理学研究所借鉴。因此,用人工智能方法模拟法律推理,深化了人们对法律推理性质、要素和过程的认识,使法学家得以借助人工智能科学的敏锐透镜去考察法律推理的微观机制。正是在这个意义上,Bryan Niblett教授说:“一个成功的专家系统很可能比其他的途径对法理学作出更多的(理论)贡献。”(注:Bryan Niblett,ExpertSystems for Lawyers,Computers and Law,No.29,August 1981.note14,p.3.)

三是辅助司法审判。按照格雷的观点,法律专家系统首先在英美判例法国家出现的直接原因在于,浩如烟海的判例案卷如果没有计算机编纂、分类、查询,这种法律制度简直就无法运转了。(注:Pamela N.Gray Brookfield,Artificial Legal Intelligence,VT:DartmouthPublishing Co.,1997.p.402.)其实不仅是判例法,制定法制度下的律师和法官往往也要为检索有关的法律、法规和司法解释耗费大量的精力和时间,而且由于人脑的知识和记忆能力有限,还存在着检索不全面、记忆不准确的问题。人工智能法律系统强大的记忆和检索功能,可以弥补人类智能的某些局限性,帮助律师和法官从事相对简单的法律检索工作,从而极大地解放律师和法官的脑力劳动,使其能够集中精力从事更加复杂的法律推理活动。

四是促进司法公正。司法推理虽有统一的法律标准,但法官是具有主观能动性的差异个体,所以在执行统一标准时会产生一些差异的结果。司法解释所具有的建构性、辩证性和创造性的特点,进一步加剧了这种差异。如果换了钢铁之躯的机器,这种由主观原因所造成的差异性就有可能加以避免。这当然不是说让计算机完全取代法官,而是说,由于人工智能法律系统为司法审判提供了相对统一的推理标准和评价标准,从而可以辅助法官取得具有一贯性的判决。无论如何,我们必须承认,钢铁之躯的机器没有物质欲望和感情生活,可以比人更少地受到外界因素的干扰。正像计算机录取增强了高考招生的公正性、电子监视器提高了纠正行车违章的公正性一样,智能法律系统在庭审中的运用有可能减少某些徇私舞弊现象。

五是辅助法律教育和培训。人工智能法律系统凝聚了法律家的专门知识和法官群体的审判经验,如果通过软件系统或计算机网络实现专家经验和知识的共享,便可在法律教育和培训中发挥多方面的作用。例如,(1)在法学院教学中发挥模拟法庭的作用,可以帮助法律专业学生巩固自己所学知识,并将法律知识应用于模拟的审判实践,从而较快地提高解决法律实践问题的能力。(2)帮助新律师和新法官全面掌握法律知识,迅速获得判案经验,在审判过程的跟踪检测和判决结论的动态校正中增长知识和才干,较快地接近或达到专家水平。(3)可使不同地区、不同层次的律师和法官及时获得有关法律问题的咨询建议,弥补因知识结构差异和判案经验多寡而可能出现的失误。(4)可以为大众提供及时的法律咨询,提高广大人民群众的法律素质,增强法律意识。

六是辅助立法活动。人工智能法律系统不仅对辅助司法审判有重要的意义,而且对完善立法也具有实用价值。(注:Edwina L.Rissland,Artificial Intelligence and Law:Stepping Stones to a Modelof Legal Reasoning,The Yale Law Journal.(Vol.99:1957-1981).)例如,伦敦大学Imperial学院的逻辑程序组将1981年英国国籍法的内容形式化,帮助立法者发现了该法在预见性上存在的一些缺陷和法律漏洞。(注:Edwina L.Rissland,Artificial Intelligence and Law:Stepping Stones to a Model of Legal Reasoning,The Yale LawJournal.(Vol.99:1957-1981).)立法辅助系统如能应用于法律起草和法律草案的审议过程,有可能事先发现一些立法漏洞,避免一个法律内部各种规则之间以及新法律与现有法律制度之间的相互冲突。

三、法理学在人工智能法律系统研究中的作用

1.人工智能法律系统的法理学思想来源

关于人工智能法律系统之法理学思想来源的追踪,不是对法理学与人工智能的联系作面面俱到的考察,而旨在揭示法理学对人工智能法律系统的发展所产生的一些直接影响。

第一,法律形式主义为人工智能法律系统的产生奠定了理论基础。18-19世纪的法律形式主义强调法律推理的形式方面,认为将法律化成简单的几何公式是完全可能的。这种以J·奥斯汀为代表的英国分析法学的传统,主张“法律推理应该依据客观事实、明确的规则以及逻辑去解决一切为法律所要求的具体行为。假如法律能如此运作,那么无论谁作裁决,法律推理都会导向同样的裁决。”(注:(美)史蒂文·J·伯顿著:《法律和法律推理导论》,张志铭、解兴权译,中国政法大学出版社1998年9月版,第3页。)换言之,机器只要遵守法律推理的逻辑,也可以得出和法官一样的判决结果。在分析法学家看来,“所谓‘法治’就是要求结论必须是大前提与小前提逻辑必然结果。”(注:朱景文主编:《对西方法律传统的挑战》,中国检察出版社1996年2月版,第292页。)如果法官违反三段论推理的逻辑,就会破坏法治。这种机械论的法律推理观,反映了分析法学要求法官不以个人价值观干扰法律推理活动的主张。但是,它同时具有忽视法官主观能动性和法律推理灵活性的僵化的缺陷。所以,自由法学家比埃利希将法律形式主义的逻辑推理说称为“自动售货机”理论。然而,从人工智能就是为思维提供机械论解释的意义上说,法律形式主义对法律推理所作的机械论解释,恰恰为人工智能法律系统的开发提供了可能的前提。从人工智能法律系统研制的实际过程来看,在其起步阶段,人工智能专家正是根据法律形式主义所提供的理论前提,首先选择三段论演绎推理进行模拟,由Walter G.Popp和Bernhard Schlink在20世纪70年代初开发了JUDITH律师推理系统。在这个系统中,作为推理大小前提的法律和事实之间的逻辑关系,被计算机以“如果A和B,那么C”的方式加以描述,使机器法律推理第一次从理论变为现实。

第二,法律现实主义推动智能模拟深入到主体的思维结构领域。法律形式主义忽视了推理主体的社会性。法官是生活在现实社会中的人,其所从事的法律活动不可能不受到其社会体验和思维结构的影响。法官在实际的审判实践中,并不是机械地遵循规则,特别是在遇到复杂案件时,往往需要作出某种价值选择。而一旦面对价值问题,法律形式主义的逻辑决定论便立刻陷入困境,显出其僵化性的致命弱点。法律现实主义对其僵化性进行了深刻的批判。霍姆斯法官明确提出“法律的生命并不在于逻辑而在于经验”(注:(美)博登海默著:《法理学——法哲学及其方法》,邓正来、姬敬武译,华夏出版社1987年12月版,第478页。)的格言。这里所谓逻辑,就是指法律形式主义的三段论演绎逻辑;所谓经验,则包括一定的道德和政治理论、公共政策及直觉知识,甚至法官的偏见。法律现实主义对法官主观能动性和法律推理灵活性的强调,促使人工智能研究从模拟法律推理的外在逻辑形式进一步转向探求法官的内在思维结构。人们开始考虑,如果思维结构对法官的推理活动具有定向作用,那么,人工智能法律系统若要达到法官水平,就应该通过建立思维结构模型来设计机器的运行结构。TAXMAN的设计就借鉴了这一思想,法律知识被计算机结构语言以语义网络的方式组成不同的规则系统,解释程序、协调程序、说明程序分别对网络结构中的输入和输出信息进行动态结构调整,从而适应了知识整合的需要。大规模知识系统的KBS(Knowledge Based System)开发也注意了思维结构的整合作用,许多具有内在联系的小规模KBS子系统,在分别模拟法律推理要素功能(证成、法律查询、法律解释、法律适用、法律评价、理由阐述)的基础上,又通过联想程序被有机联系起来,构成了具有法律推理整体功能的概念模型。(注:P.Wahlgren,Automation of Legal Reasoning:A Study onArtificial Intelligence and Law,Computer Law Series 11.KluwerLaw and Taxation Publishers.Deventer Boston 1992.Chapter 7.)

第三,“开放结构”的法律概念打开了疑难案件法律推理模拟的思路。法律形式主义忽视了疑难案件的存在。疑难案件的特征表现为法律规则和案件之间不存在单一的逻辑对应关系。有时候从一个法律规则可以推出几种不同的结论,它们往往没有明显的对错之分;有时一个案件面对着几个相似的法律规则。在这些情况下,形式主义推理说都一筹莫展。但是,法律现实主义在批判法律形式主义时又走向另一个极端,它否认具有普遍性的一般法律规则的存在,试图用“行动中的法律”完全代替分析法学“本本中的法律”。这种矫枉过正的做法虽然是使法律推理摆脱机械论束缚所走出的必要一步,然而,法律如果真像现实主义法学所说的那样仅仅存在于具体判决之中,法律推理如果可以不遵循任何标准或因人而异,那么,受到挑战的就不仅是法律形式主义,而且还会殃及法治要求实现规则统治之根本原则,并动摇人工智能法律系统存在的基础。哈特在法律形式主义和法律现实主义的争论中采取了一种折中立场,他既承认逻辑的局限性又强调其重要性;既拒斥法官完全按自己的预感来随意判案的见解,又承认直觉的存在。这种折中立场在哈特“开放结构”的法律概念中得到了充分体现。法律概念既有“意义核心”又有“开放结构”,逻辑推理可以帮助法官发现问题的阳面,而根据社会政策、价值和后果对规则进行解释则有助于发现问题的阴面。开放结构的法律概念,使基于规则的法律推理模拟在受到概念封闭性的限制而对疑难案件无能为力时,找到了新的立足点。在此基础上,运用开放结构概念的疑难案件法律推理模型,通过逻辑程序工具和联想技术而建立起来。Gardner博士就疑难案件提出两种解决策略:一是将简易问题从疑难问题中筛选出来,运用基于规则的技术来解决;二是将疑难问题同“开放结构”的法律概念联系在一起,先用非范例知识如规则、控辩双方的陈述、常识来获得初步答案,再运用范例来澄清案件、检查答案的正确性。

第四,目的法学促进了价值推理的人工智能研究。目的法学是指一种所谓直接实现目的之“后法治”理想。美国法学家诺内特和塞尔兹尼克把法律分为三种类型。他们认为,以法治为标志的自治型法,过分强调手段或程序的正当性,有把手段当作目的的倾向。这说明法治社会并没有反映人类关于美好社会的最高理想,因为实质正义不是经过人们直接追求而实现的,而是通过追求形式正义而间接获得的。因此他们提出以回应型法取代自治型法的主张。在回应型法中,“目的为评判既定的做法设立了标准,从而也就开辟了变化的途径。同时,如果认真地对待目的,它们就能控制行政自由裁量权,从而减轻制度屈从的危险。反之,缺少目的既是僵硬的根源,又是机会主义的根源。”(注:(美)诺内特、塞尔兹尼克著:《转变中的法律与社会》,张志铭译,中国政法大学出版社1994年版,第60页。)美国批判法学家昂格尔对形式主义法律推理和目的型法律推理的特点进行了比较,他认为,前者要求使用内容明确、固定的规则,无视社会现实生活中不同价值观念的冲突,不能适应复杂情况和变化,追求形式正义;后者则要求放松对法律推理标准的严格限制,允许使用无固定内容的抽象标准,迫使人们在不同的价值观念之间做出选择,追求实质正义。与此相应,佩雷尔曼提出了新修辞学(New Rhetoric)的法律理论。他认为,形式逻辑只是根据演绎法或归纳法对问题加以说明或论证的技术,属于手段的逻辑;新修辞学要填补形式逻辑的不足,是关于目的的辩证逻辑,可以帮助法官论证其决定和选择,因而是进行价值判断的逻辑。他认为,在司法三段论思想支配下,法学的任务是将全部法律系统化并作为阐释法律的大前提,“明确性、一致性和完备性”就成为对法律的三个要求。而新修辞学的基本思想是价值判断的多元论,法官必须在某种价值判断的指示下履行义务,必须考虑哪些价值是“合理的、可接受的、社会上有效的公平的”。这些价值构成了判决的正当理由。(注:沈宗灵著:《现代西方法理学》,北京大学出版社1992年版,第443-446页。)制造人工智能法律系统最终需要解决价值推理的模拟问题,否则,就难以实现为判决提供正当理由的要求。为此,P.Wahlgren提出的与人工智能相关的5种知识表达途径中,明确地包括了以道义为基础的法律推理模型。(注:P.Wahlgren,Automation of Legal Reasoning:A Study on ArtificialIntelligence and Law,Computer Law Series 11.Kluwer Law andTaxation Publishers.Deventer Boston 1992.Chapter 7.)引入道义逻辑,或者说在机器中采用基于某种道义逻辑的推理程序,强调目的价值,也许是制造智能法律系统的关键。不过,即使把道义逻辑硬塞给计算机,钢铁之躯的机器没有生理需要,也很难产生价值观念和主观体验,没办法解决主观选择的问题。在这个问题上,波斯纳曾以法律家有七情六欲为由对法律家对法律的机械忠诚表示了强烈怀疑,并辩证地将其视为法律发展的动力之一。只有人才能够平衡相互冲突的利益,能够发现对人类生存和发展至关重要的价值。因此,关于价值推理的人工智能模拟究竟能取得什么成果,恐怕还是个未知数。

2.法理学对人工智能法律系统研制的理论指导作用

Gold and Susskind指出:“不争的事实是,所有的专家系统必须适应一些法理学理论,因为一切法律专家系统都需要提出关于法律和法律推理性质的假设。从更严格的意义上说,一切专家系统都必须体现一种结构理论和法律的个性,一种法律规范理论,一种描述法律科学的理论,一种法律推理理论”。(注:Gold and Susskind,ExpertSystems in Law:A Jurisprudential and Formal SpecificationApproach,pp.307-309.)人工智能法律系统的研究,不仅需要以法理学关于法律的一般理论为知识基础,还需要从法理学获得关于法律推理的完整理论,如法律推理实践和理论的发展历史,法律推理的标准、主体、过程、方法等等。人工智能对法律推理的模拟,主要是对法理学关于法律推理的知识进行人工智能方法的描述,建立数学模型并编制计算机应用程序,从而在智能机器上再现人类法律推理功能的过程。在这个过程中,人工智能专家的主要任务是研究如何吸收法理学关于法律推理的研究成果,包括法理学关于人工智能法律系统的研究成果。

随着人工智能法律系统研究从低级向高级目标的推进,人们越来越意识到,对法律推理的微观机制认识不足已成为人工智能模拟的严重障碍。P.Wahlgren指出,“许多人工智能技术在法律领域的开发项目之所以失败,就是因为许多潜在的法理学原则没有在系统开发的开始阶段被遵守或给予有效的注意。”“法理学对法律推理和方法论问题的关注已经有几百年,而人工智能的诞生只是本世纪50年代中期的事情,这个事实是人工智能通过考察法理学知识来丰富自己的一个有效动机。”(注:P.Wahlgren,Automation of Legal Reasoning:A Study onArtificial Intelligence and Law,Computer Law Series 11.KluwerLaw and Taxation Publishers.Deventer Boston 1992.Chapter 7.)因此,研究法律推理自动化的目标,“一方面是用人工智能(通过把计算机的应用与分析模型相结合)来支撑法律推理的可能性;另一方面是应用法理学理论来解决作为法律推理支撑系统的以及一般的人工智能问题。”(注:P.Wahlgren,Automation of Legal Reasoning:A Studyon Artificial Intelligence and Law,Computer Law Series 11.Kluwer Law and Taxation Publishers.Deventer Boston 1992.Chapter 7.)在前一方面,是人工智能法律系统充当法律推理研究的思想实验手段以及辅助司法审判的问题。后一方面,则是法律推理的法律学研究成果直接为人工智能法律系统的研制所应用的问题。例如,20世纪70年代法理学在真实和假设案例的推理和分析方面所取得的成果,已为几种人工智能法律装置借鉴而成为其设计工作的理论基础。在运用模糊或开放结构概念的法律推理研究方面,以及在法庭辩论和法律解释的形式化等问题上,法理学的研究成果也已为人工智能法律系统的研究所借鉴。

四、人工智能法律系统研究的难点

人工智能法律系统的研究尽管在很短的时间内取得了许多令人振奋的成果,但它的发展也面临着许多困难。这些困难构成了研究工作需要进一步努力奋斗的目标。

第一,关于法律解释的模拟。在法理学的诸多研究成果中,法律解释的研究对人工智能法律系统的研制起着关键作用。法律知识表达的核心问题是法律解释。法律规范在一个法律论点上的效力,是由法律家按忠实原意和适合当时案件的原则通过法律解释予以确认的,其中包含着人类特有的价值和目的考虑,反映了法律家的知识表达具有主观能动性。所以,德沃金将解释过程看作是一种结合了法律知识、时代信息和思维方法而形成的,能够应变的思维策略。(注:Dworkin,Taking RightsSeriously,Harvard University Press Cambridge,Massachusetts1977.p.75.)目前的法律专家系统并未以知识表达为目的来解释法律,而是将法律整齐地“码放”在计算机记忆系统中仅供一般检索之用。然而,在法律知识工程系统中,法律知识必须被解释,以满足自动推理对法律知识进行重新建构的需要。麦卡锡说:“在开发智能信息系统的过程中,最关键的任务既不是文件的重建也不是专家意见的重建,而是建立有关法律领域的概念模型。”(注:McCarty,Intelligent legalinformation systems:problems and prospects,op.cit.supra,note25,p.126.)建立法律概念模型必须以法律家对某一法律概念的共识为基础,但不同的法律家对同一法律概念往往有不同的解释策略。凯尔森甚至说:即使在国内法领域也难以形成一个“能够用来叙述一定法律共同体的实在法的基本概念”。(注:(奥)凯尔森著:《法与国家的一般理论》,沈宗灵译,中国大百科全书出版社1996年版,第1页。)尽管如此,法理学还是为法律概念模型的重建提供了一些方法。例如,德沃金认为,法官在“解释”阶段,要通过推理论证,为自己在“前解释”阶段所确定的大多数法官对模糊法律规范的“一致看法”提供“一些总的理由”。获取这些总的理由的过程分为两个步骤:首先,从现存的明确法律制度中抽象出一般的法律原则,用自我建立的一般法律理论来证明这种法律原则是其中的一部分,证明现存的明确法律制度是正当的。其次,再以法律原则为依据反向推出具体的法律结论,即用一般法律理论来证明某一法律原则存在的合理性,再用该法律原则来解释某一法律概念。TAXMAN等系统装置已吸收了这种方法,法律知识被计算机结构语言以语义网络的方式组成不同的规则系统,解释程序使计算机根据案件事实来执行某条法律规则,并在新案件事实输入时对法律规则作出新的解释后才加以调用。不过,法律知识表达的进展还依赖于法律解释研究取得更多的突破。

第二,关于启发式程序。目前的法律专家系统如果不能与启发式程序接口,不能运用判断性知识进行推理,只通过规则反馈来提供简单解释,就谈不上真正的智能性。启发式程序要解决智能机器如何模拟法律家推理的直觉性、经验性以及推理结果的不确定性等问题,即人可以有效地处理错误的或不完全的数据,在必要时作出猜测和假设,从而使问题的解决具有灵活性。在这方面,Gardner的混合推理模型,Edwina L.Rissland运用联想程序对规则和判例推理的结果作集合处理的思路,以及Massachusetts大学研制的CABARET(基于判例的推理工具),在将启发式程序应用于系统开发方面都进行了有益的尝试。但是,法律问题往往没有唯一正确的答案,这是人工智能模拟法律推理的一个难题。选择哪一个答案,往往取决于法律推理的目的标准和推理主体的立场和价值观念。但智能机器没有自己的目的、利益和立场。这似乎从某种程度上划定了机器法律推理所能解决问题的范围。

第三,关于法律自然语言理解。在设计基于规则的程序时,设计者必须假定整套规则没有意义不明和冲突,程序必须消灭这些问题而使规则呈现出更多的一致性。就是说,尽管人们对法律概念的含义可以争论不休,但输入机器的法律语言却不能互相矛盾。机器语言具有很大的局限性,例如,LDS基于规则来模拟严格责任并计算实际损害时,表现出的最大弱点就是不能使用不精确的自然语言进行推理。然而,在实际的法律推理过程中,法律家对某个问题的任何一种回答都可根据上下文关系作多种解释,而且辩论双方总是寻求得出不同的结论。因此,智能法律专家系统的成功在很大程度上还依赖于自然语言理解研究工作的突破。牛津大学的一个程序组正在研究法律自然语言的理解问题,但是遇到了重重困难。原因是连法学家们自己目前也还没有建立起一套大家一致同意的专业术语规范。所以Edwina L.Rissland认为,常识知识、意图和信仰类知识的模拟化,以及自然语言理解的模拟问题,迄今为止可能是人工智能面临的最困难的任务。对于语言模拟来说,像交际短语和短语概括的有限能力可能会在较窄的语境条件下取得成果,完全的功能模拟、一般“解决问题”能力的模拟则距离非常遥远,而像书面上诉意见的理解则是永远的终极幻想。(注:Edwina L.Rissland,ArtificialIntelligence and Law:Stepping Stones to a Model of LegalReasoning,The Yale Law Journal.(Vol.99:1957-1981).)

五、人工智能法律系统的开发策略和应用前景

我们能够制造出一台什么样的机器,可以证明它是人工智能法律系统?从检验标准上看,这主要是法律知识在机器中再现的判定问题。根据“图灵试验”原理,我们可将该检验标准概括如下:设两间隔开的屋子,一间坐着一位法律家,另一间“坐着”一台智能机器。一个人(也是法律家)向法律家和机器提出同样的法律问题,如果提问者不能从二者的回答中区分出谁是法律家、谁是机器,就不能怀疑机器具有法律知识表达的能力。

依“图灵试验”制定的智能法律系统检验标准,所看重的是功能。只要机器和法律家解决同样法律问题时所表现出来的功能相同,就不再苛求哪个是钢铁结构、哪个是血肉之躯。人工智能立足的基础,就是相同的功能可以通过不同的结构来实现之功能模拟理论。

从功能模拟的观点来确定人工智能法律系统的研究与开发策略,可作以下考虑:

第一,扩大人工智能法律系统的研发主体。现有人工法律系统的幼稚,暴露了仅仅依靠计算机和知识工程专家从事系统研发工作的局限性。因此,应该确立以法律家、逻辑学家和计算机专家三结合的研发群体。在系统研发初期,可组成由法学家、逻辑与认知专家、计算机和知识工程专家为主体的课题组,制定系统研发的整体战略和分阶段实施的研发规划。在系统研发中期,应通过网络等手段充分吸收初级产品用户(律师、检察官、法官)的意见,使研发工作在理论研究与实际应用之间形成反馈,将开发精英与广大用户的智慧结合起来,互相启发、群策群力,推动系统迅速升级。

第二,确定研究与应用相结合、以应用为主导的研发策略。目前国外人工智能法律系统的研究大多停留在实验室领域,还没有在司法实践中加以应用。但是,任何智能系统包括相对简单的软件系统,如果不经过用户的长期使用和反馈,是永远也不可能走向成熟的。从我国的实际情况看,如果不能将初期研究成果尽快地转化为产品,我们也难以为后续研究工作提供雄厚的资金支持。因此,人工智能法律系统的研究必须走产研结合的道路,坚持以应用开路,使智能法律系统尽快走出实验室,同时以研究为先导,促进不断更新升级。

第三,系统研发目标与初级产品功能定位。人工智能法律系统的研发目标是制造出能够满足多用户(律师、检察官、法官、立法者、法学家)多种需要的机型。初级产品的定位应考虑到,人的推理功能特别是价值推理的功能远远超过机器,但人的记忆功能、检索速度和准确性又远不如机器。同时还应该考虑到,我国目前有12万律师,23万检察官和21万法官,每年1.2万法学院本科毕业生,他们对法律知识的获取、表达和应用能力参差不齐。因此,初级产品的标准可适当降低,先研制推理功能薄弱、检索功能强大的法律专家系统。可与计算机厂商合作生产具有强大数据库功能的硬件,并确保最新法律、法规、司法解释和判例的网上及时更新;同时编制以案件为引导的高速检索软件。系统开发的先期目标应确定为:(1)替律师起草仅供参考的起诉书和辩护词;(2)替法官起草仅供参考的判决书;(3)为法学院学生提供模拟法庭审判的通用系统软件,以辅助学生在起诉、辩护和审判等诉讼的不同阶段巩固所学知识、获得审判经验。上述软件旨在提供一个初级平台,先解决有无和急需,再不断收集用户反馈意见,逐步改进完善。

第四,实验室研发应确定较高的起点或跟踪战略。国外以知识工程为主要技术手段的人工智能法律系统开发已经历了如下发展阶段:(1)主要适用于简单案件的规则推理;(2)运用开放结构概念的推理;(3)运用判例和假设的推理;(4)运用规则和判例的混合推理。我们如确定以简单案件的规则推理为初级市场产品,那么,实验室中第二代产品开发就应瞄准运用开放结构概念的推理。同时,跟踪运用假设的推理及混合推理,吸收国外先进的KBS和HYPO的设计思想,将功能子系统开发与联想式控制系统结合。HYPO判例法推理智能装置具有如下功能:(1)评价相关判例;(2)判定何方使用判例更加贴切;(3)分析并区分判例;(4)建立假设并用假设来推理;(5)为一种主张引用各种类型的反例;(6)建立判例的引证概要。HYPO以商业秘密法的判例推理为模拟对象,假设了完全自动化的法律推理过程中全部要素被建立起来的途径。值得注意的是,HYPO忽略了许多要素的存在,如商业秘密法背后的政策考虑,法律概念应用于实际情况时固有的模糊性,信息是否已被公开,被告是否使用了对方设计的产品,是否签署了让与协议,等等。一个系统设计的要素列表无论多长,好律师也总能再多想出一些。同样,律师对案件的分析,不可能仅限于商业秘密法判例,还可能援引侵权法或专利法的判例,这决定了起诉缘由的多种可能性。Ashley还讨论了判例法推理模拟的其他困难:判例并不是概念的肯定的或否定的样本,因此,要通过要素等简单的法律术语使模糊的法律规则得到澄清十分困难,法律原则和类推推理之间的关系还不能以令人满意的方式加以描述。(注:Edwina L.Rissland,Artificial Intelligence and Law:Stepping Stones toa Model of Legal Reasoning,The Yale Law Journal.(Vol.99:1957-1981).)这说明,即使具有较高起点的实验室基础研究,也不宜确定过高的目标。因为,智能法律系统的研究不能脱离人工智能的整体发展水平。

人工智能的法律规制篇(2)

-于我国的智能化建筑领域许多方面尚不完善,行政管理部门的政策法规制定也不能完全适应智能化建筑领域的发展要求,要在对我国智能化建筑领域进行充分调查研宄之后,大力推进智能化建筑领域法律法规的建立和完善,?以法律形式保障智能化建筑领域持续、健康、稳定发展,由政府启动行政资源,对智能化建筑的技术发展情况和施工管理水平进行充分调査研究,组织各类社科机构和高等学校专业技术人员,与智能化建筑领域专业技术人员和施工管理人员进行沟通交流,将这些交流意见总结成文字的形式加以保存和推广,为智能化建筑领域法律法规的制定和完善提供理论基础,m要加大气量对智能化建筑领域的专业技术进行总结与归纳,并以法律形式保障这些知识产权的合法利益,涉及到智能化建筑的硬件设备,必须严格按照相关标准与规范执行管理,保证智能化建筑的重要部位安全可靠,还要规范智能化建筑性能考核和建筑质量考核的标准,以法律形式统一规范,促进业内交流沟通、人才流通和资源整合,要保证建筑内部各功能的有效发挥,确保建筑设施齐备,在对智能化建筑进行性能测试和功能评估时,要充分利用现代化高科技手段,对智能化建筑的性能和功效进行准确测量,既保证了施工方利益,也保证了工程的顺利进展。

1.2提高技术人员素质

智能化建筑是对建筑科技含量要求很高的工程,m对建筑施工专业技术人员的素质要求很高,智能化建筑领域覆盖面广,相关专业技术人才必须具备全面的专业技能,由于智能化建筑专业技术人员工作量大,工作专业化水平高,专业技术人才的素质对智能化建筑的质量和性能具有决定性作用,为确保客户满意程度,必须进行对专业技术人员素质的培养。专业技术人员必须充分认清客户的需求,按照客户的实际需求,进行智能化建筑的规划和设计,严格按照既定施工方案,对建筑的各项性能认真考察,当前,我国智能化建筑领域专业人才匮乏,这既需要充分重视并帮扶现有的专业技术人员,又需要各级政府部门加大力度培养智能化建筑领域全能型人才。

1.3采取科学方式吸纳人才

由于当前智能化建筑领域专业技术人才稀缺,一旦某些专业技术人才离职,将对正在进行的智能化建筑施工产生较大影响,因此,智能化建筑团队的管理层和决策层,要制定科学的经济激励制度,保障专业技术人才的工作积极性和对本工作的高度热情,避免因为人才流失而造成工程质量下降和工程竣工日期拖延,要重视知识产权的保护,施工团队对已经形成成熟理论的施工方案,要严格保护其知识产权,以法律形式确保施工方案设计者的合法权益,在征得设计师同意的基础上,将不同设计方案进行整合互补,以期形成本公司独有的设计性优势。

人工智能的法律规制篇(3)

如果我们摆脱简单的拟人思维,把人工智能看作互联网智能演进的新阶段,为理解其法律规则,就有必要理解互联网法律在过去20年中形成的路径和推动力,从而探讨人工智能是否有任何特殊性以至于需要新的规则。本文将从网络法的两个视角――实证性和生产性――切入,将它们延伸至人工智能语境下分别讨论。“实证性”视角是我们观察和应用任何规则的惯常思维方式,例如人工智能行为的具体规则如何确立、如何规制等,本文将讨论支撑人工智能的两个构成性要素――算法与数据――可能带来的法律问题,以及法律人处理人工智能的两种路径;“生产性”视角则深入规则背后,探索规则形成的政治经济因素,特别是经济生产方式的内在要求。人工智能本质上是一套复杂的代码设计,既是影响社会行为的强力规范,也是产生新价值的生产机制;它驱动整个社会朝向更智能的方向变化,从而要求法律做出相应调整,尤其是确认新型经济利益的合法性。

限于篇幅,本文姑且将人工智能看成法律上的客体,暂不讨论赛博格(cyborg)之类的人体转向机械体或通过基因技术改变身体的问题(仍是法律上的人),也不讨论人工智能作为一种人造物的自我意识问题(一个难以达成共识的哲学问题)。

理解网络法的变迁

网络法在中国的变迁大致遵循两类逻辑:外生性的政治/监管逻辑和内生性的商业逻辑。政治/监管逻辑体现为对“实证性规则”的追求,这些规则集中在国家(包括法院和监管机构)如何对互联网的内容和行为进行规制,包括对网络和信息安全的追寻。这集中反映了国家权力如何试图介入新技术带来的问题与挑战。这一视角最早由美国法学界引出,特别是Lawrence Lessig的代码理论将代码(架构)和法律并列。由此,所谓的网络法不仅要约束社会主体在网络空间中的行为,也要对架构的变化本身做出回应。

首先,就规制主体行为而言,出现了是否按照传统线下行为规则的思路约束线上行为的讨论。这一讨论的核心是,互联网问题是否具有任何特殊性,需要某些新规来解决。我们已经看到,中国的互联网行为监管在很大程度上延续了传统规则和管理方式,采取渐进的方式,这不仅成本较小,也给予监管者一定的学习和探索空间。其次,就架构变化本身而言,国家在宏观上主张网络空间中仍然需要,不能成为法外之地,在微观上相应出现了国家与平台权力/责任二分的讨论。例如,政府权力何时需要介入平台治理,加强平台的行政管理责任或安全保障责任,还是由后者根据自身情况自我规制,实现治理目标。政治/监管逻辑要么遵循管理者的路径依赖效应,要么坚持既有社会稳定、意识形态安全价值。问题在于,监管者在多大程度上能够认识到代码及其商业模式的特殊性,从而使监管行为和行业特性相互协调融合。

另一种看待规则产生的方式遵循商业逻辑。这种生产性视角关注微观权力运作,综合将代码、法律与社会规范放在一起,不单纯从社会学意义上观察社会主体行为如何受到影响,而是在政治经济学意义上将网络空间的生成和扩散看成是一个由商业力量推动主导的生产性过程,关注价值由谁产生、如何分配,由此推动对新规则的内生需求。按照这一视角,无论是法律还是架构,在具有实证性规制功能的同时,也是一种“生产性规则”。互联网的生产模式决定了其对社会范围内生产资料的创造性生产和再利用,需要法律确认其生产方式的合法性,重塑关键法律制度,并解决和传统生产模式的利益冲突。这一视角无疑帮助厘清新经济主张的例外特性,不仅展示出架构和相应的法律改变,更指明了背后的政治经济原因,是更好地理解实证性规则的基础。

两类不同的逻辑在过去20年中交替出现,相互制约,共同塑造了中国网络法体系,也推动了中国互联网的整体发展。总体而言,鉴于国家有意促进新经济,需要推动传统的属地化、分口治理,事后运动治理模式发生转变,认清互联网商业模式和价值产生的根源,有利探索适应新经济性质的管理体制。从这个意义上说,信息资本主义不断要求对法律内核进行改造,取代其中的传统经济要素,打破限制生产要素自由流通的各类规则。

人工智能法律的实证性视角

如前所述,人工智能的本质在于算法和数据处理,物理形体不必然是人工智能的构成要素,因为即使是人形机器人,也不过是一个算法主导的硬件系统,它实时收集信息,并按照算法的要求做出决定,继而行动。更重要的是,具有物理形体的人工智能可以推动群体智能发展,通过分布式终端收集更多数据加以处理,并不断传输至云端“大脑”,提升整体网络的智能水平。 人工智能巳深度介入医疗领域

根据算法的复杂性和学习/运算能力对强人工智能和弱人工智能进行区分,这在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。而人工智能从单一的自动化服务向多元通用服务转变的过程可能是一个相当长的光谱,法律需要针对其本质特征进行约束,并探索一套应对未来的方案。当我们说社会变得越来越智能的时候,事实上指由于数据搜集、储存和处理的能力不断增强,所有软件/算法都可能朝向自动收集数据,做出决定或判断的趋势,由于算法的复杂性,算法带来的结果可能无法预测,并在更大范围内带来系统性的不利后果。这种后果未必是毁灭性的风险,甚至只是在某领域的制度设计问题,但人工智能恰好将这类社会问题具象化,掩藏在外表华丽、高效、更多是私人控制的“黑箱”中,就会引发一系列问题。

如果放在一个更大范围内观察,在历史上,人类社会随着复杂性的增加,不可避免地产生以组织和技术形态出现的各类“黑箱”,它们的决定影响着社会发展和大众福利,但仍然保持着某种秘密性。这一隐喻未必是阴谋论,其核心问题在于信息不对称。为平衡相关当事人和社会大众的知情权、避免恐慌、保持某种预测能力,人们不断设计出某种程度的信息公开和透明化机制,例如政治辩论的公开化,法院诉讼程序透明化甚至公开庭审,上市公司强制信息披露等等。而人工智能不过是信息技术时代的新型黑箱,带来更加严重的系统化影响。互联网在兴起过程中,通过降低信息成本,推动了开放政府、庭审直播,使信息公开透明更加便利,将生产性资源不断解放出来,在更大社会范围内重新配置,产生新价值。然而,这一过程在消除一个又一个传统黑箱的同时,产生了更为复杂的新黑箱,进而主导整个社会的生产过程。生产资料之间的信息变得越来越对称,甚至可以实时互通信息,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者无法理解的秘密状态,这回到了法律如何处理与代码的关系问题。

一个类似的比较是人类自身:人脑经过上百万年的进化,演变成十分复杂精致的系统。尽管当代神经科学不断改变我们对人脑的认知,甚至每个人的大脑都不完全一样,但就法律而言意义不大,这只能在边际上改变个案判决。即使无从了解人脑的运转机制,或者依据某种更加先进的科学知识解释社会主体行动的具体理由,人类还是有能力形成社会规范,并演进成更加理性化的规则。这套规则只需要假定一般社会主体是(受限)理性的,由少数概念界定不同情形的心理状态(故意、过失),并集中对人的外在行为进行约束,确定权利与义务,就足以以简单规则应对(而非认识)这一纷繁复杂的世界。类似地,在处理算法的负外部性时,也可以有两种不同的路径:(1)关注算法的外部行为与后果,(2)关注算法内部的设计规则。

大部分现有规则关注算法导致的(未意料)结果,例如内容分发算法未经审查造成非法或侵权内容传播,这一般由信息传播者(即内容服务商)承担责任,算法本身并无法律地位,在造成不利后果的过程中只是一个工具。这类责任假定内容服务商应当知道非法内容的存在,并有能力通过算法设计或人力(比如人工审查)加以阻止。在诸多侵权场合,内容服务商可以通过“避风港”规则免责,只要无法证明它实际知晓状态。更复杂的是,如果软件开发者声称自己无法控制信息的生产和传播,却造成一定社会危害的情形。无论是在快播案还是BT案中,软件开发者都无法因这一原因而逃脱责任,法院的理由仍然是,开发者有能力知晓非法内容的输出(如果不是故意的话,例如快播向推广该播放器)。类似地,如果一个具有物理形体的人工智能由于处理信息不当造成了外在损害,按照这一逻辑仍应由算法开发者负责。

而且,还有必要将算法产生的错误和算法缺陷本身区分开。长期以来,软件行业一直通过拆封合同(shrink-wrap)解决缺陷软件造成的短时崩溃或重启问题,这种格式条款旨在确认这样一种事实:没有任何软件是百分之百完美的,只要在用户拆封使用该软件时运行正常即可,服务商并不为软件崩溃或死机造成的消费者损失负责,因为前者无法预料到缺陷带来的风险。这就是为什么消费者需要接受软件生产商不停的更新和补丁,软件/应用不受产品责任的约束,被视为一种可以不断升级改进的服务,这在免费软件时代更是如此。按照这一思路,似乎有理由认为,无人驾驶汽车因算法计算错误导致车祸(何况造成事故的概率远远小于人类司机的错误)是这类软件的正常的缺陷,消费者应当容忍这类错误。但无论是监管者还是潜在的受害人都无法接受这种比拟。声称有潜在缺陷的交通工具(也包括医疗设备和其他与生命财产直接相关的算法)一旦投入使用就需要为此造成的后果负责。无论如何,这类思路仍然是通过后果施加事后责任,监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故可以避免,黑箱提供者就应当承担责任。在这种情况下,保险(甚至是强制险)就成为确保这类发生概率小但潜在损失巨大的不二选择,航空、医疗保险市场十分发达,可以预见将会延伸至更多由人工智能驱动的服务行业。 现实与虚拟的界限不断模糊化

如果说事后救济还无法确保安全,事前干预算法设计则是另一种选择,同时带来的问题也更复杂。早在20世纪,阿西莫夫就试图为机器人立法,尽管他从未讨论技术上的可行性。安全可能是人工智能服务的首要问题之一:一个中心化的入侵可能会导致所有终端都变得极度不安全。行业监管者在不同行业为特定服务中的人工智能设定安全标准(如医疗器械、交通工具、自动化武器),实行安全保护等级制度,甚至要求被认定为重要设施的源代码(如windows系统)供监管者备案,或在设计自动化交易程序时控制报单频率的阈值等。又例如,在魏则西事件后,联合调查组在整改意见中要求落实以信誉度为主要权重的排名算法,对商业推广信息逐条加注醒目标识,予以风险提示。如果说这些监管手段针对的是作为商业秘密的私人算法,诸如Open人工智能这样的倡议则意在延续开源软件运动路径,确保软件漏洞能够得到更大范围内的监督和修补。至少在中国,信息披露机制尚未成为算法监管的重要手段,无论是强制性披露还是第三方披露。

(作者单位:上海财经大学法学院)

注释:

[1]当下的大众媒体、文化产品和社会公共认知正努力将未来的人工智能塑造成具有独立意识的逐渐演化的主体,这集中体现在诸如《终结者》《我,机器人》《西部世界》《2001银河漫游》这类科幻影视作品中。尽管人们也有理由进一步想象,一旦人工智能具有了自我意识,就不再可能忠实地为人类服务,而更可能对人类生存构成威胁。其路径和思维方式仍是20世纪的,和21世纪依托大数据机器学习迥然不同。事实上,按照日本学者森政弘提出的“恐怖谷理论”,人工智能不太可能在短时间内人形普及化,因为这会在消费者心理上引发不安甚至恐惧。像Siri和Cornata这样的语音助手、像Tay和小冰这样的聊天机器人则不会有这种负面效果,因为用户知道自己在和一个尚未通过图灵测试的算法对话,他们甚至乐于教Tay在推特上辱骂用户、发表种族主义和煽动性的政治言论。另一个可能影响中文世界读者想象的因素是,把robot翻译成“机器人”先验地赋予了这类客体某种拟人化主体地位,而人形机器人(android)却没有引起更多的关注。

[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一个更加有用的综合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究将具有物理形体的机器人作为法律的对象,特别区分了信息性和物理性效果,见Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一个不同观点,见Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把机器人视为人在法律上也有相当的历史,见Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.

[3]吴军:《智能时代》,中信出版社2016年版。

[4]例如阿西莫夫的机器人系列小说中,无一例外地设定机器人拥有一个“正子脑”(positronic br人工智能 n),但却没有给出任何解释。见阿西莫夫:《机器人短篇全集》,江苏文艺出版社2014年版。

[5]这被称为终极算法(master algorithm),见佩德罗・多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,中信出版社2016年版。

[6]尼古拉斯・卡尔:《玻璃笼子:自动化时代和我们的未来》,中信出版社2015年版。在互联网发展的每一个阶段都有某种意识形态化的术语或热词吸引投资,例如宽带、大数据、分享经济、VR(虚拟现实)等,它们不过是互联网形态的各类变种。例如,一个关于分享经济和之前互联网经济的关联,参见胡凌:《分享经济的法律规制》,载《文化纵横》2015年第4期。

[7]这种思维方式可追溯到霍布斯以来的法律实证主义。

[8]胡凌:《代码、著作权保护与公共资源池》,载《腾云》2016年12月刊。

[9]关于两类逻辑的具体表现,集中参见胡凌:《探寻网络法的政治经济起源》,上海财经大学出版社2016年版。

[10]这在众多(特别是国外的)中国互联网观察者身上十分常见,人们的注意力全都转向中国政府如何严格管理和控制互联网。在政治学研究中自然而然地并入“国家与市民社会”传统框架,并吸纳了关于在线抗争、集体行动的传播学与社会学研究。

[11]劳伦斯・莱斯格:《代码2.0》,清华大学出版社2008年版。

[12]一个概述,见胡凌:《马的法律与网络法》,载张平主编:《网络法律评论》2010年第11卷。

[13]胡凌:《非法兴起:理解中国互联网演进的一个框架》,d《文化纵横》2016年第5期。这体现在版权、隐私、财产、不正当竞争、垄断、劳动法等一系列制度中。这种对法律制度的改变不单纯是在既有工业生产背景下微型创新带来的变化,而是社会生产的重塑。

[14]比如说,平台责任议题的出现,和互联网平台更多转向由第三方提供服务的信息中介模式直接相关。

[15]这一区分和观察中国式资本主义兴起的框架十分类似,政治经济学家们争论的焦点就在于如何解释中国改革开放三十年的成功经验,究竟是政府主导还是市场主导,但实质上是一个混合制经济。

[16]由于科斯所说的企业信息成本和管理成本降低,调动生产要素的边际成本趋近于零,企业组织形态本身将成为竞争的高成本。

[17]尼克・波斯特洛姆:《超级智能:路线图、危险性与应对策略》,中信出版社2015年版。

[18]古代的政治过程、现代的企业决策都是黑箱,对外人而言如果不是神秘,也是除魅之后的国家/商业秘密。卡夫卡的小说《审判》就精确描述了作为黑箱的诉讼过程,同一时代的韦伯也描述了理性化的国家机器应当像自动售货机一样。

[19]Frank Pasquale:《黑箱社:掌控信息和金钱的数据法则》,中信出版社2015年版。

[20]帕伯斯:《差错:软件错误的致命影响》,人民邮电出版社2012年版。

[21]长久以来民用航空器已经由软件深度介入驾驶过程,以至于人类驾驶员无法在短时间内预热,形成另一种风险。

[22]阿西莫夫提出的“机器人三定律”(后来扩展至四点)虽然十分基础,但仍然很难在具体情况下起作用,特别是当代伦理学上著名的“线车难题”之类的伦理困境。考虑到这些定律是为模拟人脑状态下设计的,就更可疑;因为人脑并不总是按某些理性伦理原则行事的,在某些关键场合强烈依靠某些默认设置――直觉。

[23]由监管机构强制披露并审查事实做不到,只能依靠像苹果这样的平台公司和软件分发平台帮助对成千上万个软件进行至少是安全审查。在台式机时代,这一平台责任几乎不可能,自然状态下的windows只能导致争夺私人控制权的3Q大战。但像乌云网这样的第三方白帽黑客也被禁止探测和公开互联网公司的漏洞。

[24]同注11。

[25]在笔者看来,法院应当将注意力放在知情同意的合同条款本身的适当性上,而不是一味接受黑箱的逻辑,因为后者确实无懈可击。如果格式合同能准确反映代码的设计,对其条款的审查是更好的选择。百度引发的被遗忘权第一案反映的也是这个问题。

[26]一个补救方法还是尽可能地披露算法信息,允许用户理性地生产/隐瞒个人信息,见戴昕:《自愿披露隐私的规制》,载苏力主编:《法律和社会科学》第15卷第1辑,法律出版社2016年版。

人工智能的法律规制篇(4)

1 引言

 

智慧城市是运用物联网、云计算、大数据等新一代信息技术,促进城市规划、建设、管理和服务智慧化的一种新模式。建设智慧城市是主动适应经济发展新常态,实现城市集约、智能、绿色、低碳发展的战略选择。

 

近年来,我国智慧城市得到了快速发展。在政策方面,国家及相关部委出来了一系列文件推进智慧城市建设,并从宏观上指导智慧城市信息安全建设。2014年,中共中央、国务院印发了《国家新型城镇化规划(2014—2020年)》,其中在“推进智慧城市建设”的篇章中着重指出“增强城市要害信息系统和关键信息资源的安全保障能力”。2014年8月,国家发展改革委、工业和信息化部、财政部等八部委联合了《关于印发促进智慧城市健康发展的指导意见的通知》(发改高技[2014]1770号),提出了“可管可控,确保安全”的智慧城市发展原则,为我国智慧城市信息安全建设指明了方向[1]。2015年,国家标准委、中央网信办、国家发展改革委等联合了《关于开展智慧城市标准体系和评价指标体系建设及应用实施的指导意见》,指出在智慧城市评价指标体系总体框架下,分别从四个方面“网络安全管理,监测、预警与应急,信息系统安全可控,要害数据安全”来加强网络安全能力建设。

 

与此同时,智慧城市信息安全面临着严峻的挑战。在智慧城市建设和运行中,由于采用了物联网、大数据、云计算、移动互联网等新技术和新应用,这就给智慧城市带来了更多复杂性、不确定性的信息安全问题。如何更好地解决智慧城市建设和运行中的信息安全问题,是促进智慧城市健康发展的重要课题。

 

2 智慧城市信息安全面临的风险

 

当前我国智慧城市信息安全在顶层设计、标准规范、技术产品、应急响应和法律法规等五个方面还存在一定的安全风险。

 

2.1 信息安全顶层设计规划能力需要提高

 

智慧城市顶层设计规划的科学性、合理性直接关系到智慧城市建设的成效。与智慧城市具体应用业务系统相比,智慧城市信息安全顶层设计中还存在重视程度不够、不完善、重硬件轻软件等情况[2]。众多周知,智慧城市的核心价值在于实现了重要信息资源的高度集聚和共享,而信息资源越集聚,其面临的信息安全风险就越大。特别是与智慧城市相关的物联网、云计算、大数据、移动互联网的应用带来了新的更复杂的信息安全问题。因此,需要本着“可管可控、确保安全”的原则,切实强化信息安全顶层设计,统筹业务系统和信息安全的同步设计规划,从源头加强信息安全建设。

 

2.2 信息安全标准规范不完善

 

目前,国际标准化组织(ISO)、国际电信联盟(ITU)、国际电工委员会(IEC)等国际标准化组织均开展了智慧城市标准化的研究工作,在智慧城市信息安全标准化方面还处于探索阶段。全国信息技术标准化技术委员会、全国信息安全标准化技术委员会等标准化机构正在研究制定智慧城市信息安全的相关标准,初步形成了智慧信息安全标准体系,已正式立项《信息安全技术 智慧城市建设信息安全保障指南》、《信息安全技术 智慧城市信息与服务公共支撑平台安全要求》等五项国家智慧城市标准[3]。但从整体上来看,智慧城市信息安全标准尚处于探索制定阶段,标准体系还很不完善。

 

2.3 自主可控的信息安全技术产品支撑能力需要提高

 

智慧城市建设需要大量的软硬件支撑。众所周知,全球IT行业的巨头如微软、英特尔、IBM、思科、甲骨文等公司在我国的信息化建设进程中一直扮演着重要的角色。我国信息网络基础设施自主可控的程度低,特别是通用处理器、操作系统、大型数据库等严重依赖国外IT巨头,数据安全面临着严重威胁[4]。智慧城市建设需要大量的信息网络软硬件产品,如果大量使用国外的设备和软件,这将给我国的信息安全带来巨大的安全隐患, 因此,我国自主可控的信息安全技术产品支撑能力亟需得到提高。

 

2.4 信息安全应急响应能力需通过实战不断检验提高

 

随着我国信息安全保障工作的不断发展,信息安全应急响应工作不断向前推进,信息安全预案体系逐步建立,但是仍然存在可操作性、针对性不强的问题[5][6]。例如,有些信息安全预案存在模式化、雷同化的倾向,难以高效地运用到实际的应急处置工作中。另外,现有的信息安全预案不同程度上都缺乏必要的实战演练,无法验证预案的可操作性、合理性和有效性,这势必会影响智慧城市信息安全的应急响应能力。

 

2.5 信息安全法律法规不健全

 

我国已经出台了多个与互联网相关的法律法规,包括《促进大数据发展行动纲要》、《电信和互联网用户个人信息保护规定》等。现行的信息安全相关的法律法规不够健全,还不能有效支撑智慧城市的建设与运行。与智慧城市紧密相关的《中华人民共和国网络安全法》还尚未出台,针对大数据、云计算等新技术新应用的信息安全法律法规还不健全。因此,我国应加快信息安全立法进程,借鉴学习国际上智慧城市成功的立法实践,尽快制定符合我国实际的智慧城市法律法规,确保信息安全。

 

3 智慧城市信息安全保障机制

 

提高智慧城市的信息安全保障能力是智慧城市建设的重要任务。本文分别从加强智慧城市信息安全顶层设计规划、制定完善信息安全标准规范、加快自主可控的信息安全技术产品研发、提高信息安全应急响应能力和健全信息安全法律法规体系等五个方面出发,设计相应的信息安全保障机制和应对策略,为提高智慧城市信息安全保障能力提供参考,如图1所示。

 

3.1 加强智慧城市信息安全顶层设计规划

 

智慧城市建设是一个应用多样化、动态演化的复杂巨系统,顶层设计的优劣直接关系到智慧城市的建设水平。智慧城市信息安全顶层设计至关重要,直接关系到智慧城市能否安全可靠运行。智慧城市顶层设计要做到业务应用系统与信息安全规划同步、建设同步和管理同步。在保障好智慧业务应用系统的同时,切实解决好信息共享和隐私保护的矛盾问题。规划设计好智慧城市信息安全的管理体系、技术体系和运维体系,构建智慧城市主动防御、全面防御和纵深防御体系,提高智慧城市信息安全顶层设计水平。

 

3.2 制定完善信息安全标准规范

 

我国信息安全标准已经正式和在研的有将近300项,但针对智慧城市信息安全标准的仅有一些物联网、大数据、云安全等方面的标准,远未形成完善的智慧城市信息安全标准规范体系。下一步应加快制定智慧城市信息安全标准规范,特别是从智慧城市信息基础设施、相关安全产品、数据共享安全、安全运行维护、信息安全评价指标体系等方面进一步完善标准规范体系,提高智慧城市的信息安全保障水平。

 

3.3 加快自主可控的信息安全技术产品研发

 

目前,国外IT巨头公司在我国信息技术行业占有着技术产品优势,在市场上处于垄断地位。这种情况下,如果仅仅依靠市场的自由竞争,我国的自主开发的软硬件信息技术产品很难得到大规模的推广应用。因此,着眼于维护我国信息安全的国家利益,充分发挥我国的制度和政策优势,加大自主可控技术和产品的研发力度,通过典型示范应用带动的方式,逐步推动我国自主可控的信息安全技术产品的推广应用,力争尽早摆脱关键技术产品受制于人的局面,形成自主可控的信息安全技术和产品产业化链条。

 

3.4 提高信息安全应急响应能力

 

按照“积极预防、及时发现、快速响应、力保恢复”的方针,针对智慧城市建设与运行的特点,建立“协同指挥、立体联动”的工作运行机制,构建操作性强、效率高、全生命周期的信息安全应急响应体系。制定智慧城市信息安全应急预案,定期组织相关人员进行信息安全应急知识培训,积极开展应急演练,根据实践不断调整优化应急预案,不断提高信息安全应急响应能力。

 

3.5 健全信息安全法律法规体系

 

信息安全法律法规是支撑智慧城市建设和运行的重要保障。现有的法律法规在一定程度上对智慧城市信息安全起到了一定的保障作用。但是与美国、韩国等发达国家相比,我国还没有形成完善的信息安全法律法规体系。下一步,我国应继续加强信息安全立法工作,特别是与智慧城市紧密关联的物联网、云计算、大数据方面的立法工作,尽早论证出台《中华人民共和国网络安全法》、《中华人民共和国网络安全审查制度》等法律法规,为我国智慧城市建设和运行提供坚强的法律保障。

 

4 结束语

 

信息安全是智慧城市建设和运行中需要面临的重要问题,是智慧城市安全可靠运行的前提和保障。从顶层设计、标准规范、技术产品、应急响应和法律法规等五个方面对智慧城市面临的信息安全风险进行了分析,并分别从五个方面设计了信息安全保障机制,为提高智慧城市信息安全保障能力提供了参考。

 

作者简介:

 

张新刚(1979-),男,汉族,河南漯河人,毕业于华中科技大学,硕士,副教授;主要研究方向和关注领域:网络信息安全。

 

于波(1981-),女,汉族,吉林白城人,毕业于哈尔滨工业大学,硕士,讲师;主要研究方向和关注领域:网络社会学。

 

人工智能的法律规制篇(5)

一、人工智能时代刑法构建的必要性

(一)刑事立法可以防控人工智能技术带来的风险

人工智能与现实社会的联系日益紧密,已经成为法律无法回避的领域,互联网时代的发展推动了人工智能时代的到来,互联网技术中的信息与数据是孕育人工智能的土壤。当今社会,人工智能技术已经渗透到生活的各个方面,我们的医疗、军事、交通、城市建设等方面,处处都有人工智能的身影。当我们享受着先进技术带来的好处时,也不能忽略其潜在的法律风险。因为这样紧密的联系就决定了人工智能会高频率地参与人类社会的活动,那么当其参与的行为涉及刑法时,就需要立法来规制。

(二)刑事立法可以及时应对这一新生事物对于现行刑法的挑战

不可否认,法律具有滞后性,新技术带来的犯罪无法被现行的刑法及时规制,甚至会产生冲击。只有通过立法及时修补法律的空白之处,解决刑法对于人工智能类犯罪的适用等问题,才可以保证这一技术的健康发展和合理使用。[1 ]

二、现行刑法规制人工智能犯罪的困境

(一)从刑事责任主体角度

在我国现行刑法中可以规制的人工智能类犯罪极其有限,仅限于行为人直接将人工智能当作工具进行生产、利用的情形,换言之,人工智能此时执行的一切操作仅为犯罪者的意志和行为的延伸,这种情形下的刑事责任主体为利用人。例如,绍兴市破获的全国首例利用人工智能侵犯公民个人信息案,犯罪团伙利用人工智能技术盗取数据,识别图片,进行诈骗,窃取公民个人信息进行犯罪。在这个案件中,人工智能被当作工具直接被犯罪分子支配利用,可以根据刑法第二百五十三条之一侵犯公民个人信息罪对犯罪分子进行定罪。当然,即便如此,这样的定罪依然存在瑕疵,后文第(二)节将从另一角度阐述。然而,真正棘手的问题是,当人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生了犯罪行为(如无人驾驶汽车涉及交通事故罪,手术机器人涉及医疗事故罪等),其刑事责任主体又该如何确定,是人工智能本身,还是其用户,又或者是发明者,由于现行刑法刑事责任主体认定的局限性,这种情形下刑事责任主体的确定存在争议。

(二)从罪名角度

不可否认,人工智能时代的到来产生了许多前所未有的行为方式,所以,针对以下三种情形,即便行为主体符合我国现行刑法对于刑事责任主体的认定(自然人、单位),因为缺乏与之相对应的罪名,也无法直接且有效的规制:首先,是犯罪主体滥用人工智能学习技术训练其进行犯罪的情形。正如前文所述的,绍兴市破获的全国首例利用人工智能侵犯公民个人信息案,我们可以按照侵犯公民个人信息罪对犯罪分子进行定罪,但是其非法滥用人工智能技术的行为是无法规制的。其次,是由于人工智能的生产者、发明者在程序编写等技术方面的问题,导致人工智能运行时发生危害社会安全的犯罪行为的情形。比如,2018 年3 月发生在亚利桑那州坦佩市的Uber无人驾驶汽车意外撞死一名行人的案例,[2 ]经后续调查给出的技术解释是,由于技术限制,其识别系统会在恶劣环境下发生识别有误,甚至无法识别的情况,Uber公司对其人工智能的某一算法设置上存在纰漏,但最终的审判结果却是Uber公司不负刑事责任。这虽然是国外的案例,但也对我国刑事立法提供了思考的方向,或许有观点认为,在我国发生类似案例,可以直接按照刑法第一百四十六条的相关规定按照生产、销售不符合安全标准的产品罪来定罪。但笔者认为,人工智能本就属于新兴技术,其发展必然存在不成熟的因素,但也不能忽视其进步性,所以,在一定限度内,我们应该对人工智能产品所带来的风险有一定程度上的容许,如此才有利于行业的发展,而这就需要设立新的罪名来解决。

三、人工智能刑事立法构建策略

(一)关于刑事责任主体认定

针对上文提出的,人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生的犯罪行为的责任主体认定问题,我们可以分为两类讨论:首先,是弱人工智能发生的犯罪行为。所谓“弱人工智能”是指没有自主意识,缺乏创造性、遵循机械规律的人工智能。此类人工智能在无自然人利用、操纵时,或者违背利用者的初衷,自行发生的犯罪行为,多半是程序等技术的瑕疵造成的。此时,此类人工智能无法满足犯罪主客观一致的要求,不具有承担刑事责任的能力,所以应该认定其发明者为刑事责任主体,因为发明者在发明此类弱人工智能时,可以且应当预见到人工智能的行为和潜在的风险,发明者此时具有确保其发明物不会危及公共安全和人身安全的义务。当然,也有例外情况,如果是由于他人(黑客等)恶意入侵的行为造成的犯罪,应当认定该介入因素切断了原先的因果关系,应该认定入侵者为刑事责任主体。其次,是强人工智能发生的犯罪行为。所谓“强人工智能”是指具有独立意识,有思考能力,通过学习可建立对于周围环境的认识、判断的自主运行的人工智能。这类人工智能的犯罪能够符合客观方面(危害行为、危害结果、因果关系、犯罪的时间、地点、方法)的要求,也能够符合主观方面(如意识因素、意志因素)的要求,应当认定其为刑事责任主体,独立承担刑事责任。首先,这类人工智能具有更强的学习能力,思考能力,它们可以通过学习和思考产生自主意志和是非判断能力,已经不再是使用者意志和行为的延伸;其次,强人工智能在自主意识和判断力的基础上,完全有能力获取其研发人未编入其程序的知识,而这些知识极有可能具有人身危害性,但这些内容是很难被及时预见并立刻删除的;最后,基于前两点的内容,我们完全有理由认为,强人工智能是具有可罚性的,此时的人工智能已经具有了自然人的伦理属性,可以被当作“机械犯罪人”。我们可以对其执行删除数据并且将该人工智能销毁的刑罚。故针对强人工智能的犯罪,我们不必设立新的罪名,但需要出台相关的司法解释来调整、明确刑事责任主体的认定。比如,针对现行刑法的某些犯罪(如公共安全类犯罪、除强奸外侵犯人身权利的犯罪、侵犯财产类型的犯罪等等)出台司法解释,增加强人工智能本体为刑事责任主体,并补充强人工智能的刑罚执行制度,只有完善了司法解释,才不会使上述策略成为空中楼阁。

(二)关于新罪名的设立

1 .设立滥用人工智能技术罪随着技术的发展,人类对于人工智能技术的依赖性会越来越大,这已是大势所趋,但这势必会引起该技术滥用的行为。就如全国首例利用人工智能侵犯公民个人信息案,犯罪分子利用人工智能,可以使传统的犯罪行为更加快速,更加低成本,低风险。所以我们有必要设立滥用人工智能技术罪,在规制犯罪分子基本犯罪行为的基础上,[3 ]该罪名应该纳入刑法分则第六章妨害社会管理秩序罪中进行明确规定。2 .设立人工智能重大责任事故罪针对人工智能的生产者、发明者在程序编写等技术方面的问题(主要针对弱人工智能),导致人工智能自行运行时发生危害社会安全的犯罪行为的情形,应该成立人工智能重大责任事故罪,规制发明者、生产者在发明、设计、生产环节中未完全按照行业标准和国家标准履行义务的行为。但是,结合前文所述对于新兴技术发展的支持态度,应该对其中的生产方采取严格责任制,即如果生产商有足够证据证明自己的生产过程是严格遵守现有的相关标准的,则可以免于承担刑事责任。该罪名应该纳入刑法第二章危害公共安全罪中进行明确规定。

四、结语

人工智能时代的到来既给我们以便利,同时也会给我们带来法律的困扰,甚至对传统的刑法带来冲击,相关的刑事立法可能会改变长久以来的传统的刑事责任定义,这正是新兴技术的发展对于刑事立法的挑战,所以我们既要制裁人工智能类的犯罪,又不能阻碍该行业的发展,只有这样,才是成功应对我国当下人工智能犯罪的刑法困境。

参考文献

人工智能的法律规制篇(6)

第一类:弱人工智能Artificial Narrow Intelligence (ANI),弱人工智能是擅长于单个方面的人工智能。比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。

第二类:强人工智能Artificial General Intelligence (AGI),人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。

第三类:超人工智能Artificial Superintelligence (ASI),牛津哲学家,知名人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。

讨论人工智能对法律的影响,我们也会从人工智能的“三大类”入手,各个阶段的人工智能,对法律产生的影响将是不尽相同的。

在第一类,弱人工智能(ANI)阶段,由于人工智能智能处理较为单一的问题,且发展程度并没有达到“模拟人脑思维”的程度,所以人工智能仍然属于“工具”的范畴,与传统的“产品”别无二致。我们目前所处的阶段,就是弱人工智能阶段。虽然无人驾驶汽车、无人机等新产品的出现,给传统法律体系带来许多新问题,引发许多新思考,但仍然属于传统法律体系能够解决的问题。

2016年2月,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴发生碰擦,所幸无人受伤。美国高速公路安全管理局(NHTSA)却确认,根据美国联邦法律,用于自动驾驶的人工智能系统可以被视为司机。那么是“司机”、谷歌,还是驱动汽车的算法、感应器以及所有控制系统来负责交通事故呢?

这起事件引发了许多人对人工智能卷入犯罪案件中责任主体界定模糊的问题的思考。人工智能究竟是不是具有法律和道德意识与行为能力的主体?如果不是,那么当人工智能触犯了他人利益、造成社会损失时,究竟应该由研发者、运营者还是使用者承担责任呢?此时,有哪些法律能够用来保障这些人的权益?如果承认人工智能是有行为能力的主体,那么又该如何为这些“人工智能”定罪量刑呢?

我国《产品质量法》第四十三条规定:因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。

显然,在弱人工智能阶段,机器仍然属于工具和产品的范畴。传统的《产品质量法》在这个阶段内仍然可以直接适用。但随着技术的发展,这种情况就会马上改变。

在第二类,强人工智能(AGI)阶段,由于人工智能已经可以比肩人类(笔者认为这是人工智能的“奇点”,在短期内人工智能将极大地超越人类),同时也具备了具有“人格”的基本条件。

由于机器可以像人类一样独立思考和决策,该阶段的人工智能应该和人类一样,成为独立的主体享有权利,并对自己的行为承担责任,这将体现在财产、继承、侵权、刑事等各个方面。这个阶段的法律已经基本无法直接套用,人工智能将对传统法律体系产生巨大的冲击和颠覆。

在第三类,超人工智能(ASI)阶段,该阶段的人工智能已经跨过“奇点”,其计算和思维能力已经远超人脑。人工智能将打破人脑受到的维度限制,其所观察和思考的内容,人脑已经无法理解,人工智能将形成一个新的社会。

人类的法律体系仅在人类社会生效,在这个阶段,人类规则的制定已经无法影响人工智能,因为人工智能已经超出了人类社会的范畴。随着技术的进步和人工智能的自我改进,一个比我们聪明100倍、1000倍、甚至10亿倍的大脑也许能够随时随地操纵这个世界所有原子的位置。此时的人工智能已经不是人类可以理解和想象,人类的法律体系也会随之消亡,或转化成另外的形态而存在。

基于此,笔者大胆地提出人工智能对法律影响的几点预测:

第一,成文法将会萎缩甚至消亡。可以预见,人工智能和新技术留给立法的时间将会越来越少,越来越多的极其复杂的新问题将迅速出现,成文法将成为历史;

第二,法律体系将彻底颠覆。随着人工智能从低到高的发展,工具终将将具备人格、超越人格,我们传统的法律体系也将失去存在的基础;

第三,法律将在“创新”与“生存”之间不断博弈。创新的伦理问题将伴随人工智能发展的全过程,是否允许技术创新迈向“奇点”,用以保卫人类的“生存”,或许会逐渐成为立法者考虑的核心问题。但立法者很可能会发现,创新也许是人类社会发展的规律。

现阶段,人工智能已经逐渐对法律领域产生影响,并引起了法律领域的变化,我国的法律体系应当重视变化,积极向人工智能时代转型升级。

例如,人工智能技术在合同审查、资料收集、尽职调查、材料翻译等领域为法律工作提供极大的便利,并且在工作效率上具有明显的优势。这会进一步影响到司法机关、公证机构、律师事务所的用人模式,可能会减少这些机构对入门级技能新人的雇佣和培养。

再例如,由于创新技术和人工智能的发展,新事物产生的时间大大缩短,由新事物而引发的新案例将越来越多。而现阶段,人工智能还不能够独立地提供法律服务,更不能独立地对案件进行分析和审判。这需要大量的法官、检察官和律师们积极拥抱和学习新技术,并且需要一定的深度。这对于传统法律人来说,难度很大。专业人才可能会在一段时间内出现严重的断层,法律在短期内对新事物新案例也将无暇响应。法律应当重视内生规则(如网规)、判例的作用,通过柔性、大众化、平台化的规则治理,通过数据和算法来预判行为,来适应这种“断层”。

人工智能的法律规制篇(7)

物联网技术产业化已经成为各个国家经济发展的生长点,并呈现规模化、协同化、智能化趋势。但是,基于物联网的企业内部控制建设并没有跟上物联网产业发展的步伐。当前,企业内部控制经常陷入管理与技术两张皮的困境――从管理角度设计的企业内部控制制度和从信息技术角度设计的企业内部控制制度,它们都没有考虑管理与技术融合来制定企业内部控制制度。以物联网技术应用为背景下的企业是一个复杂的“大系统”。企业内部控制不仅要融合管理与技术,更要考虑企业是个大系统性质。因此,大系统智能控制是企业内部控制发展的革命。科学技术发展规律为企业大系统智能控制提供物质基础;控制理论的发展规律为企业大系统智能控制提供理论基础。大系统智能控制是智能控制与大系统控制的融合。智能控制论是控制理论向智能水平高度发展的新分支,大系统控制论是控制论向系统规模广度发展的新分支。

一、技术控制与管理控制的两张皮:企业内部控制发展历程回顾

物联网技术产业化已经成为各个国家经济发展的生长点,并呈现规模化、协同化、智能化趋势。但是,基于物联网企业内部控制建设并没有跟上物联网产业发展的步伐。当前,企业内部控制经常陷入管理与技术两张皮的困境:要么是侧重于管理角度而忽视IT技术角度来研究企业内部控制体系,其结果是经济学家与管理学家设计的企业内部控制体系不能适应现代IT技术环境;要么侧重于IT技术角度而忽视管理角度来研究企业内部控制体系,其结果是设计的企业内部控制体系不能体现企业经济管理的目的。两者都没有从IT技术与企业管理融合的角度来研究企业内部控制体系。

(一)基于管理角度的企业内部控制

前者主要成果如下:美国国会颁布的《2002年公众公司会计改革和投资者保护法案》、美国SEC陆续的多项相关最终规则(Final Rule)和草案(Proposed Rule)、反虚假财务报告委员会(Treadway委员会)在2004年制定的《企业风险管理框架》(Enterprise Risk Management,ERM)、加拿大特许会计师协会(CICA)的《控制指南》、内部审计师协会(IIA)的内部审计标准委员会(IASB)制定的“内部控制指南”、我国财政部在2007年3月4日公布的《企业内部控制规范(征求意见稿)》。这些内部控制制度主要体现的是典型的法律文件。它们规定了企业在整体或业务层面上必须达到的要求,却没有指明企业如何通过IT控制平台才能达到法案规定的水平。比如SOX要求企业内控必须有效,并在财务公告前90天内评估内控效力等,但是企业需要控制什么,如何控制,内控效力又如何评估全都不在SOX的范围内,特别是落实到IT控制方面,SOX完全没有给出任何指导意见。同样,对SOX法案起细化作用的PCAOB审计标准的作用同样仅限于原则层面,如在审计准则的第35、40、50、75条款中都没有具体规定在IT平台上如何进行审计。我国的《企业内部控制规范(征求意见稿)》虽然独立出来一个《企业内部控制具体规范第xx号――计算机信息系统(征求意见稿)》,但是它也只是从信息技术的技术控制角度来进行企业内部控制。财政部公布的其他企业内部控制具体规范也没有体现基于IT环境下的企业内部控制制度。

(二)基于技术角度的企业内部控制

研究现代信息技术的人(如,软件开发人员)由于不懂现代公司运行的公司治理及内部控制,他们多是从企业信息系统的一般控制(如:组织控制、系统开发控制、信息系统的操作与维护控制、数据资源控制、硬件与软件的控制、系统软件控制与网络控制)与应用控制(如:输入控制、通讯控制、处理控制、输出控制)的角度来研究公司的治理与内部控制。这些治理与内部控制不能体现公司管理的目的。如,信息系统审计与控制协会在1996年公布的《信息及相关技术的控制目标》(COBIT,Control Objectives for Information and related Technology)、原英国国家标准局制定的《信息安全管理实践规范》BS7799―1与BS7799―2《住处安全管理体系规范》及在2000年12月被国际标准化组织认同的ISO17799(我国也将采用为CNS17799)等都是从信息技术角度而不是公司管理角度进行内部控制。

总之,当前的企业内部控制制度,不是单纯从企业管理角度,就是单纯从信息技术角度,都没有从技术与管理共生协同的角度进行考虑与设计,管理与技术两张皮。而物联网下,企业的生产要素中生产资料与劳动者一样是主体与客体相融合的要素,不像以前,劳动者是劳动主体,生产资料是劳动客体。因此,必须改变原来的企业内部控制体系与性质。

二、企业是个复杂的“大系统”:物联网下企业的特征

企业内部控制性质随着企业的变化而变化,随着物联网技术在企业中的应用,企业越来越呈现“大系统”的性质。

由于现代社会信息化、系统化和网络化的发展,特别是随着物联网技术在企业中的广泛应用,企业的生产设备等生产资料、各种原料的智能化(smart)以及网络智慧化(intelligent),企业生产经营与管理呈现出规模庞大、结构复杂、功能综合、因素众多等复杂的“大系统”的特征。

(一)规模庞大

企业大系统包含相互嵌套的子系统(小系统,如:生产经营系统、信息系统、管理系统)、部件(如:机器设备)、元件(如:传感器、接收器等)甚多。通常,企业大系统占有的空间大,经历的时间长,设计的范围广,具有分散性(如:企业全球化经营)。

(二)结构复杂

企业大系统中各子系统、部件、元件之间大的相互关系复杂。通常,企业大系统中不仅包含有物,还包含有人,具有“人―物”、“人―人”、“物―物”之间的多种复杂关系,同时,由于物联网的发展,企业的生产设备等生产资料、各种原料的智能化(smart)以及网络智慧化(intelligent),企业除了人之外,各种“物”也都相应成为主动系统。哲学意义上的主体客体的关系真正成为相对的关系。

(三)功能综合

通常,企业大系统的目标是多样的,企业不仅要实现技术上的生产目标,更要实现企业经济目标,同时要实现社会责任目标和生态和谐的目标。因而,企业大系统的功能必是多方面的,如企业产品质量控制功能、企业经济管理功能、企业生态环境保护功能、企业社会就业功能等等,为此功能要系统综合。

(四)因素众多

企业大系统是多变量、多输入、多输出、多目标、多参数、多干扰的系统。同时,企业不仅有“物”的因素,还有“人”的因素;不仅有技术因素,还有经济因素、社会因素等。这些因素具有不确定性、不确知性。

正因为企业是一个复杂的“大系统”,如何分析、设计、控制、管理、高度指挥企业这个复杂大系统,这是当前控制科学、系统科学、信息科学面临的重大课题。

三、大系统智能控制:企业内部控制发展的革命

(一)科学技术发展规律:企业大系统智能控制的物质基础

从技术角度看,人类进化发展史,就是科学技术发展史。一般说来,人类进化发展经过“生物学意义进化”阶段、“文明进化”阶段两个阶段。当前,正在向“智能进化”阶段发展。同时,随着科学技术的“辅人”阶段、“拟人”阶段到“共生”阶段的发展,科学技术为企业智能控制提供了坚实的物质基础。

人类的“生物学意义进化”阶段的特征是仅靠生物体自身各种器官功能的调整来增强它的能力,是一种“着眼体内”的进化,如:人类的直立行走与手脚分工。

人类的“文明进化”阶段的特征是利用外部世界的资源来增强自身的能力,如:制造和使用工具。制造工具的原理升华为科学,制造工具的经验和技巧则沉淀为技术。科学技术不断发展完全是为“增强人类能力”服务的,因此,命名为科学技术的“辅人律”。如:农业时代的发展主线是增强人类体质功能的材料科学技术和相应的基础科学;工业时代的发展主线是增强人类体质功能的能量科学技术和相应的基础科学。

人类的“智能进化”阶段特征是利用外部世界的信息及智能资源来增强自身的能力。如:物的智能化(smart)、网络智慧化(intelligent),它们为人类的智能外化提供了物质基础。信息时代的发展主线是增强人类智力功能的信息科学技术和相应的基础科学,这就是在科学技术的“辅人律”基础上的科学技术的“拟人律”。既然科学技术的作用是“辅人”,它的发展是“拟人”的,那么,科学技术和利用科学技术所创造的工具就必然与它的主人(人类)形成以人为主、以机为辅的共生合作关系,这就是科学技术的“共生律”。

因此,按照科学技术发展的“辅人律”、“拟人律”、“共生律”,处于21世纪信息时代的大背景下,现代科学技术研究的核心、前沿和制高点就应当是“增强人类智力能力”。“智能”是“信息”的精彩结晶,“智能科学技术”是“信息科学技术”的辉煌篇章,“智能化”是“信息化”发展的新动身、新阶段。

所以,正如人类不仅要研究“脑的结构”,更要研究“脑的工作机制”,我们不仅要研究企业的智能结构,更要研究企业智能工作机制。

(二)控制理论的发展规律:企业大系统智能控制的理论基础

根据控制理论研究成果,当前控制理论发展经过“经典控制理论”、“现代控制理论”、“大系统控制理论”、“大系统智能控制理论”等四个阶段,具体如图1。控制理论的发展为企业智能控制提供了坚实的理论基础。

第一代控制理论即所谓“经典控制理论”,它主要采用传递函数模型、频域分析与综合方法,研究单变量控制系统设计和单机自动化技术问题。

第二代控制理论即所谓“现代控制理论”,它主要采用状态方程模型、时域分析与综合方法,研究多变量控制系统设计和机组自动化技术问题。

第三代控制理论分为两个发展方向:大系统理论与智能控制理论。

大系统理论,代表控制理论向广度方向发展。大系统理论是第二代控制理论与运筹学相结合、控制系统与系统工程相结合的产物,主要采用状态方程及代数方程的数学模型、分解―协调方法,研究大系统的最优化、稳定化和模型简化等问题,以及大系统的综合自动化技术和经济问题。

智能控制理论,代表控制理论向高度发展,提高控制系统的智能水平。如:自识别、自组织、自寻优、自适应、自学习等方面的智能水平。智能控制理论是控制理论与人工智能相结合、控制工程与知识工程相结合的产物。

第四代控制理论就是“大系统智能控制”。

大系统智能控制理论是第四代控制理论,反映了控制理论向广度和高度两个方向的发展。大系统智能控制理论是智能控制向广度的发展,研究各种大系统的智能控制问题,包括工程技术、社会经济、生物生态大系统的控制、管理、决策等问题;大系统智能控制理论是大系统控制向高度发展,提高大系统控制的智能水平,如大系统的智能控制、智能管理、智能决策的水平。

第四代控制理论即大系统智能控制符合学科“分化―结合”的规律。如果说,第二代控制理论分化为大系统理论与智能控制理论,那么,大系统智能控制理论将是大系统理论与智能控制理论相结合的产物。

四、大系统智能控制:企业大系统智能控制的性质

智能控制是人工智能(artificial intelligence)和自动控制(automation control)相结合的新技术,是工程界、企业界共同关注的热门课题。大系统智能控制是智能控制与大系统控制的融合。智能控制论是控制理论向智能水平高度发展的新分支;大系统控制论是控制论向系统规模广度发展的新分支。大系统智能控制按控制级别可分为高层控制和基层控制。高层控制包括指挥决策、计划管理、生产调度;基层控制包括自动调节、过程控制、操作控制。大系统智能控制按智能类别可分为如下控制性质:自稳定控制、自识别控制、自协调控制、自优化控制、自学习控制、自适应控制、自组织控制、自规划控制、自修复控制等。

人工智能的法律规制篇(8)

中图分类号:C913

文献标识码:A

一、社会主义新智库的内涵

智库一词来自于英文“Think tank”,也被翻译为“思想库”。现代意义上的智库在二次世界大战后得到了迅速的发展,智库数量大为增加,智库在各国政策研究和国际事务中发挥的作用越来越大。

智库在迅速发展的同时,学术界对智库的定义却并未达成共识。不同学者从不同角度,如大小、功能、结构等方面进行分析,而且西方发达国家和发展中国家对智库的定义也存在着较大的差别。在综合国内外研究成果的基础上,可将智库定义为:具有专业的研究队伍,以政策研究主要手段,以影响公共政策制定为主要目标的非营利性组织。

随着我国经济社会高速发展,党和国家领导人对于智库的发展也越来越重视,党的十七大报告又特别强调“智库”的作用,并第一次把“智库”的定位写进了党代会的报告,这为社会主义新智库的内涵确定了基础。智库的功能应体现社会主义的本质特征和价值内涵。因此,智库是立足于为党和政府决策提供科学依据,为社会主义现代化建设提供智力支持研究型组织。

二、中国智库建设中的保障体系

中国智库建设是一个长期的系统工程,这需要在建设过程中明确战略思路,强化功能设计,提倡制度创新等一系列举措,其中保障体系建设是这一系列举措中不可缺失的一环。保障体系是指为实现一定的战略目标、保证战略正常进行,面对具体任务实施而提供必须的生产条件、生产要素和管理的配套服务系统。中国智库建设是一项战略工程,为了保证建设进程的顺利推进,需要考虑当前我国经济社会发展的实际情况,构建一套完整的保障体系,确保智库的建设方向。本文针对现实情况,提出了六大保障措施。

三、保障体系建设的具体内容

(一) 组织保障体系建设。

要以观念创新与方法创新带动管理创新,建立健全新形势下民间智库和企业智库的基层党组织的建立、活动与管理模式,为社会主义智库的建设提供有力的组织保障。当前我国智库中的独立智库、大学智库与一部分企业智库自身都具有一套完整的党组织系统,要进一步加强民主集中制建设。对于党组织建设尚在起步阶段的智库,要积极探索区域分级管理模式,还可以尝试采用行业协会党组织管理模式。

(二)政策保障体系建设。

1、财税政策。

政府需要采取激励与引导的公共财政政策来支持智库的发展,需要在稳定当前财政支持力度的基础上,进一步加大智库的财政支持力度,开发新形式的财政支持形式,提高财政经费使用效率。

2、规划政策。

用科学的规划来保障智库的建设进程。要充分认识到规划的科学性与前瞻性,积极组织相关人员进行智库的规划工作,要把握时机,在国内率先进行智库规划,利用规划推动智库的建设与发展。

3、统计政策。

智库功能的实现需要科学的统计数据作为基础。因此,政府相关部门应主动进行统计政策变革,做到统计政策与制度的与时俱进:扩展统计服务对象,拓宽服务领域;全面提高统计信息质量,提高数据信度;与智库对口合作,开展深入交流。

(三) 法规保障体系建设。

1、立法建设。

通过法律手段确定智库的地位、功能、责任、权利等内容,为明确智库的法律地位和促进其发展提供完备的法律依据。在完成了基础性立法后,再从实际发展情况出发,进一步完善智库法制体系的建设。根据社会主义新智库建设的目标与内容,及时制定新的法律,修改原有的法律。坚持法制统一原则,建立健全法律之间冲突和抵触的协调和处理机制。

2、执法建设。

加强相关行政机关严格按照法定权限、法定程序和法治精神对智库进行管理,在坚持法律原则的基础上讲究效率,主动有效地行使对智库的监管职能,强化外部监督功能。在严格执行法律法规的前提下,做到公平、公正、合理、适度。对于违反相关法律法规规定的智库机构,要按照法律追究其法律责任,确保社会主义法制的正义性,保证智库间的公平。

(四) 基础设施保障体系建设。

智库的基础设施是保证智库运行与发展的一般物质条件。智库的基础设施建设是落实中共中央《关于进一步繁荣发展哲学社会科学的意见》与十七大报告精神,集聚国内外智库研究资源、智库的一项重要举措,也是进一步拓展现有智库机构发展空间、改善智库科研条件,促进科研设施共享、信息交流、合作研究和集成创新的重要举措。通过智库基地的建设,将完善智库基地的交通、给排水、供电等基础设施条件,创造良好的配套支撑条件。

(五)科学技术保障体系建设。

智库在参与政府决策过程中广泛涉及多领域和多学科的技术交叉研究与应用,科技含量高,对科学技术的需求尤为迫切。智库相关的科学技术保障主要有以下几个方面:

1、软科学理论。

当今政府面对的问题纷繁复杂,智库在参与政府决策中就要面对大量的复杂性、系统性课题,软科学解决各类复杂社会问题提出可供选择的各种途径、方案、措施和对策,有效地提高了智库参与决策的技术水平。政策模拟技术、行为科学理论是当前智库软科学应用的主要方面。

2、信息技术。

智库的日常工作中需要面对大量的信息处理问题,如何提高信息的处理水平,提高信息管理质量,确保信息的有效传递,这成为智库发展中的一个需要解决的科技问题。当前信息技术发展的总趋势是以互联网技术的发展和应用为中心,从典型的技术驱动发展模式向技术驱动与应用驱动相结合的模式转变,与智库日常工作相关的信息技术突破有以下几点:云存储技术、Web2.0技术、信息高速公路。

参考文献:

人工智能的法律规制篇(9)

我国高等院校引进国外智力(简称引智),主要是指长期或短期聘请外国专家来高校讲学和工作、召开和参加国际学术会议、合作开展科学研究、联合培养研究生和青年教师以及合作开办科技产业等,其实质是引进国外的人才、先进的知识、学术、技术、技能、发展和管理教育的成功经验,引进各国优质的教育、教学和科研资源,为我所学,为我所用,为我国高等教育的改革与发展,为我国高等院校培养专门人才、发展科学文化和为社会发展服务提供科技动力和智力支持。我国高校引进国外智力具有重要意义,它在高校的建设发展中处于战略地位,是我国高校学习外国先进科学技术和进步文化的重要形式,是加强学科建设,提高师资队伍水平和科研能力,培养创新型人才的重要途径。改革开放以来的实践证明,高校引智在加速高层次人才培养、推动高校学科和实验室建设、促进科技开发与成果转化、提高我国高等院校在国际上的知名度和学术地位等方面,发挥了直接而重要的作用,高校引智是增强我国高等教育国际竞争力的有效途径,已成为我国高校自身建设发展的重大战略性举措。

二、我国引智工作当前存在的问题

引智是高校教学、科研工作的重要组成部分,是加强高校学科建设、提高教学科研水平、 培养高层次人才的重要措施,是促进我国高校与国际教育接轨、赶超国际先进水平的重要途径。改革开放以来,我国高校的引智工作取得了可喜成绩, 但也存在诸多问题,现就当前引智工作存在的问题分析如下。

1、引智工作法制体系建设滞后

我国缺少专门的法律或者行政法规对引智工作做出明确规定,没有法律的约束和规定,导致在执行过程中产生问题无法可依。与发达国家相比,对方的法律较规范健全,人们的法律意识较强,在工作过程中因两者在法律法规方面存在差异难免发生冲突。再加上如果我国的法制环境不够完善,久而久之,他们会对中国的市场望而却步,我国就难以适应新形势下的引智要求。

2、管理系统不灵活,管理人员素质偏低

从发达国家引智实践来看,智力的引进至关重要,但是后期的人才管理又是重中之重,因为人才在被引进之后,发现实际的环境、条件没有达到自己期望的标准后,便会造成再一次的人才流失。因此,做好对外籍教师的管理工作使之更好地发挥作用,是高校管理人员面临的重要课题。然而,目前还没能形成完备的外籍教师管理体系,因此经常是在问题发生后,才由相关部门的管理人员想办法解决。这种就事论事、事后补救的管理方法已经不适应外籍教师规模迅速扩大的新情况,因此高校有必要针对自身特点建立一套完备的外籍教师管理体系。此外,管理人员本身素质偏低、专业狭窄,能够算得上懂管理的人员不多,有些专职管理人员满足于传统的经验型管理,缺乏开拓进取的意识和动力,管理工作往往在低水平上运行。

3、对外籍教师的作用认识不够

聘请外籍教师从事语言教学是我国"引智工程"的初级阶段,聘请外籍专家扶植我国的新兴学科和重点学科,带动我国科研的发展,加快高层次国际化人才的培养是引智工作的高级阶段。然而,当前我国高校的引智工作仅仅停留在初级阶段,外籍教师的作用仍仅局限于语言课的教学上,导致资源得不到有效利用。归根结底是因为管理人员对外籍教师的作用认识不够,没有发挥他们在科研领域的重要作用。

三、引智工作改善的对策和建议

1、实行法制化管理,引进国际高端人才

引进的专家学者除了遵守所在国的法律之外,还必须遵守我国的法律,比如《中华人民共和国劳动法》,就适用于"通过劳动合同与国家机关、事业组织、社会团体建立劳动关系的劳动者",《外国文教专家聘用合同管理暂行办法》和《外国文教专家聘用合同争议仲裁暂行规定》就为聘人单位和外国专家之间订立、履行、变更、解除和终止合同,以解决聘用合同争议提供了法规依据。根据国家外国专家局《引进外国智力工作"十一五"规划》中明确的引智工作指导思想,结合引智工作实际,管理者应该更新观念,树立科学的引智发展观,在实际工作中秉承法律意识,做好引进和监督工作,把引智工作、确定新的专家标准、调整引进工作思路和重点,作为引智工作科学发展、可持续发展的首要工作。此外,应该广泛开展国际人才交流与合作,逐步完善高校外国专家准入制度。从当前我国高校引智现状看,我国普通高校现在的外国高级专家人数偏少,有些地方高校在这一方面根本就是空白。这就需要我们出台相关方面的政策措施,从上到下制定合理的引进外国专家计划,为我国培养创新型人才服务。通过制定一些优惠政策以吸引外国专家到我国高校服务。除了给与薪酬上的高待遇外,还可以从其他方面努力。切实制订一些优惠政策,考虑外国专家的工作生活环境,科研条件,住房问题,子女上学等方面。

2、保证所聘外国专家的质量水平

外国专家质量水平的高低,是决定外国专家聘用效益大小的根本因素。高校聘用高水平的外国专家,例如,聘用世界学术界公认的、有成就的、在其研究领域内有独到建树的专家学者。杰出的外国专家往往能够带动一个学科的兴起。同时,针对重点领域的重要岗位,可进行重点引进,甚至可尝试对一些顶尖级科研团队进行整体引进。高层次人才到岗后,需结合自身优势和需求高校的人才规划,制订最适合自己和高校的发展方向、发展目标。高校要充分发挥引进人才的主观能动性,激发其个体的内在潜力,引导他们把个人的发展并轨到团队的发展方向上,将个人的事业生涯规划与高校发展目标相结合,从而做到在引进人才一旦因故无法续聘时,也能给高校"搭建一个平台、带出一支团队"。引进 这些人才对加速我方科学研究的进展、管理方法的变革、技术的革新、经济的发展都是非常重要的,有时其作用和效益甚至是无法估量的。此外,高校本身要做好规划、了解、评估和审批等环节的工作,对应聘者进行全面深入的了解,可以通过索取有关证明、面试或电话考察等方法了解应聘者各方面的情况,不能只听应聘者进行自我推销的一面之词。同时应对推荐者和出具证明材料的机构的可信度进行判别,进而判别推荐和证明材料的真实性;管理部门和教学单位的相关人员都应参与把关,并应坚持宁缺毋滥的原则,坚决不聘用经评估不符合条件的应聘者。

3、完善引智工作管理体制和运行机制

长久以来,我国在引智过程中,政府发挥政策调控、宏观指导和协调服务的功能,用奖惩机制引导学校争取政府专款,主动匹配校内资金,激发学校引智工作活力,从而建立起一种主动、高效、灵活的管理体制,并形成良性循环的运行机制,为高校引智效益的提高提供有力的导向、规范、支持和激励的功能;学校按照实际需要确定引进专家的数量和形式,为专家提供工作和生活环境,确定专家负责的课程或领域。有的学校根据本校实际,制定了相应的管理制度和运行办法, 从聘请项目目标、专家管理目标及效益评估目标三个阶段进行完整的管理,有效地提高了管理的效能和水平,提高了引智效益;有的高校建立起配套经费的投资制度,设立引智基金等办法来加大引智经费的投入,改善专家工资待遇,保证了项目的执行和专家聘请工作,提高了引智效益。当前,我们还需根据形势的进一步发展建立和完善既符合国际惯例又适应我国国情的管理体制和运行机制,促进引智效益的进一步提高。

4、提高高校外事部门的管理能力和业务水平

提高外事部门的管理管理能力和业务水平是做好引智工作的前提和关键。高校外事部门在引智工作中处于关键地位,这就要求相关管理者要围绕学校的办学目标和中心工作,确立服务意识,积极主动地开展工作。他们要有较高的政治思想素质,以邓小平理论为指导, 坚持党的路线、方针、政策和外事原则,在工作中要始终与党的观点、决策等保持一致,维护党和国家的利益,具有良好的思想道德品质,有事业心和进取精神,发扬自尊、自信、自强的民族精神,做到不卑不亢。同时,应具有较强的业务能力,有较强的外语表达和交流能力、社会交往能力和接受新知识、新信息的能力;有广博的知识和丰富的阅历,掌握现代信息技术特别是互联网技术,熟悉国家的引智政策、法规和有关的国际惯例与国际规则,并能规范、系统、高效率地处理各种事情,有处事应变的灵活性;要开阔思路,多研究市场,多总结经验以提高工作能力,提高管理水平。

四、结论

我国高校引智工作具有重要意义,它在高校的建设发展中处于战略地位,是我国高校学习外国先进科学技术和进步文化的重要形式,是加强学科建设,提高师资队伍水平和科研能力,培养创新型人才的重要途径。当前,我国高校的引智工作取得了长足的进展,但也存在一些问题,需通过法制化途径、提高外国专家的质量水平、完善管理部门的监管机制、提高管理部门的管理能力和业务水平等方法解决。引智工作是一项综合复杂的工程,一个单位引智工作要取得好的效益,还需要领导的重视。在此基础上,充分调动中层单位、专家、学者的积极性,使他们主动的来为引智工作出谋划策乃至做牵头人,形成引智工作的主体。在管理和服务的共同配合下,我国高校的引智工作才能取得更大的进步。

参考文献:

[1]罗卫.高校外事管理与国外智力的引进[J].渝州大学学报, 2002( 6).

[2]骆新华.在国际人才流动新趋势中加快我国引进国外智力工作[J].湖北社会科学,2000(7).

.北京:经济科学出版社, 2005(16).

[4] 寇延耀.引智的重要性及高校引智的基本模式[J].清华大学教育研究,1997,(2).

人工智能的法律规制篇(10)

今天,人工智能技术正在深刻地改变世界。以深度神经网络为典型代表,人工智能技术已经发展到可以通过学习顶尖专家知识和行业大数据,达到一流专家水平,从而超过绝大多数普通专业人士。未来5到10年,人工智能将像水和电一样无所不在,可以进入到教育、医疗、金融、交通、智慧城市等几乎所有行业,一个全新的“人工智能+”时代正在到来!

鉴于人工智能的重大战略意义,为保持中国在人工智能领域良好的发展势头,刘庆峰建议将“人工智能+”上升为国家战略,系统规划、加速布局,抢抓全球产业制高点,并具体提出以下建议:

设立人工智能国家实验室,大力支持人工智能源头技术创新;成立人工智能产业联盟,打造人工智能产业生态;推动行业数据开放与共享,制定“人工智能+”行I应用标准体系和测试方法;建立“人工智能+”时代教育课程和社会培训体系;制定“人工智能+”时代的社会支撑和法律体系;设立部级软课题,研究“人工智能+”时代的人文研究和伦理引导;制定“人工智能+”时代的全球人才引进计划;建议加强“人工智能+”时代的全球产业资源整合;设立国家人工智能产业应用示范区,以示范应用带动产业集群发展。

刘庆峰在“关于发展人工智能,推动医疗供给侧改革的建议”中表示开展智能语音及人工智能技术的应用,推动门诊电子病历的普及;建设基于深度学习的人工智能辅助诊疗系统,提高医生诊疗水平,助力医疗供给侧改革;卫计委成立国家医疗人工智能领导小组,指导医疗人工智能产业发展。

人工智能的法律规制篇(11)

    委托人:成大为,上海市第六律师事务所律师。

    被告人:沈涯夫,男,61岁,原系《民主与法制》社记者。

    辩护人:叶传岵,上海市联合律师事务所律师。

    辩护人:曹汉银,上海市联合律师事务所律师工作者。

    被告人:牟春霖,男,63岁,原系《民主与法制》社记者。

    辩护人:薛淦洪,上海市联合律师事务所律师工作者。

    辩护人:潘守权,上海市联合律师事务所律师工作者。

    1985年1月20日,自诉人杜融向上海市长宁区人民法院起诉,指控被告人沈涯夫、牟春霖利用写文章对他进行诽谤,要求依法追究刑事责任,并要求赔偿因被告人的诽谤行为使其遭受的经济损失。长宁区人民法院立案后,依法组成合议庭,经公开审理,查明:

    被告人沈涯夫、牟春霖合作撰写了《二十年“疯女”之谜》(以下简称“谜”文)一文,刊载在1983年第1期《民主与法制》杂志上。“谜”文以“仅将调查经过公布于众”的口吻披露:杜融(“谜”文中化名屠勇)为了达到从武汉市调到上海市的目的,采取毒打等手段,逼妻子狄振智(“谜”文中化名田珍珠)装疯,并于1961年2月、1962年3月两次将狄振智送进精神病医院。杜融调到上海后,因私生活露出马脚,害怕妻子揭发,于1973年3月第三次强行将狄振智送进精神病医院,致使狄振智戴着“疯女”的帽子,生活了20年,“谜”文呼吁:让狄振智那样的当事人从不解之谜中解放出来,让那些该受到法律制裁的人不能再逍遥法外。

    “谜”文发表之后,造成恶劣影响,全国各地一些不明真象的读者,纷纷投书《民主与法制》杂志,谴责杜融,并强烈要求给予法律制裁。之后,沈涯夫、牟春霖又撰写了《疯女“之谜的悬念……》,连同”谜“文,同时在辽宁《妇女》杂志1983年第12期上发表,继续对杜融进行诽谤,致使杜融的人格、名誉遭受严重损害,无法正常工作,经济上也遭受一定损失。杜融的女儿亦因此遭到非议。

    审理还查明,狄振智确系精神病患者;杜融从武汉调至上海,属于正常工作调动;杜融作风正派,根本不存在私生活腐化问题。

    上述事实,有被害人指控、证人证词、书证、物证及上海市精神病司法医学鉴定书证实,事实清楚,证据确凿。

    在审理过程中,被告人沈涯夫、牟春霖的辩护人提出调解要求,本案合议庭予以准许,并分别多次作了两被告人与自诉人的工作,但调解未成。为此,合议庭决定依法判决。

    长宁区人民法院确认:被告人沈涯夫、牟春霖不顾狄振智有精神病史的事实,违反要否定精神病的诊断结论必须要作司法医学鉴定的规定,拒不接受有关医生、同事、受害人住地部分群众、当事人单位组织、上级领导机关的忠告和规劝,故意捏造和散布足以损害自诉人杜融人格、名誉的虚构的事实,手段恶劣,情节严重,影响很坏,其行为已构成《中华人民共和国刑法》第一百四十五条第一款规定的诽谤罪。由于被告人的犯罪行为使被害人遭受了一定经济损失,依照刑法第三十一条的规定,应酌情赔偿受害人的经济损失。

    长宁区人民法院为了保护公民的人身权利不受侵犯,于1987年6月29日作出判决:

    被告人沈涯夫犯诽谤罪,判处剥夺政治权利一年六个月;被告人牟春霖犯诽谤罪,判处剥夺权利一年;并分别判处沈涯夫、牟春霖赔偿附带民事诉讼原告杜融的经济损失。

    一审判决后,被告人沈涯夫、牟春霖分别以他们撰文揭露杜融逼迫狄振智装疯的依据是客观存在的事实,无诽谤的故意,更不属情节严重,要求保护新闻记者的合法权益,宣告无罪为由,向上海市中级人民法院提出上诉。

    上海市中级人民法院依法组成合议庭,经审理,查明:据上海市精神病防治院病史档案记载,狄振智自1961年2月至1974年8月,先后在该院门诊50余次,住院治疗3次,明确诊断狄振智系精神病患者;在一审法院审理期间,上海市精神病司法医学鉴定小组组织9名医师详细审查了狄振智住院期间的全部病史,一致认为狄振智患有精神病,并于1985年5月15日作出了狄振智患有偏执性精神病的鉴定结论诊断书。以上证据表明,“谜”文“揭露”杜融逼迫狄振智装疯,完全违背了客观存在的事实。

    “谜”文发表前,杜融向《民主与法制》社提供了说明事实真象的书面材料;该社原采访过狄振智的记者翟某曾告诉沈涯夫,狄振智过去有精神病,现又说是“装疯”,这个问题尚未查明,劝沈涯夫不要写稿;杜融和狄振智的所在单位、居住地的知情群众也明确告诉两被告人,狄振智患有精神病:“谜”文完稿后,上海市有关主管部门曾明确指出,“谜”文否定狄振智患精神病的证据不足,不能发表。但是,沈涯夫、牟春霖固执己见,在发表了“谜”文之后,又撰写了《“疯女”之谜的悬念……》,连同“谜”文投寄外地刊物继续发表。

    杜融多次被单位评为先进工作者,未发现生活作风有问题,自“谜”文公开发表后,一些不明真相的读者纷纷写信给《民主与法制》社,严厉谴责杜融是“暴戾之徒”、“新型流氓”、“与用拳头和刀棍虐待家庭成员、残害妇女的刑事犯罪分子没有不同之处”,要求追究杜融的刑事责任,致使单位被迫取下“光荣榜”上杜融的照片,停止对杜融的提拔使用。