人工智能风险的刑事归责
作者:单元任 发布于:2020-06-29 14:23:45.0 浏览次数:141

       摘要:人工智能是当今极其热门的一个新兴高科技项目,但其同时带来了风险,这些风险会转化为刑事风险。针对人工智能风险所带来的威胁,我们应首先根据人工智能现在存在类型进行分析,然后再通过刑法予以规制。根据人工智能的应用范围和领域,可以将人工智能分为专用人工智能和通用人工智能,这些风险或多或少都将导致社会损失,应予以规制。适当追究使用者和人工智能的刑事责任并根据现行刑法的内容定罪量刑,通过归因到归责的方式,依托于客观归责理论和严格责任原则,来辅助现有刑法进行刑事归责。人工智能发展离不开刑法的规制,刑法应如何针对,如何应对人工智能带来的各种全新犯罪方式,是刑法亟待解决的问题。

关键词:专用人工智能  通用人工智能  刑事风险  刑事归因  刑事归责

人工智能,英语全称叫Artificial Intelligence,其被认为与基因工程、纳米科学并称为“二十一世纪三大尖端技术”。长期以来,各国各行各业都将人工智能视为重要的战略资源,都在不遗余力地研发人工智能。我国2017年曾经发布《关于新一代人工智能发展规划的通知》旨在使人工智能的发展具有战略性和系统性。人工智能的不断发展,势必会带来许多之前从未遇到过的情况,这些情况,不管是正面还是负面,都或多或少都会影响到社会的安全与稳定。在世界各国都将人工智能视为重大战略资源的今天,正如有关学者所指出的,人工智能既是人类社会的伟大发明,同时也会给法律秩序带来巨大的风险。②、

一、人工智能面临的刑事风险问题

人工智能时代的刑事风险具有更为显著的时代特征,以人工智能是否具有辨识能力和自我控制能力及应用范围及领域为分割,可以将智能机器人划分为专用人工智能与通用人工智能。专用人工智能是指具备了一定推理能力和解决特定问题能力的智能机器或者系统,而通用人工智能能够像人一样独立地进行认知、思考、推理、创造和解决问题等。目前,专用人工智能适用面较广,高铭暄老师认为我们当下正处于人工智能发展的初级阶段,即专用人工智能的阶段。而专用人工智能普遍面临的刑事风险大概分为内部风险以及外部风险两类,其涉及的犯罪类型也是从内部和外部两种风险滋生开来。

1、内部风险:专用人工智能的内部风险通常来自于自身设计之初就存在的缺陷,这种缺陷似乎是不可避免的,对于人工智能来讲,它是一个在设计者一定的算法下按照设计好的算法和规则进行运算,得到一定结果然后再将这些结果反馈到现实中去的一种“工具”。在“算法黑箱”存在的今天,专用人工智能出现内部风险的复杂性大大提高,虽然现阶段人工智能算法上最多只是出现设计瓶颈而不是出现算法错误导致人工智能本身设计错误问题,但是这个“隐层”如何把握,如何监控,都是专用人工会智能内部风险亟需解决的问题。

2、外部风险:对应于内部风险,专用人工智能的外部风险更多体现在于专用人工智能的“工具性”,由于专用人工智能产品不具有辨认能力与控制能力,当人工智能的意识、判断因为其他行为人的行为脱离设计者或者使用者的意志之时,即产生了外部风险,人工智能技术发展迅速,将其作为犯罪工具的犯罪行为也随之一同进化,变得越来越高级。犯罪分子可以利用人工智能产品非法获得国家机密与其他保密信息并加以利用,从而扰乱社会秩序,在专用人工智能风险如此复杂的现实下,如何认定专用人工智能风险导致的刑事犯罪归责问题也需要综合考虑。

二、人工智能风险问题该如何归责

在人工智能发展的今天,技术和风险的并存是刑法必须认识到的一个问题,人工智能的刑事风险,正如之前已经分析过的,情况复杂多变。在我国刑法中,刑事归责通常指的是刑事责任归责,即将违反刑事义务的行为归因于行为人。人工智能犯罪本身的复合以及复杂程度,牵涉到两个或两个以上主体时,责任应该由不同主体之间按照某种比例互相承担,但如何归责要视具体情况具体分析。实际上,要想最终实现人工智能犯罪的归责,离不开对人工智能的归因,因为涉人工智能的归责和归因问题,是两个独立且有关联的问题——归因是归责的前提和基础,归责是归因的可能后果。因此,解决了归因问题,对于困扰我们很久的归责问题,将起着不可忽视的作用。

人工智能犯罪可以依靠客观归责理论进行归因

在当代刑法体系之下,刑法理论中解决因果关系的学说有好几种,条件说与原因说在当今刑法学界已经基本毫无影响力,在此不再赘述,而其余比较热门的理论还有相当因果关系理论和客观归责理论等等。

相当因果关系理论,依托条件关系,且同时行为结果被认为符合“相当”的条件下,即符合刑法意义上的因果关系。而如何去认定“相当”,相当因果关系却并未提供判断标准,只能以经验主义作为判断规则,这是相当危险的举动,每个人心中都有每个人的标准,把一切交给经验主义,势必会导致“相当”这个词难以自圆其说。如果没有相关的法律规范标准,仅凭借“相当”来决定这个行为与结果的关系,显然是不可取的。

而关于客观归责理论,其作为德日犯罪理论下的产物,是背靠三阶层理论而实现的,德日三阶层理论讲求一个递进关系,一环符合才会有下一环,其中包括了构成要件的该当性、违法性和有责性三个层次。因此,三阶层理论可以更好的解决归因问题,进而有学者提出只有三阶层的犯罪论体系才能使犯罪构成合理化。笔者认为,可以吸收客观归责理论,来帮助建立因果关系的认定标准。既然相当因果关系说无法解决其认定标准困难,而客观归责理论可以有效帮助解决这项困难。客观归责理论的因果关系流程可以表现为危害结果——行为——因果关系——危险判断,这个与条件说的表达方式有些类似,只是最后多了一层危险性的判断。关于危险判断的部分,即制造不被允许的危险、实现不被允许的危险、结果没有超出构成要件的保护范围,也就是说,第一个和第二个要件是对行为的规范判断,而第三个要件是对结果的规范判断。以Uber汽车事件为例,自动驾驶汽车汽车发生了故障,使用者A在不知道的情况下贸然上路,在路上开车过程中致行人B死亡。在这起案件中,我们尚不知A是否是故意撞死行人,现假定A是报仇心切,虽不知驾驶系统出现故障,依然义无反顾的驾车撞向血海深仇的B,而B也确实死亡,在这个条件下,我们可以用客观归责原则对案例做出更加合理的判断。首先,结果是行人B死亡,这个死亡结果当然应归属在刑法规制范畴,应当认定为因果关系判断中的结果。然后我们将客观归责理论带入其中,自动驾驶汽车本身是没有制造不被允许的危险的,也没有实现不被允许的危险,因此作为人工智能的自动驾驶系统的故障,并不是造成B死亡的原因,因此,通过客观归责理论,我们可以轻松的将自动驾驶系统故障这个原因排除出去,此时,B死亡的结果,仅仅跟A故意开车撞B有关,两者之间存在因果关系。

综上,在使用客观归责理论时,首先根据结果是否超过构成要件的保护范围这一条件进行判断,然后通过行为是否制造或者实现了不被允许的风险,进行二次判断,通过归因的方式进行归责,就可以在客观上解决人工智能刑事案件的行为和结果,是否具有刑法意义上的因果关系。

(二)人工智能犯罪可以借鉴相对严格责任原则进行归责

不论怎么说,我们不需要担心机器人试图故意杀死世界上所有的人,这不太可能是人工智能在这个阶段应该担心的问题,因为即使算法自学习本身允许人工智能“有意”执行一些行为,但这些仍将在预设算法中进行调整。因此,人工智能最可能的主观方面是过失犯罪。这种疏忽既有可能来自于研发人员或用户的疏忽,没有预见到专用人工智能机器人由于疏忽而可能造成的损害;也有可能是研发人员或用户已经预见到专用人工智能机器人可能造成的损害,但却轻信这种情况是可以避免和过度自信的错误。这时候,英美法系的严格责任适时出现在我们的眼前。严格责任原则最早出现于英美刑法中,其大体含义是,在某种没有罪过的场合仍可将行为定性为犯罪并对行为人追究刑事责任。严格责任原则确立的初衷主要有两方面:其一,严格责任的确立是个人利益向公共利益的让步,以保证社会生活的安全这一社会最大利益的实现。其二,在有些犯罪中,行为人不具有主观罪过,只是行为在客观上导致了危害结果,为了达到不放纵犯罪的目的,于是在实体法中只强调客观行为及后果而对罪过不作规定。

技术风险可能导致人工智能犯罪,但这个技术风险是否可以由确定的手段得到,应当是刑事归责的重要依据。确认这项技术风险是否确实存在并不轻松,由于人工智能产品中使用了“黑箱”技术,其算法不透明,最终用户不知道人工智能产品的算法是如何得出结论的。根据传统的刑事责任原则,刑事责任是主体责任,通过判定主体本身是否有犯罪倾向是很适合严格责任原则的,严格责任原则可以把一些不合适的归罪行为排除出去,从而使得应当受到刑事归责的行为不会被放过,但是不应当受到刑事归责的行为,也不应该被误伤。无论如何,不考虑主观因素直接定罪给人工智能的行为,是必然不可以取得。而实行严格责任正巧可以保证行为人在主观罪过并未得到证明前逃离责任范围,也可以保证行为人不会像绝对严格责任原则那样,直接客观归罪的情境。当然,我们并不采取绝对严格责任原则,新的相对严格责任能够更快更好的处理好归责问题,我国刑法在处理该类问题时候,可以借鉴一下该原则,相对严格责任与我国现实采用的刑事归责原则并无冲突。

三、结语

综上,人工智能的应用,就现阶段而言,更多的还是充当的是一个工具人的情形。就专业人工智能的现状来看,笔者认为,如果人工智能仅仅只有辅助工具的效果,比如医疗辅助,自动驾驶等,此时人工智能产品依然只是产品,它只履行自己的工具职能,若发生犯罪情形,应根据使用人情形追究其犯罪行为,使用客观归责理论,首先根据结果是否超过构成要件的保护范围这一条件进行判断,然后通过行为是否制造或者实现了不被允许的风险,进行二次判断,通过归因的方式进行归责,就可以在客观上解决人工智能刑事案件的行为和结果,是否具有刑法意义上的因果关系。同时使用相对严格的责任原则,追究参与其中设计师等人的刑事责任;而如果是人工智能已经具有一部分煽动能力的话,可以考虑其组合犯罪的情形,既追究犯罪行为人的刑事责任,也要以过错责任原则追究设计师等一干人的刑事责任能力。至于通用人工智能,虽然已经可以以过错责任原则来处理,但是还是等到那一天的到来之后再进行讨论。

 

参考文献

① 参见吴汉东《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期。

② 参见王志祥《人工智能时代刑事风险的刑法应对》,载《上海政法学院学报》2019年第2期。

③ 参见高铭暄《互联网+人工智能全新时代的刑事风险与犯罪类型化分析》,载《暨南学报》2018年9月。

④ “黑箱”是控制论中的概念。参见徐凤《人工智能算法黑箱的法律规制》,载《东方法学》2019年第6期。“作为一种隐喻,它指的是那些不为人知的不能打开、不能从外部直接观察其内部状态的系统。人工智能所依赖的深度学习技术就是一个‘黑箱’。”

⑤ 同前注③。

⑥ 参见冯亚东《罪与刑的探索之道》,中国检察出版社2005年版,第290页。

⑦ 参见陈兴良刑法阶层理论三阶层与四要件的对比性考察载《清华法学2017年第5期。

⑧ 参见许可《人工智能的算法黑箱与数据正义》,载《社会科学报》2018 年3月29日第6版。

⑨ 参见林东茂《客观归责理论》,载《北方法学》2009年第5期。

 

关于我们 - 广告刊例 - 联系方式 - 诚聘英才 - 法律声明 - 征稿启事

Copyright © 2004-2010 fazhiyushehui.net Corporation, All Rights 法制与社会版权所有

增值电信业务经营许可证:京ICP证090059号 【北京市公安局备案号:1101083669】技术支持:驱动力·西格网络
客服热线电话: 400-650-9605  文明办网文明上网举报电话: 010-62578185  举报邮箱 :tousu@legist.com