摘要:为了研究科学技术发展和法律法规调整之间的内在关系,顺应社会主义法治建设的新思潮和新趋势。本文将以新时代的人工智能发展为宏观视角和切入点,立足于刑法学角度,论述人工智能时代存在的刑事风险,并列举由人工智能而延伸出来的刑法学学说,然后对这些学说进行辨析,最后从刑法角度去阐述规制和约束人工智能的方法和措施,希望能够给学术界和实务界提供一定的帮助,仅作抛砖引玉之用。
关键词:人工智能;刑事风险;刑法学说;规制手段
在现代化物质基础和上层建筑建设不断结合的大背景下,当下国家在宏观上对技术开发的要求较以往而言有了更加明显的转变和调整,不再以传统的无限度普及为本位,而是强调在充分发展的基础上进行规制,这种变化也给相应建设者的改革提供了新的思路和途径。而人工智能作为新时代技术发展的重要产物,在这种情况下也应当受到更加高度的重视和关注,特别是就其应用而言,除了要挖掘优势之外,更要分析隐患,强调刑法学理论结合的必要性。
一、对人工智能可能带来的刑事风险进行分析
通常意义上所指的人工智能,是在利用计算机和互联网的基础上,延伸出的机器模拟技术,它可以模仿人类的思维、行为,并用更加智能化的方式进行实践活动。同时,人工智能也是集知识、技术、实践和信息收集于一身的应用系统,具有十分明显的精细化特点。尽管人工智能的发展可以在很多方面减轻人为劳动的压力,但也正是因为这一优势,其具体的应用也存在一些刑法上的隐忧[1]。
首先,人工智能是现代化技术的集成体,一旦不法人员对其加以恶意利用,所产生的社会危害会比传统的犯罪更加严重,且持续时间更长,危害范围更广。从传统的犯罪中也可以观察出,犯罪主体主要依靠自然人和单位的力量,因此他们所能造成的影响在本质上还是有限的。其次,人工智能本身也是信息和数据收集的重要基础,其实际应用离不开公民的用户账号和密码,因此,公民的身份信息和其他社会数据也有可能被泄露和盗取。同时,人工智能技术在运用到计算领域和数据分析领域的时候,也存在侵犯公民隐私权的可能性[2]。
二、与人工智能有关的刑法学说
首先,有很多学者认为,以机器人为鲜明代表的人工智能,尽管能够模仿人类的行为,也可以对特定的实践活动作出指示,但其自身在本质上并不拥有和人类一样的自我意识,也没有自主的感知力。所以,人工智能技术和产品,充其量只能作为犯罪分子施行犯罪行为的工具和媒介,在一定情况下,可以延伸犯罪分子的行为。也就是说,人工智能并不能被定义为刑事责任主体,自然也不应当承担刑事责任。
其次,部分学者也认为,可以对人工智能产品的自我意识进行分析,并作出强和弱的分层,据此来探究相应的刑法规制。如果智能机器人只是在程序设定范围内,在自然人可控的范围内实施犯罪行为,那么其自身代表的仍旧是不法分子的意志和思维,是不法分子认识和意志的外在表现工具,因此也自然应当被定义为工具,不承担刑事责任[3]。
相关期刊推荐:《黑龙江科学》(月刊)创刊于2010年,是由黑龙江省科学院高技术研究院主办的报道黑龙江省自然科学领域的基础理论研究和应用研究方面研究成果和新技术成就的综合性学术期刊。报道内容包括能源、材料、化工、机械、动力、电气、电子、信息与控制、计算机、生物工程、土木工程、市政环境、道路、桥梁、交通工程、工程力学及有关交叉性科学相关的学术论文。
最后,一些学者利用对人工智能产品做分类的方法,来判断刑法规制的手段。他们把人工智能分为三种类型:一类是专用,一类是通用,而另一类则是超级。所以,更应当用更加谨慎的态度,去对待人工智能的变化,跟随其技术发展水平进行调整。
三、对学说进行理解和辨析
从上文的叙述中可以看出,第一种学说坚持人工智能和人类存在本质的差异和区别,并且也用理性的思维去否定了人工智能成为刑事责任主体的可能性,但从发展的眼光来看,这一学说具有明显的概括性特点,并没有针对特殊情况作出分析,缺乏对具体问题的探究意识,因此也显露出了保守和固化的弊端,并不能完全适用于未来的法律发展。第二种学说肯定了人工智能拥有自我意识的可能性,对具体的问题作出了未来展望,但整体的思想过于超前,脱离了现实技术发展情况,忽略了社会的实质性问题,并不能为大部分人所接受,也不符合社会的伦理纲常。而第三种学说则理性且辩证地看待了人工智能的现状和未来发展方向,也是笔者所支持的论点。笔者认为,人工智能的刑法规制应当是循序渐进的,既不能否定其发展的多样性,也不能过于拓展其应用,而是要保持冷静的思考,再是否赋予其刑事主体资格这一问题上进行细致地探讨,要充分考虑到可能面临的现实困难和挑战。
其一,如果人工智能真的在未来的开发中拥有了自主意识和自我思考能力,同时也被赋予了刑事主体的资格,那么在具体审理案件的时候,该如何确定人工智能的行为是否还在程序设定的范围之内?
其二,如果人工智能真的是因为拥有了自主意识才被赋予的刑事责任能力,那么就说明,刑法也肯定了其依靠自由意志而行动的合理性。然而,人工智能在本质上,依旧来源于人类的设计,依旧需要依靠人类编写的程序才能活动,它始终无法完全独立于人类而存在。在这种情况下,人工智能的研发者是否也需要一并承担责任?其三,人工智能的“类人性”,以及人工智能以刑事责任主体身份被法律所接纳,是否符合我国的社会风俗和伦理纲常,是否能为广大人民群众理解并接受?其四,我国刑法设立刑事处罚的目的就是为了给犯罪分子以教化和警醒,让犯罪分子懂得自身的错误,并防止再次出现这种案件。但人工智能在大多数情况下,都只是在依照程序来进行实践活动,即便是被定罪量刑,那么刑罚结束以后,它还是会按照既定程序继续运行。
四、对规制人工智能的刑法手段进行列举
首先,要坚持源头治理和防控的理念。当下,人工智能技术的发展速度日益提升,而法律作为针对社会各种关系而产生的规范总和,也应当加强对人工智能的监督和管理,坚持从源头出发。在具体实践的过程中,必须要出台相应的法律,确立法规,确保这些条文能贯穿于人工智能发展的各个阶段。同时,刑法也应当提高对人工智能开发环节的管理力度,一旦发现违法犯罪现象,要依照规则严加惩治。并且,刑法要始终坚持维护社会利益,明确人工智能犯罪可能侵犯的法律。
其次,命令禁区的设定应当得到刑法的支持和鼓励。人工智能技术的发展方兴未艾,尽管已经取得了明显的进步,但其整体的建设并没有形成完整的体系,发展也不够稳定和成熟。对此,刑法就要充分考虑命令禁区的可行性,规制人工智能的活动范围和活动内容,对其可能侵犯的社会法益作出具体的分类,对那些可能危害到国家、社会以及人民安全的人工智能技术予以严厉禁止,让技术的发展能够符合社会主义法治建设的基本需要,让技术更好地为产业和人民所利用。
再次,司法解释必须要跟随人工智能的发展而不断完善。尽管人工智能技术尚未给现有的成文法体系带来严重的冲击,但可以肯定的是,与之有关的犯罪案件,已经具备同传统犯罪截然不同的危害性和特殊性,并且给司法实践带来了一系列的挑战和困难,使得法律难以对犯罪案件进行准确判定。
复次,要坚持完善并优化人工智能技术的准入制度,适当提高这一行业的门槛和标准。无论是何种技术,其自身都会具有两面性的特点,人工智能技术的确可以给社会发展带来革命性的巨变,但它的不合理利用,也同样会成为压死骆驼的最后一根稻草,照样会给社会发展带来严重的影响。
最后,人工智能行业也要提高思想觉悟和法律意识。目前,越来越多的技术类人才都投入到了这一行业中去,所以,在队伍不断壮大的情况下,行业就应当制定相应的自律体系,对行业内的产品和技术研发进行规制,并且标准和要求要比刑法更为严格。同时,法律和行业体系都应当鼓励风险防范技术的发展,以此来让人工智能技术处于可控的状态中。
五、结束语
综上所述,深入探究人工智能的刑法规制路径是十分合理且必要的举动,这不仅体现了法律作为上层建筑对技术开发的反映和指导,同时也推动了我国刑法的渐进发展。本文从源头防控、禁区设置、司法解释、准入制度和行业自律五个方面论证了规制人工智能的法律途径,整体上具有合理性与可行性,符合当下人工智能的发展现状,可以为刑法的发展提供一定的参考。但在具体实践的过程中应当如何抉择,仍旧需要立法者和司法者从多个角度去寻找途径。——论文作者:彭树霖
* 稍后学术顾问联系您