首页 AI资讯内容详情

对涉生成式人工智能产品的刑事治理应贯彻区分原则明星在资本面前有多卑微?杨颖被摸胸抱起,林更新被怒骂不敢回嘴

2023-05-12 224 daifeng

凭借高度“拟人化”“智能化”的表现,生成式人工智能模型ChatGPT一经面世,便引发法律及各行业诸多关注。与此同时,我国部分科技公司也相继确认正在研发ChatGPT类生成式人工智能技术。该类人工智能技术的突飞猛进,将会给各行各业带来深刻变革。但每一枚硬币都有正反两面,生成式人工智能技术也存在安全性和可靠性等问题。例如,语料体系的参数量来源问题;再如,生成内容虚假、违法的数据问题。

面对新型人工智能产品,如果过于严苛对待,可能导致技术的萎缩,不利于我国科技产品在国际上的竞争;相反,如果不加监管,则可能造成生成式人工智能产品沦为违法犯罪行为的重灾区,危害民众的人身、财产安全,甚至可能危及国家安全。

笔者认为,对涉生成式人工智能产品的刑事治理应当贯彻区分原则。具体而言,以产品上线前后作为区分节点,划分研发者不同责任。在研发阶段,只要研发的生成式人工智能产品符合国家标准、行业标准,并不存在当前科学技术水平能够发现的缺陷的,一般就不应追究研发者的刑事责任;而在产品投入流通后,则赋予研发者在发现漏洞时,及时更新程序、升级系统的安全管理义务。在有能力履行却不履行上述义务的情况下,可以追究相关责任主体的刑事责任。

首先,区分原则有利于实现鼓励科技创新和防范产品风险之间的平衡。为了鼓励科技创新,避免研发人员产生心理负担,在产品的研发阶段,我国法律明确规定了研发者责任的免除条款。例如,产品质量法第四十一条第二款规定了生产者的三种免责事由,亦即,未将产品投入流通的;产品投入流通时,引起损害的缺陷尚不存在的;将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。根据该条第二款第(三)项,只要在生成式人工智能产品投入流通时,科学技术水平尚不能发现缺陷的存在的,研发者就不用承担赔偿责任。根据法秩序统一性原理,也不能按照刑法第一百四十六条生产、销售不符合安全标准的产品罪和第一百四十条生产、销售伪劣产品罪追究其刑事责任。然而,若只减少研发者责任,不赋予义务,则可能会使生成式人工智能产品的使用处于混乱、无序状态,间接造成利用生成式人工智能产品实施违法犯罪行为泛滥。鉴于产品投入流通后,研发者仍然可以通过程序更新、系统升级等手段解决漏洞问题,并且,由于生成式人工智能产品属于高端智能科学技术,只有研发者掌握其程序算法,因此,在产品投入流通之后赋予研发者更多义务,实属必要。

其次,区分原则有利于法益保护。生成式人工智能产品的应用风险并不低,忽视研发者对产品的安全管理义务,可能造成法益侵害或危险。如果不加以限制,让人工智能技术超出人类的可控范围,一旦产品被利用作为犯罪工具,产生的危害可能数倍于传统犯罪,甚至可能给人类社会带来毁灭性打击。生成式人工智能产品的研发者掌握着技术、数据的优势,对其产品和服务保持着事实上的掌控关系,而国家监管部门缺乏足够的技术能力和管理资源,只能对产品进行间接管理。为了能够有效保护法益,维护社会秩序,应当对产品研发者赋予安全管理义务,而且有必要将此义务上升为刑法义务。

再次,一般产品与智能产品之间的差异决定了区分原则的必要性。生成式人工智能产品的价值包含产品的使用及后续服务。根据产品质量法第二条第二款:“本法所称产品是指经过加工、制作,用于销售的产品。”在传统观念里,产品的生产发生在销售之前。换句话说,研发行为处于销售之前。既然产品投入流通时可以“发展风险”进行免责,那么,在此之后为何能够追究研发者的刑事责任?这主要是因为智能产品的特殊性问题。与一般产品相比,生成式人工智能产品更为复杂与特殊,当下并非完全安全、可靠。在不限制其发展的同时,只有明确其流通后研发者的安全管理义务并予以刑事规制,才能有效防范风险。

最后,区分原则具有贯彻可行性,规避研发者义务不符合公众预期。如果生成式人工智能产品在投入流通后发现漏洞,且该漏洞不能被现有技术所解决,则因不具备期待可能性,不能追究研发者的刑事责任。相反,如果流通之后发现的漏洞,可以通过强制程序更新、系统升级等手段填补漏洞,而研发者在明知的情况下,在合理期限内拒不作为,致使产品被使用者用于违法犯罪,造成严重后果,此时,若仍然不追究研发者的刑事责任,将与刑法的目的相违背,背离民众对法规范的合理期待,不利于公平正义理念的实现。

(作者单位:华东政法大学刑事法学院)(◇ 刘 杰)

相关标签: # AI # AIGC # 人工智能

  • 评论列表 (0条)

 暂无评论,快来抢沙发吧~

发布评论