围绕AI的法律规定的基本想法

作者 森田果(东北大学)
发表日期/编号 2017年3月 17-J-011
研究课题 关于人工智能等对经济产生的影响
下载/链接

概要

  伴随深度学习技术的不断进步,人们期待在各种不同情况下使用AI。然而,因使用AI造成的事故由谁来负责、如何承担责任,进而为有效抑制事故的发生应该设计怎样的法律规则等问题尚不明确。为此,人们担心由于法律规则的不确定性带来的法律风险会给部分AI开发企业带来寒蝉效应。目前为消除法律规则的不确定性已经开始了各种尝试,但是,由于AI的利用范围较广,所以需要设计基于统一框架的法律规则。本文从法律经济分析(法律与经济学)的角度出发,对利用AI的法律规则方式提出基本观点。具体来说,以无法开发100%完美的AI为前提,从使用AI发生的事故多为双方责任案例(即AI研发方的原因和AI利用方的原因共同造成)这一认识出发,指出作为处理违法行为的法律规则,应规定为过失责任或共同过失的附带抗辩的严格责任。现行的日本的违法行为法及产品责任法基本上具有这些责任规则的结构,开发和使用AI的企业无需将法律的不确定性看得过重。