筆者は2011年に経済産業省に入省以来、ビッグデータ活用、オープンデータ、ロボット実証事業などの業務を通じてデジタル・AIに関連した政策の企画・立案を行ってきた(なお、ここに示す内容は個人の見解であり、所属する組織の見解ではない)。また2017年から米国に留学し、統計やAI開発手法等を学んできた。これまでのキャリアを振り返っても、AIの責任ある使用方法、偏見の排除、説明可能性などに関する「AIのあるべき論(AI倫理)(注3)」が近年ほど活発に議論されるようになったことはかつてなかった。国際的にもこの潮流は顕著であり、2019年にはEUの欧州委員会(EC)のEthics Guidelines for Trustworthy AI(4月)(注4)、OECDのAI原則(5月)(注5)、G20のAI原則(6月)(注6)、など、立て続けにAI倫理に関する国際的な合意がなされた。これはAIがこれまでの実証実験的なフェーズを乗り越え、生活のさまざまな領域で本格的に活用されつつあることの証左であろう。
AI倫理はさまざまな機関がそれぞれの状況に合わせた適切なAIの在り方を検討する形で進められてきており、法的な拘束力を伴った国際的な規制は筆者の知る限り存在しなかった。そんな中、2021年4月21日、ECがAIの利用に関する包括的な規制法案として、Proposal for a Regulation on a European approach for Artificial Intelligenceを発表した(注12)。これは、EUがこれまで行ってきたAIの適切な活用のための議論(注13)の中で、大きな方向性として打ち出されていた、「Excellence」と「Trust」の特に「Trust」を担保するための規制である。実際に発効するには欧州議会などでの議論を経る必要があり、数年かかる見通しである。AIの中から、具体的に規制の対象となるものを列記して、そのリスクの大きさ・重要度に応じて大きく4段階の措置で対応する形式になっている。有償・無償に関わらず欧州域内でAIサービスを提供する日本企業も当該規制措置の対象になる(2条・3条)(注14)。
^ より具体的な人間の尊厳・自律とAIの関係性については、Ted Talkの「We are building a dystopia just to make people click on ads (2017)」やNetflixの「The Great Hack (2019)」や「The Social Dilemma (2020)」に詳しい。またマイクロ・ターゲティング手法については、以下サイトなどに詳しい。https://www.gizmodo.jp/2017/02/trump-win-with-big-data.html
^ なお、経産省「第2回 AI 社会実装アーキテクチャー検討会」において、AIが基本的人権に関して持ちうるリスクについて議論があり、人権リスクの位置づけについての議論が日本全体で不足しているのではないかという指摘も出ている。現在米国で活動する筆者が日本政府の公表している各種公表資料を研究した際にも同様の印象を持った。