AI規制は時期尚早か?「EUによる規制法案から考えるAI倫理」

川嶋 雄作
コンサルティングフェロー

システム不具合が招いた内閣総辞職

2021年1月、オランダのルッテ内閣が、不適切な詐欺検知システムにより10,000を超える家庭から育児手当を不当に返還させたスキャンダルの責任を取るため、コロナ対応の渦中ながら総辞職した(注1)。このスキャンダルが大きな議論を巻き起こした背景には、書類のミスを一切許さない遊びのないシステムを開発した技術的な課題や特定の人種や多国籍保有者を差別的にターゲットにするといった運用的な課題がある(注2)。今回の事例を通じて、すでに行政において機械による意思決定が重要な判断に活用されていること、また、そのシステムを適切にコントロールできなかった結果として多くの人を困窮に貶めてしまうケースがあるということが明らかになった。デジタル庁の発足を2021年9月に控え、日本での行政活動もデジタル化が進む見込みである。本稿では、AI倫理を中心としたデジタル技術を取り巻く最新の動向を俯瞰しつつ、EUが新たに発表したAI規制法案を紹介することを通じて、政策的示唆を得ることを目的に議論したい。

筆者は2011年に経済産業省に入省以来、ビッグデータ活用、オープンデータ、ロボット実証事業などの業務を通じてデジタル・AIに関連した政策の企画・立案を行ってきた(なお、ここに示す内容は個人の見解であり、所属する組織の見解ではない)。また2017年から米国に留学し、統計やAI開発手法等を学んできた。これまでのキャリアを振り返っても、AIの責任ある使用方法、偏見の排除、説明可能性などに関する「AIのあるべき論(AI倫理)(注3)」が近年ほど活発に議論されるようになったことはかつてなかった。国際的にもこの潮流は顕著であり、2019年にはEUの欧州委員会(EC)のEthics Guidelines for Trustworthy AI(4月)(注4)、OECDのAI原則(5月)(注5)、G20のAI原則(6月)(注6)、など、立て続けにAI倫理に関する国際的な合意がなされた。これはAIがこれまでの実証実験的なフェーズを乗り越え、生活のさまざまな領域で本格的に活用されつつあることの証左であろう。

AIとは

そもそもAIとはArtificial Intelligenceの略称で、日本語では人工知能と訳される。これは機械に人間の知性が行っている活動を行わせようとする学問領域であり、その中には人間の知性そのものを再現しようとする「強いAI」と人間の知性の一部を機械に代替させる「弱いAI」という大きな2つの方向性がある(注7)。弱いAIには、自然言語処理・画像認識・ロボットなどの機能が包括されており、統計に基づく機械学習といった手法がその機能を実現する基盤となっている(注8)。どの機能であれ、基本となる構造は、ある入力データに対してモデルがその入力を解析し判断結果を出力として返すことである。また、ビッグデータ、クラウドコンピューティング、センサーなどはAIの開発や運用を後押しするインフラのように機能している。AIは多種多様な形で多くの産業領域に浸透しつつあり、著名なAI活動家であるAndrew Ng氏は、AIがまるで100年前に電気が引き起こしたように、全ての産業を変革しつつある、と紹介している(注9)。日本経済の発展においてもAIは引き続き重要なテーマになることは間違いがない。

AIが抱える課題

現在AIは多様な形ですでに日常生活に活用されていて、今後もさらに活用が広がる見込みである。他方、AIには特有の課題があり、AI活用が進むにつれそれらの課題は無視できない状態になりつつある。以下に紹介するものはAIに関連するさまざまな課題のごく一部であるが、こういった課題に適切に対応し、より良いAIの発展を促進しようという考えから、近年AI倫理に関する議論が活発化していると考えられる。

  • 代表的な課題の1点目として、AIは多くの場合において確率的に判断を行うため、100%正確にはなりえず、その誤判断により引き起こされた結果が多大な影響をもたらす可能性があることが挙げられる。したがって判断を間違えることにより発生した損害を誰がどのように補償するべきなのか、という議論が必要となる。例えば、国土交通省は2018年に自動運転が引き起こした損害への対応に関する考え方を発表している(注10)。
  • 2点目は、AIは一定のデータをもとに学習を行うことから学習データの内容が不完全だったり差別的なものだった場合、差別的な判断を繰り返し導きかねないことが挙げられる。例えばこれまでの人事採用において、ある特徴(性別・出身大学等)を持つ被験者を優先的に採用する傾向があったとして、その採用結果を学習用データにAIモデルを構築したところ、特定の特徴を持つ被験者を優先的に採用し続けるモデルとなる可能性がある(注11)。
  • 3点目として、AIが判断に至った理由や背景を説明することが時として不可能になり、結果としてAIの判断の信憑性や発展性に疑問が生まれることが挙げられる。例えば企業がAIを活用してビジネスを行った場合に、その判断に伴う結果について、「AIが判断した」以上の説明ができないとなると、適切な改善方法を検討することもままならない。

EUによるAI規制

AI倫理はさまざまな機関がそれぞれの状況に合わせた適切なAIの在り方を検討する形で進められてきており、法的な拘束力を伴った国際的な規制は筆者の知る限り存在しなかった。そんな中、2021年4月21日、ECがAIの利用に関する包括的な規制法案として、Proposal for a Regulation on a European approach for Artificial Intelligenceを発表した(注12)。これは、EUがこれまで行ってきたAIの適切な活用のための議論(注13)の中で、大きな方向性として打ち出されていた、「Excellence」と「Trust」の特に「Trust」を担保するための規制である。実際に発効するには欧州議会などでの議論を経る必要があり、数年かかる見通しである。AIの中から、具体的に規制の対象となるものを列記して、そのリスクの大きさ・重要度に応じて大きく4段階の措置で対応する形式になっている。有償・無償に関わらず欧州域内でAIサービスを提供する日本企業も当該規制措置の対象になる(2条・3条)(注14)。

リスク分類 規制の対象となるAIの例 備考
第一分類

受容できないリスク
(5条)
  1. サブリミナルな手法により人の行動を操作し、身体的・心理的損害を与えるAI
  2. 子どもや身体的・精神的な課題を抱える方の脆弱性を利用して人の行動を操作し、身体的・心理的損害を与えるAI
  3. 公的機関等による、行動や人格的特性をもとにその人をスコアリングするためのAI
禁止(5条)
  1. 公共空間において法執行のために遠隔で行われるリアルタイム生体認証のためのAI
原則禁止(特定の条件を満たせば使用可能)(5条)
第二分類

ハイリスク
(6条)
  1. (医療機器など)すでに第三者による適合性審査を通過する必要があるAI商品やその商品の安全のための構成要素としてのAI
  2. リアルタイムもしくは事後に行われる遠隔生体認証のためのAI
  3. 重要インフラストラクチャーの維持・運営における安全のための構成要素としてのAI
  4. 教育や職業訓練を受けるための機関を決定したり希望者を評価して合否判定を行うAI
  5. 仕事への採用、業務分担、業務評価を行うAI
  6. 重要なサービスへのアクセス(行政サービス、融資、緊急対応措置)を判断するAI
  7. 法の執行(犯罪・再犯リスク評価、うそ発見器などの感情状態検出、等)にかかるAI
  8. 移民、亡命、国境管理、などに使用されるAI
  9. 法律等を調査・解釈をすること等を通じて法務当局を支援するAI
使用にあたっては定められた条件を満たす必要あり(8-15条)
第三分類

限定的リスク
(52条)
  1. 人と対話を行うAI
  2. 感情を識別したり生体情報をもとに人を分類するAI
AIを使用している旨を通知する義務あり(52条)
  1. Deep fake技術など、コンテンツ(画像・音声・動画)を生成したり操作するAI
コンテンツがAIにより生成もしくは操作されている旨を通知する義務あり(52条)
第四分類

最小限のリスク
(69条)
  1. 上記分類に入らないその他のAI(例えばゲームに使用されるAIや迷惑メールを分類するAIなど)
使用にあたっての規制なし。ただし自主的な行動規範(Codes of Conduct)の策定は推奨される(69条)
※なお、軍事目的のためだけに使用されるAIは当該規制の対象外となっている。(2条)

禁止の対象となるAIは、サブリミナルな手法により人の行動を操作して損害を与えるAI等、大きなリスクがあるものであり、規制が必要と考えられる。具体的な例示にはないが、SNSなどの情報から特定の政党を支持する人を投票に促すようなAI(マイクロ・ターゲティング)なども対象となりえるのではないかと考える(注15注16)。また、条件付き規制の対象となるハイリスクAIについては、気になる項目が散見される。例えば10条には、ハイリスクAIはエラーを含まないデータに基づいて開発されなければならないとあるが、場合によってはデータのエラーを完全に除去することは非常に困難であったり不可能なケースも想定される。また、AI開発のためのデータは、当該AIの対象を代表する(Representative)データを用いる、とあるがEU域外に拠点を持つ企業等にとってはデータ取得に困難が伴うことも考えられる。加えて、ハイリスクAIの提供者は、欧州各国の監督官庁(Competent Authority)の要請により、AIが定められた条件に適合していることを証明するための情報(AIモデルの詳細など機密情報も含まれうる)を提出する義務が発生するため(16条)、提出情報の秘匿性の確保、万が一にも情報が流出した場合の賠償スキーム、要請手続の公平性などといった論点について、今後の動向を注視する必要がある。

日本における政策の方向性

EUのこういった動きに対して、日本では「(規制は)時期尚早」や「法的拘束力のある横断的な規制は不要」という見方があるが(注17)、当該規制案を参考にしつつAI倫理の議論を深化させることは、AIがかつての電気のように社会を変革しつつある状況を鑑みると非常に重要である(注18)。なお、日本は2016年のG7情報通信大臣会合においてAI開発原則のたたき台を紹介するなど、関連する議論を長らく推進しており、現在も総務省「AIネットワーク社会推進会議」や経済産業省「AI社会実装アーキテクチャー検討会」など、様々な会議体で検討を進めている(注19)。

今回のEUによる規制案を見るにつけ、サブリミナルな手法により人の行動を操作して損害を与えるAI等、EU規制案で禁止とされた受容できないリスクを持つAIについては、深堀りした検討を早急に行うべきではないかと筆者は考える。これらのAIは、総務省が発表している「AI利活用ガイドライン」(注20)の、安全の原則や尊厳・自律の原則に反するものでありその影響も大きいため、他のAI倫理に関連するテーマと同等に扱うのではなく、上述した総務省や経済産業省の会議体などで最重要テーマとして取り扱うことが、政府が標ぼうするリスクベース・アプローチにも適合する(注21)。AIが内包する複雑性(様々なジレンマ)を考えると、特にリスクが大きいAIには速やかに対応し、緊急性が比較的低い他のAIに関する議論はより時間をかけて行うことが適切ではないか(注22)。

加えて、EUによるAI規制案は、日本のAI規制の是非についての議論を進めるための触媒となりえる。例えば、EUがAI規制法案を念頭に置いて行ったパブリックコメントで提出された意見(1,215件)のうち、AI規制は「既存の法体系で十分」と考えている割合がわずか3%だったことや、「新たな規制法が必要」という意見が42%だったことは、日本国内での議論の参考になりえる(注23)。また、今回のEUによる世界初の国際的なAI規制案の発表により、今後数年はAI規制の動向に多くの注目が集まることを鑑みると、将来の規制の方向性について、日本としても検討スケジュールを提示する等、これまで以上に明確なスタンスをとることが、産業の予見性を高め、企業の意思決定・経営判断の参考となる情報を提供する意味で重要だと考えられる(注24)。

脚注
  1. ^ https://www.reuters.com/article/us-netherlands-politics-resignation-idUSKBN29K1IO
  2. ^ https://nltimes.nl/2020/12/17/parents-faced-unprecedented-injustice-years-childcare-subsidy-scandal. https://medium.com/berkman-klein-center/why-the-resignation-of-the-dutch-government-is-a-good-reminder-of-how-important-it-is-to-monitor-2c599c1e0100
  3. ^ 厳密にはAI倫理は「あるべきAI像」の一側面でありAI倫理を持ってあるべきAIのすべての面をカバーできているとは考えないが、本稿では便宜上AI倫理という言葉を包括的な「あるべきAI像」として使用する。
  4. ^ Ethics guidelines for trustworthy AI: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
  5. ^ OECD Principles on AI: https://www.oecd.org/going-digital/ai/principles/
  6. ^ G20 AI Principles: https://www.mofa.go.jp/files/000486596.pdf
  7. ^ 総務省による「平成28年版 情報通信白書」にあるように、人工知能(AI)の定義は研究者によって異なる。その背景には知性や知能自体の定義が定まっていないことにあると考えられる。
    https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/h28/pdf/n4200000.pdf
  8. ^ このような分類以外にも、実用化においてAIが果たす機能領域を「識別」「予測」「実行」の3種類に分類する方法などがあるが、便宜上本稿では想像しやすい機能にフォーカスした説明を採用した。
    https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/h28/pdf/n4200000.pdf
  9. ^ Andrew Ng “AI Transformation Playbook” https://landing.ai/wp-content/uploads/2020/05/LandingAI_Transformation_Playbook_11-19.pdf
  10. ^ 「自動運転における損害賠償責任に関する研究会」:https://www.mlit.go.jp/report/press/jidosha02_hh_000336.html
  11. ^ AIによる偏見・差別については、Cathy O'Neilの「Weapons of Math Destruction」やHarvard Business Review記事https://hbr.org/2019/10/what-do-we-do-about-the-biases-in-aiを参照されたい。
  12. ^ https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence
  13. ^ 議論の経緯は総務省資料を参照されたい。https://www.soumu.go.jp/main_content/000716541.pdf
  14. ^ 当該資料はあくまで日本経済に関する政策的課題を提起するために作成されており、法的観点含め正確性は担保していない。法的解釈等については法律事務所などに確認を。
  15. ^ より具体的な人間の尊厳・自律とAIの関係性については、Ted Talkの「We are building a dystopia just to make people click on ads (2017)」やNetflixの「The Great Hack (2019)」や「The Social Dilemma (2020)」に詳しい。またマイクロ・ターゲティング手法については、以下サイトなどに詳しい。https://www.gizmodo.jp/2017/02/trump-win-with-big-data.html
  16. ^ なお、マイクロ・ターゲティングを5条で規定する禁止対象に含むかについて、EU規制法案の公開直後に行われたセミナーの場で筆者からEC担当者に質問をしたが、明確な回答は得られなかった。今後の動向をフォローしたい。
  17. ^ 日本経済新聞(4月21日):https://www.nikkei.com/article/DGXZQOGR1900E0Z10C21A4000000/?unlock=1や経産省「AI社会実装アーキテクチャー検討会」中間報告書参照
  18. ^ なお、人間中心の社会(Society 5.0)を実現するための適正な規制のあり方などについては、「GOVERNANCE INNOVATION Society5.0の実現に向けた法とアーキテクチャのリ・デザイン」に詳しいので関心を持つ方は参照されたい。https://www.meti.go.jp/press/2020/07/20200713001/20200713001-1.pdf
  19. ^ 「AI戦略2019」フォローアップ版にも「AI社会原則の実装に向けて、国内外の動向も見据えつつ、我が国の産業競争力の強化と、AIの社会受容の向上に資する規制、標準化、ガイドライン、監査等、我が国のAIガバナンスの在り方を検討(2020年度)【CSTI・総・経】」という記載がある。
  20. ^ https://www.soumu.go.jp/menu_news/s-news/01iicp01_02000081.html
  21. ^ なお、経産省「第2回 AI 社会実装アーキテクチャー検討会」において、AIが基本的人権に関して持ちうるリスクについて議論があり、人権リスクの位置づけについての議論が日本全体で不足しているのではないかという指摘も出ている。現在米国で活動する筆者が日本政府の公表している各種公表資料を研究した際にも同様の印象を持った。
  22. ^ 他にも偏見の除去と精度(正確性)やセキュリティの確保と記録保存など、様々なジレンマ(トレードオフ)が存在する。詳しくは総務省資料「AI利活用原則の各論点に対する詳説」に詳しい。https://www.soumu.go.jp/main_content/000637098.pdf
  23. ^ https://www.soumu.go.jp/main_content/000716541.pdf
  24. ^ こちらも参照されたい。https://www.jst.go.jp/ristex/stipolicy/policy-door/article-04.html

2021年4月26日掲載

この著者の記事