因果関係も見透かす機械学習:21世紀のウェブ産業から22世紀の公共政策へ

開催日 2019年12月10日
スピーカー 成田 悠輔(RIETI客員研究員 / イェール大学助教授 / スタンフォード大学客員助教授 / ヂンチ株式会社共同代表)
コメンテータ・モデレータ 市川 類(国立研究開発法人産業技術総合研究所臨海副都心センター所長兼情報・人間工学領域人工知能研究戦略部長兼人工知能研究センター副研究センター長)
開催案内

人々の日常生活からデータを生成し、それを機械が読み取り、自動的に介入実行してくれる。そんなデータと実行の循環が実現する日が、近づいてきている。これまで人工知能(AI)のための機械学習、深層学習では、何が何を引き起こしたのかという因果関係はわからないと言われてきた。しかし、ウェブビジネスの世界では、すでに因果関係もわかる機械学習が生まれつつある。一方、政府や地方自治体の領域は、この流れに後れを取っている。機械学習を公共政策に適用するためにはどうすればいいのだろうか。今回のBBLでは、「制度設計」や「因果機械学習」を研究している成田悠輔氏をスピーカーに招き、ウェブ産業における機械学習の実態、公共政策の機械化に立ちふさがる壁について解説いただいた。

議事録

データに基づく政策の現在

成田悠輔写真データに基づく公共政策について、まずは現状を把握しようと、あらゆる省庁のウェブサイトを見てみました。しかし、どのサイトも膨大な資料が掲載されていて、とてもじゃないけど読み切れませんでした。そこで、気分転換に映画を見ました。「イーグル・アイ」という2008年公開のスティーブン・スピルバーグ監督の映画です。アメリカ政府が国内監視のために開発した高性能AI、イーグル・アイ(鷹の目)が、監視データの中に大統領の違憲行為を目撃し、大統領暗殺を企てるというストーリーです。ここで描かれている世界は、データを使った政策の行きつく未来そのものです。人々の日常生活からデータを生成し、それを政策機械が読み取り、自動的に政策を実行してくれる、というデータと政策実行の循環が起きています。

しかし、現実にはこの循環が機能していません。いわば動脈硬化の状態です。得られるデータが限られており、確定申告や国税調査のような重要なデータでさえ、限られた変数についてのデータしか蓄積できていません。しかも、それがどれだけデジタル化されているかは甚だ怪しく、アルゴリズムも存在せず、政策実行の自動化には程遠いのが現状です。一方、ウェブ産業では、このデータと政策実行の循環が芽生えつつあります。たとえば、B to C(Business to Consumer)向けのウェブサービスでは、ユーザーのサービス利用履歴からデータを生成し、アルゴリズムを作って、どんなサービスを提供するかを完全に自動で決めています。

私はもともと、経済学の分野で研究や開発をしてきました。現在は、主にイェール大学で研究や教育に携わっていますが、一年の半分は日本で事業や政策に関わる仕事をしています。たとえば、大企業の持つビッグデータと、自身の開発した技術を組み合わせ、ビジネスを改善するプロジェクトを行っています。研究・開発と事業・政策という、全く異質のものを結ぶプラットフォームとして、小さな会社を運営しています。本日は、こうした経験をもとに、現在ウェブ産業に起きていることと、これを公共政策に広げていくためにはどんな壁があるのかということをお話しいたします。

AIバブルと機械学習

現在、私たちは「AIバブル」の真っただ中にいます。政官財学すべて、AIをやっている雰囲気を出すために必死です。日本政府の発行する「AI戦略パッケージ」は、見るからにAI感がありません。民間の製品「最強ギャグロボット『AIハチエモン』」の紹介動画を見ると、ますます日本の将来が心配になります。そもそもAIとは何でしょうか。現在AIと呼ばれているものは、その一部である「機械学習」とほぼ同義です。人工知能(AI)のそもそもの目的は、人間のように知能的な振る舞いをする存在をゼロから作り出すことです。しかし、現実的にはゼロから作り出すことは難しいため、人間のような知能を模倣する機械を作ろうと試みています。

機械学習の枠組みは、どんな時(X)に何が正解(Y)かを導くために、機械が「世界の仕組み・決め事」を学習し、ビジネスやサービスを作るというものです。最近では、司法や警察への応用が話題になっています。人種や見た目、犯罪歴など、容疑者や被告の属性(X)から、犯罪や再犯の可能性といった正解(Y)を導き出すため、過去の犯罪者のデータを機械が学習します。アメリカでは、すでに捜査や裁判に活用されていますが、差別的だという批判も高まっています。

こうした仕組みには、Xの正解(Y)が何かという複雑なアルゴリズム(機械学習)が必要になります。深層学習は、この機械学習の一つです。他にもさまざまなアルゴリズムが提唱されています。その一つに、疑似相関という機械学習があります。因果関係のない、偽物の相関のことです。たとえば、プールでおぼれる人数と、ニコラス・ケイジの映画出演数は非常に似た形で推移しています。しかし、この二つの事象には、因果関係が存在しません。疑似相関は、多くの場合は無視できますが、機械学習を解くためには、一番単純で有益な相関です。

機械学習における因果関係

機械学習について、広く受け入れられている誤解があります。それは、「AIに因果関係はわからない」というものです。しかし、実は因果関係もわかる機械学習の方法はすでに存在します。さらに、それは実際に世の中で使われ始めています。

そもそも因果関係とは何でしょうか。古くから議論されている例は、教育や学歴に関するものです。社会では、今でも学歴が重視されています。確かに、学歴とさまざまな幸福の指標には強い相関関係があります。学歴が高い人の方が、年収が高く、失業率が低く、幸せな家庭を築いている可能性も高いといいます。しかし、相関関係があるからといって、因果関係があるとは限りません。学歴を高めれば、幸福度が高まるとは言えないのです。

アメリカのシカゴ市にある10校のエリート公立高校の「効き目」を測った研究を紹介します。エリート公立高校に入ることが、ごく普通の公立高校に入ることに比べて、本当に効き目があるのかを、データを使って調べてみました。対象のエリート公立高校は、入試の点数で合否を決定しています。ここでは、「一点を笑うものは一点に泣く」という某予備校のキャッチコピーを、アイデアとして取り入れました。受験者を入試の点数に従って並べて、合格最低点を境に、入試当日たまたま1~2点高かったために合格した群と、たまたま1~2点低かったために不合格になった群に分けます。この二つの群に属する人たちは、ほとんど同じ属性を持つ人たちです。この二つの群に属する人たちの将来に差が生まれているかを測れば、エリート公立高校の効き目が測れるという発想です。

結果、普通の高校と比べてエリート公立高校が学生の将来の成績に与える効果は、ほぼゼロかマイナスだということがわかりました。確かに、エリート公立高校に通う生徒の成績は優秀です。しかし、それはそもそも彼らが高い点数を取れる優秀な人たちであり、だからこそエリート公立高校に入学できただけで、エリート公立高校の教育のおかげで良い成績が取れているわけではありません。シカゴだけではなく、ニューヨークやボストンの研究でも、同じように、エリート公立高校の効き目はゼロかマイナスだとわかりしました。さらに、イェール、ハーバード、プリンストンなどの、エリート私立大学の効き目もほとんどゼロだということがわかりました。

ウェブ産業における機械学習

一方、日本では同様の研究が行われていないため、国公立大学に効き目があるかどうかはわかりません。しかし日本でも、入試データと確定申告データを分析すれば、若者の未来に与える因果関係としての影響を測ることができます。もしかしたら、国公立大学に通うことには効果がないという結論が出るかもしれません。こうした分析は、「自然実験」といわれます。何かの因果関係を測るためには、実験をするのが理想です。しかし、人間に関する重要な問題のほとんどは実験が難しいため、世の中から自然に生まれた状況から、実験と同じ状況に当たるものを見つけて分析をします。

自然実験を使った分析は、単発で行うだけではなく、大規模に機械化することが可能です。自然実験を使えば、どのような政策、ビジネスに効き目があるのかという、信頼できる情報が手に入ります。効きそうなものを見つけて実行することで、新しいデータが生成されます。さらに、そこに含まれる新たな自然実験を使って、効きそうなものを見つけ、再度実行する、というサイクルを繰り返すのです。このように、自然実験で正解(X)を発見する機械が、世の中に広く用いられるようになってきています。バンディット・アルゴリズムや、強化学習アルゴリズムなどが、それに当たります。

ウェブ産業においては、こうしたアルゴリズムがさまざまな形で使われています。ファッションEC(電子商取引)の設計を例に挙げましょう。日本最大のファッションECサイトである、ZOZOTOWNのトップページは、月間約800万人がアクセスし、年間に約1100億円の売上を生み出しています。さまざまな商品とその値段が表示されていますが、ここには、閲覧者ごとにどの商品、どの価格帯を見せるべきかを決定するアルゴリズムが設計されています。これは、どの商品に因果関係としての効き目があるのかを知るための、より複雑な機械学習です。この問題を解くために、自然実験を使って効き目のありそうな商品を選び、得られた結果をデータ化するというサイクルを繰り返すのです。私は、ZOZOTOWNと協働でこのアルゴリズムの開発と改善を行っています。

このように、自然実験に基づいて最も効く方法を自動発見しそれを自動実行していく機械は、すでに作られ社会の一部として使われています。ウェブ産業のほかにも、ゲームAIの領域で活用されています。この技術が、司法、警察、教育、医療など、より幅広い公共領域に拡大していくことが期待されます。例えば、日常生活において、デジタルデバイス上やそれ以外のオフラインの物理空間で、どんなことをすれば健康に良いか、どんな医療を受けるべきかなど、24時間体制でリコメンデーションが提示され、日々の生活のあらゆる動線に、無意識に健康に導くような仕掛けが埋め込まれるというような発想です。

政策の機械化の壁

ただし現状では、ほとんどすべての国で、政策の機械化は起きていません。そこにはさまざまな壁があります。一つは、規模と速度の壁です。ウェブビジネスと公共政策を、データ生成と介入実行という二つの観点から比べてみると、大きな違いがあることがわかります。ウェブビジネスでは、非常に大きく、速いデータ生成が起きています。世界中の数十億人のユーザーをリアルタイムで観測しています。一方、政府や地方自治体では、データ生成がはるかに小さく、遅いのが現状です。対象者はせいぜい数億人で、観測も月単位でしか行われません。さらに、介入を行う際も、秒単位でサービス内容を変えられるウェブサービスと違い、公共政策領域は、たとえば社会保障の給付額を変えることも、せいぜい月単位でしかできません。規模と速度は、デジタル化の大きな壁といえるでしょう。

さらに大きな壁が、やる気と興味の壁です。ウェブサービスでは、たとえば年間1000億円の売上を生み出すECサイトであれば、1%を改善することで10億円を生み出せます。成果がすぐに換金でき、関係者がすぐに幸せになれるような、わかりやすいKPI(成果指標)が存在し、それを最適化することが容易です。一方で、公共政策領域では何が成果指標かという合意を得ること自体が難しく、そもそも特定の成果指標より、誰が何をどう言ったか、通したかという雰囲気づくりが重要になります。機械化を適用するインセンティブを持つ関係者はほとんど現れず、やる気も興味もウェブサービスほど高まりません。

技術的には、公共政策を機械化することは可能です。しかし、規模と速度の壁、そしてやる気と興味の壁がそれを邪魔しています。これを壊すためには、とてつもない「巨人」が現れるしかありません。何が巨人になり得るのか、皆様のアイデアをご教示いただければと思っています。

コメンテータ

現在の人工知能(AI)は、機械学習や深層学習と同義ですが、これをどう位置付けるかという議論があります。AIはある意味、従来のソフトフェア技術の進化形です。従来のソフトウェアは、人間が必要な機能をプログラミングし、インプット・アウトプットの仕組みを作っていました。しかし、コンピュータの計算能力が高まり、データを与えるだけで、機械が自動的に学習できるようになりました。これが機械学習、深層学習です。ただし、いずれも、人間が知識を与えていることには変わりありません。重要なのは、何を教えるのかという点で、倫理問題にまで発展しています。

また、統計的因果関係という議論もありました。たとえば、年収と摂取カロリーには逆相関がありますが、実際には年齢といった他の因子が関係しています。統計学的には、要因Xを変化させたときに、他の要因を変化させずに、要因Yも変化させられる場合に、XとYの因果関係を推論することが可能です。ただし、他の因子も含む多量のデータを探索、分析することが必要です。これに機械学習が加われば、さらに色々なことが明らかになるかもしれません。

成田先生からは「ウェブビジネスから公共政策へ」という話がありましたが、私たちは「ウェブビジネスから実世界へ」という言い方をしています。公共政策というよりは、工場や自動運転、医療分野におけるAIとして、知識との連携を重視し、「人間と強調できるAI」「実世界で信頼できるAI」「容易に構築できるAI」に重点化し、研究を進めています。

質疑応答

Q:

ZOZOTOWNで使っている機械学習について、具体的にご説明いただけますか。

A:

アルゴリズムの全貌は説明しきれないのですが、ざっくり言うと、過去にどういうユーザーがサイトを訪れ、どういう商品を提示した結果、どの商品を買ったのか、購入後に再度サービスを使ったのかなど、多くのデータに基づいて、ユーザーの満足度を高めそうな商品を提示しています。そのために、次のようなアルゴリズムを使っています。ユーザーがサイトを訪れた際に、確率εでは、服をランダムに選びます。残りの確立1-εでは、過去のデータから一番良さそうな服を提示します。この流れを延々と繰り返し、提示する服を徐々に変えていきます。重要なのは、確率εで服をランダムに選ぶこと自体が、ある種の実験になっているという点です。このデータを使って、どの服が因果関係として一番効き目があるかを推定し、効き目がより高い服を提示していくことができます。さらに、流行が変われば、それを追っていくこともできるような仕組みになっています。

Q:

エリート公立高校の効き目について、特に優秀な学力を持つ二人が、一方は有名私立高校に入学して優秀な仲間と学生生活を過ごし、もう一方は地方の普通の高校に入学してそれほど優秀ではない仲間と学生生活を過ごした場合に、どのような差が出るかといった実験はあるのでしょうか。

A:

ニューヨークの研究では、点数以外にくじ引きで合否を決めている側面があります。よって、合格最低点の前後にいる人だけではなく、より学力の高い人たちの効果についても測ることができます。その結果、学力が非常に高い層でも、逆に低い層でも、ほとんど効果がないことがわかりました。しかし、日本の明治時代の旧制高等学校の効き目を測ったところ、これについては大きな効果が認められました。旧制高等学校で学んだ人の方が、将来の収入が高くなったり、エリート政治家やエリート官僚になったりする可能性が高いことがわかりました。状況によって、さまざまな結果が出てくるのではないかと思います。

Q:

公共政策における壁について、政策介入の頻度は特にクリティカルな問題だと感じました。多くは年度単位であり、特に役所としての意思決定を介在させていこうとするとなかなか難しいところがあります。こういうことができるのではないか、といったアイデアが何かあれば、教えてください。

A:

今の機械学習やデータ科学に関する技法は、GAFA(Google、Apple、Facebook、Amazon)のような、いわゆるテック企業が先導しているため、ウェブビジネスでの手法に極端に偏っています。これを公共政策に移行し、規模も速度も落ちた世界で適用するためにはどうすればいいか、という技術開発はほとんど行われていません。よって、介入頻度が少ない環境で、過去のデータを長期的に貯めて分析する方法論を作っていくことが重要です。たとえば、医療分野の治験も、リアルタイムに介入実行することはできません。新しい薬や医療製品の効果を測るために、年単位で治験を行い、実験と実装の規模を少しずつ増やしていきます。こうしたテック産業以外での知識を使うことが、この壁を乗り越えるためには重要であると考えています。

Q:

公共政策の効果測定として、どうすればGDPが増えるかなど、色々な構成要素があるものについて、何を指標として設定するべきなのでしょうか。

A:

本日は、与えられた成果指標を高める手法は何か、という話をしてきました。しかし、政策を考えるためには、そもそも成果指標をどう設定するかが大きな問題となります。これまでは教育政策を、テストの点数や将来の収入などで評価してきましたが、これらを高めるために教育があるわけではありません。近年では、非認知能力を測ろうという動きがあります。今後は、データを使って、目的自体を測ることが重要になるかもしれません。

この議事録はRIETI編集部の責任でまとめたものです。