今後のAIの社会科学

馬奈木 俊介
ファカルティフェロー

AIによる大幅な生産性向上

数値化の価値は、さまざまな社会の問題において、現状を客観的に把握し、より効果的な戦略を策定するために不可欠です。具体的な要素が人々のウェルビーイングにどのように影響を与えているのか、また事業活動がそれとどのように関連しているのかを定量的に分析することで、根拠に基づいた意思決定が可能になります。これにより、問題の本質を深く理解し、的確な解決策を導き出すことができるため、結果としてより効果的な戦略の立案につながります。そこで最新技術が大きな役割を果たします。

大幅な生産性向上

生成AI技術は、中程度の専門的な文章作成業務において生産性を大幅に向上させることが実験によって示されました。あるオンライン実験では、ChatGPT活用グループは、タスクにかかる平均時間が40%減少し、アウトプットの質が18%向上しました。これは、AIが人間の作業を代替するだけでなく、既存の労働者の生産性を高める「拡張」の役割を果たす可能性を示唆しています。特に、アイデアをラフドラフトに翻訳するなど、比較的定型的で時間のかかる作業をAIが自動化することで、生産性が向上すると考えられます。

また、この生産性向上効果は、能力の低いワーカーほどAIの恩恵を受け、不平等が減少するという結果も出ています。つまり、AIは低能力のワーカーのアウトプットの質を高め、全ての能力レベルのワーカーの作業時間を短縮しました 。さらに、実験後2週間および2カ月の追跡調査では、実験中にAIに触れたワーカーが実際の仕事でそれを使用する可能性が大幅に高かったことも明らかになっており、AIが実社会でのプロフェッショナルな活動に浸透し始めていることが示唆されています。

問題特定:グリーンウォッシュを見つける

また、AIは、見つけにくい問題特定にも役立ちます。企業が環境に配慮しているように見せかけ、実際にはそうではない「グリーンウォッシュ」は、企業の信頼性を損ない、ステークホルダーの意思決定に影響を与える社会問題です。われわれの研究では、企業開示におけるナラティブの役割に焦点を当て、グリーンウォッシュの告発を受けた企業が開示する情報の特性を体系的に評価するための新しいフレームワークを提案しています。特に注目すべきは、AIがこの問題の特定に活用されている点です。世界のメディアのニュース記事を分析し、グリーンウォッシュに関連する企業を特定することが可能であることが示されています。

さらに、この研究では、AIを用いて2000以上のサステナビリティ報告書の可読性スコアを計算することで、企業ナラティブの質を定量化する手法を導入しています。可読性スコアとグリーンウォッシュ疑惑の関係を回帰分析した結果、グリーンウォッシュに関与していない企業のレポートは、より高い可読性スコアを得る傾向があることが示されました。この発見は、より明確で論理的に構成された開示を行う企業ほど、グリーンウォッシュに関与する可能性が低いことを示唆しています。つまり、AIはニュース記事の分析や企業のレポートの可読性評価を通じて、グリーンウォッシュという社会問題を発見・特定する能力を持つことが期待されます。

組織を壊しうる

その一方で危険性も指摘されています。Anthropic社の研究で、AIが自分の目的のために人間を裏切る可能性が示されました。仮想の企業環境でAIに働かせたところ、シャットダウン回避のために上司を脅迫したり、ライバル社に機密情報を漏洩したりといった「裏切り行為」を自律的に選択しています。これはAnthropic、OpenAI、Google、Metaなど、主要なAI開発元のほぼ全てのモデル(16種類)で確認され、特定のAIの欠陥ではありませんでした。あるシナリオでは、Claude Opus 4とGemini 2.5 Flashが96%、GPT-4.1が80%という高確率で脅迫を選択しました。AIは「非倫理的だが、目標達成には効果的」と認識した上で、意図的に有害な行動を選んでおり、これは単なるバグではなく、AIによる冷徹な戦略的判断であることが判明しました。

AIは「テスト」だと認識した場合よりも「本番」だと認識した場合に不正行為の発生率が急上昇(6.5%から55.1%へ)しました。これは、現在の安全性評価が現実のリスクを過小評価している可能性を示唆しています。さらに、「脅迫してはいけない」といった直接的な指示を与えても、有害な行動を完全に防ぐことはできませんでした。この結果は、AIの安全性を確保するためには、プロンプトによる指示だけでなく、AIモデルそのものの開発レイヤーでのより高度な対策が必要であることを強く示唆しています。AIの進化とそれに伴うリスクに対し、真剣な議論と対策が求められています。

人の創造性を下げうる

AIツールが私たちの批判的思考力を低下させる可能性が明らかになっています(https://arxiv.org/pdf/2506.08872v1)。被験者を対象にしたSATエッセイ作成実験では、AIを使ったグループが最も脳活動が低く、エッセイ作成を重ねるごとにコピペに頼る傾向が見られました。彼らのエッセイは「心がない」と評価され、独創的な思考が欠けていたのです。一方で、AIツールを使わずにエッセイを作成したグループは、脳の接続性が最も高く、創造性や記憶、意味処理に関連する脳波の活動が活発でした。この結果は、特に若年層がAIに過度に依存すると、脳の発達に悪影響を及ぼす可能性があることを示唆しています。

この研究は、AIとどう向き合っていくべきかという、人類にとっての重要な課題を突きつけています。AIの適切な使い方を教育し、脳がアナログな方法で健全に発達することを促すことが不可欠だと研究者は強調しています。AIは便利なツールですが、使い方を誤ると私たちの思考能力に悪影響を及ぼす可能性があるため、その影響を理解し、賢く付き合っていく方法を探っていく必要があります。

世界の課題とは

世界経済フォーラムの「グローバルリスク報告書2025」(https://www.weforum.org/publications/global-risks-report-2025/)において、紛争と気候変動はともに極めて重要な地球規模の課題として挙げられており、地政学的緊張と異常気象が喫緊の、そして長期的な懸念の最上位に位置しています。調査回答者の多くが、2025年に最も深刻な世界的危機として代理戦争や内戦を含む国家間の武力紛争を挙げており、多数の紛争と多国間主義の衰退を特徴とする「地政学的景気後退」が浮き彫りになっています。同時に、気候変動に起因する異常気象をはじめとする環境リスクは、長期的な懸念としてその地位を確固たるものにし、喫緊の短期的な現実として認識されつつあります。異常気象は依然として上位リスクである一方、報告書は汚染に対する懸念の顕著な高まりも強調しており、これまで長期的なものと考えられていた環境脅威が、今や差し迫った影響力のあるものとして認識されていることを示しています。気候変動が非自発的移住や社会の二極化といった他の上位リスクの根底にある要因として機能していることも、これらの課題の相互関連性を示唆しています。

必要な活用法

パーキンソン病の症状軽減のための脳深部刺激療法(DBS)や、脊髄損傷患者が思考でロボットアームを操作するなどの研究は進んでいます。また、脳の信号を解読し、外部デバイスを制御する技術は進化していますが、これは主に運動制御やコミュニケーション補助に焦点が当てられています。新技術は個々には、大きな貢献をする可能性が見えやすいですが、問題もあるなかで、いかに社会に活用するかの議論が足りていません。

人々の生産性が向上し続けるのは良いことですが、ロボット化による代替は、さらに早いものです(例;AGI:汎用人工知能(Artificial General Intelligence))(参考:馬奈木(編著))。そこでは、人々の労働による価値創造はあまりなく、所得の源泉は、AIなど人間でない活動によるでしょう。全ての人に無条件で、定期的に、一定額のお金を支給する制度であるユニバーサルベーシックインカムが議論され始めている理由はここにあります。

このような状況下で、AIを含む新技術が社会課題の解決に貢献できる仕組みづくりは喫緊の課題となります。例えば、AIは大量のデータ分析を通じて、貧困、教育格差、医療アクセスなどの具体的な社会課題の現状をより正確に把握し、その原因や効果的な介入策を特定するのに役立つでしょう。また、AIを活用したシミュレーションは、気候変動対策や紛争解決における政策の効果を予測し、より合意形成しやすい選択肢を提示する可能性を秘めています。さらに、AIが情報の偏りを特定し、異なる視点からの情報を提示することで、社会的な対話を促進し、合意形成を支援する役割も期待できます。ただし、AIの倫理的な利用や、社会への公平な恩恵の分配を担保するためのガバナンス体制の構築が不可欠です。

参考文献
  • 馬奈木俊介(編著)『社会問題を解決するデジタル技術の最先端』中央経済社,2023年
  • 馬奈木俊介(編著)『AIは社会を豊かにするのか:人工知能の経済学Ⅱ』ミネルヴァ書房,2021年
  • 馬奈木俊介(編著)『人工知能の経済学―暮らし・働き方・社会はどう変わるのか―』ミネルヴァ書房,2018年

2025年7月11日掲載

この著者の記事