デミス・ハサビスが語るAGIの壁:スケーリングの限界と世界モデルの可能性

デミス・ハサビスが語るAGIの壁:スケーリングの限界と世界モデルの可能性

この記事でわかること

  • AGI実現に向けて解決すべき3つの技術的欠陥
  • なぜスケーリングだけではAGIに到達できないのか
  • 「世界モデル」とは何か、そしてDeepMindがどう検証しているのか
  • ポストAGI社会で人間の「目的」はどうなるのか

なぜ今この話題が重要なのか

Gemini 3をリリースしたDeepMindのCEOデミス・ハサビスが、公式ポッドキャストで深い議論を展開しました。インタビュアーは「難しい科学を知的かつ親しみやすく語れる人」としてイギリスで有名なハンナ・フライ。

「スケーリングの壁にぶつかったのでは?」という声が業界で囁かれる中、ハサビスは何を語ったのか。AGIに必要なものは何か、そしてAGI後の社会で私たちはどう生きていくのか。DeepMindの研究方針とハサビスの世界観が垣間見える、貴重なインタビューの内容をお届けします。

AGI実現前に解決すべき3つの技術的欠陥

ハサビスは現在のAIシステムには3つの技術的な欠陥があると指摘しています。

1. 一貫した推論と思考

現在のシステムは推論時により多くの時間を思考に費やせるようになりましたが、その思考時間を本当に有用な方法で使えているかという問題があります。

人間であれば難しい質問をされたら一旦止まって、自分が言おうとしていることを見直したりします。でもAIは「頭に浮かんだ最初のことをそのまま言っちゃう」状態だとハサビスは言います。出力をダブルチェックしたり、検証用ツールを使ったりする、より賢い使い方ができるはず。推論はまだ50%程度の達成度だと評価しています。

2. 継続的な学習がない

今のシステムは一度訓練されたら静的なものになってしまいます。人間みたいに現実世界で継続的に学び続ける能力がありません。

人間は毎日経験から学んでアップデートしていきますが、AIは一度リリースされたらそのまま。重みが固定されてしまうのです。これがAGIに求められる重要な要素です。

3. ハルシネーションの制御と信頼度スコア

多くのハルシネーションは、モデルが不確実なのに無理やり答えようとすることから生じています。「知らない」を「知らない」と言えない。「できない」を「できない」と言えない。

解決策としてハサビスは、AlphaFoldのような信頼度スコアの導入を示唆しています。「その答えは70%の確信度です」といった形で、自分の不確かさを表明できるようにするのです。

スケーリングだけではAGIに到達しない理由

「スケーリングの壁にぶつかったのでは」という声がこの1年間、業界で言われ続けてきました。データが足りない、収穫が逓減している、と。

ハサビスの見解は明確です。スケーリングの壁自体は見ていないと言い切っています。確かに収穫逓減はあるけれど、それでもGemini 3のような十分な改善が見られるモデルを作れている。投資に見合うリターンはスケーリングにまだあると。

ただし、スケーリング「だけ」では不十分。DeepMindはスケーリングとイノベーションに50%ずつリソースを配分しているそうです。

地形が厳しくなればなるほど、世界クラスのエンジニアリングだけでなく、世界クラスの研究と科学が必要になる。トランスフォーマーレベルの科学的発見があと1つ2つ必要だ、とハサビスは言います。

世界モデルとは何か

言語モデルの限界

LLMには言語では記述しにくい領域があります。ハサビスは3つ指摘しています。

  • 空間的なダイナミクス
  • 物理的な文脈
  • 感覚的な要素(モーターの角度、匂いなど)

「このバラの香りは?」と聞かれても、実際に嗅がないとわからない。言葉で説明できないことは、経験から学ぶしかないのです。

世界モデルの定義

世界モデルとは、物理法則に従って世界のメカニズムや因果関係、直感的な物理学を理解するモデルです。ボールを転がしたらこうなる、物体を持ち上げたらこの重さを感じる—そういったことを理解しているモデルということですね。

ロボティクスや日常生活を支援するユニバーサルアシスタントを作るなら、この世界モデルが核心になります。

DeepMindの検証方法:ビデオモデル

ハサビスは「世界モデルの理解度をテストする方法の一つが、リアルな世界を生成できるかどうかだ」と言っています。リアルな世界を生成できるなら、それは理解しているということ。

DeepMindのGenieやVeoといったビデオモデルは、反射や液体の動きがめちゃくちゃリアルと言われています。肉眼で見る分にはかなり精度が高い。次のステップは、人間の素人が知覚できるレベルを超えて、本当に物理学レベルの実験に耐えられるかどうかです。

物理のハルシネーション問題

大きな課題が「物理法則のハルシネーション」です。見た目はリアルだけど、実は物理的にここおかしくない?というケースがあります。

DeepMindは現在、高校の物理の授業でやるような基本的な物理現象のチェック項目—物理のテスト問題のようなものを作っています。坂道をボールが転がるときに角度がきついほど速くなるか、振り子の長さや重さを変えたら動きも変わるか。見た目がリアルかではなく、動きの理由まで物理法則が合っているかを確認しているのです。

今のモデルは人がパッと見たら本物っぽいけど、中身はまだ「それっぽい再現」に過ぎない。ロボットに任せるにはまだ精度が足りないというのがハサビスの見解です。

科学研究への応用

世界モデルが完成したら応用範囲は広大です。ロボティクスだけでなく、あらゆる科学研究に使えます。原子レベルの材料科学、生物学、気象—科学的に複雑な領域のシミュレーションを容易に構築できる。

実世界で実験するのが難しいことをシミュレーションで何百万回も試せるようになります。初期条件を少しずつ変えて統計的に実験したり、現実世界では不可能な制御された実験ができる。Googleは量子や核融合など最先端の研究プロジェクトを抱えていますが、そういった分野にも活用できます。

ポストAGI:何が起きるのか

短期過大評価、中長期過小評価

ハサビスの基本的な見解は「AIは短期的には過大評価されているが、中長期的には過小評価されている」というものです。

何もしていないスタートアップに数百億ドルの評価がつくのは一部バブル的。でも中長期的な影響は、みんなが思っている以上に大きい。

具体的には産業革命の10倍の変化が10倍の速度で来ると言っています。産業革命は蒸気機関から始まって社会全体が変わるのに約100年かかりました。AI革命はそれより10倍大きいものが10年で起きるかもしれない。

経済システムの崩壊

これが早すぎると適応が遅れてしまいます。ハサビスは経済システムが成立しなくなる可能性を指摘しています。

今の「労働を資源と交換する」という当たり前—働いてお金をもらって、そのお金で生活する—この仕組みが崩壊するかもしれない。ベーシックインカムも一つの解決策かもしれませんが、経済学者や社会科学者、政府がもっと時間を使ってAGI後の社会システムについて考えるべきだとハサビスは言います。

5年か10年後には来るかもしれない技術なのに、国際協力の議論が全然進んでいないことへの懸念です。

目的の欠如—哲学問題への移行

もう一つの深刻な問題が「目的の欠如」です。

仮に核融合が実現してエネルギーがほぼタダ同然になったとします。すると「不足を前提としない社会」—ポスト・スカーシティの世界が来ます。人間の欲しい基本的なものがほぼ無限、ほぼタダで手に入る状態です。

今の社会は「不足」を前提に動いています。不足があるからお金を稼ごうと働く。でも多くの人は仕事や家族を養うことから人生の目的を得ています。それがなくなったら人は何をすればいいのか?

お金の問題は解決できても、人間の存在意義の問題はどうやって解決するのか。経済問題から哲学問題に移行するとハサビスは言います。

エージェントシステムへの懸念

短期的にハサビスが特に心配しているのがエージェントシステムです。今のAIは受動的—人間が質問してAIが答える形式です。次の段階はAIが自律的に動くエージェント。便利だけどリスクが跳ね上がります。

2〜3年後には何百万ものエージェントがインターネット上を動き回るかもしれない。そのためにDeepMindはサイバーディフェンスの研究に力を入れているそうです。

テスラジオの考察

DeepMindのハサビス、前回取り上げたシェーン・レッグ、そしてAnthropicのダリオ・アモデイ—AI研究の最前線にいる人たちが揃って「AGI後の社会システムについての議論が全然進んでいない」と懸念を表明しているのが印象的です。

特に興味深かったのは「ポスト・スカーシティ」の議論。お金の価値がなくなったら何に価値が出るのか。YouTubeで嬉しいコメントが来たり、高評価をもらったりすると嬉しい—そういった「感謝」や「承認」の価値が相対的に上がるのかもしれません。

利益のためではなく、誰かに感謝されることがモチベーションになる世界。すでにクリエイターエコノミーの一部ではそれが起きていますが、社会全体がそういう方向に移行するのかもしれません。

世界モデルについては、「リアルな世界を生成できるなら、それは理解しているということ」という検証方法が面白い。配管工の仕事をさせるにはこの精度が必要、という具体的な指標があるのは説得力があります。

まとめ

  • AGI実現の3つの壁:一貫した推論(50%達成度)、継続的学習、ハルシネーション制御
  • スケーリングの位置づけ:壁は見ていないが、それだけでは不十分。DeepMindはスケーリングとイノベーションに50/50でリソース配分
  • 世界モデル:物理法則と因果関係を理解し、リアルな世界を生成できるモデル。ビデオモデルで検証中
  • ポストAGI社会:産業革命の10倍の変化が10倍の速度で来る可能性。経済システムと人間の目的の再構築が必要
  • 目的の欠如:お金の問題が解決しても、存在意義の問題は残る。経済問題から哲学問題への移行

この記事の元動画: YouTube