イリア・サツケバーが語るAGIの本質とは?スケーリング時代の終焉と「感情」の重要性
この記事でわかること
- スケーリング時代の終焉と、AI研究の新しいフェーズ
- イリア・サツケバーが提唱するAGIの新定義「学習し続けるマインド」
- 人間の「感情」がAI進化の鍵になる可能性
- Safe Superintelligence(SSI)社の独自戦略
なぜ今この話題が重要なのか
イリア・サツケバーは、現代AIの中心を作った人物の一人です。ディープラーニングの父と呼ばれるジェフリー・ヒントンの弟子であり、AlexNetからGPT-3まで、ディープラーニングの歴史における全ての重要な論文に関わってきたとも言われています。そんな「GPTの父」が、OpenAIを離れ、Safe Superintelligence(SSI)という新会社を立ち上げました。
彼が最新インタビューで語った内容は、AIの未来を考える上で極めて重要な視点を含んでいます。特に「スケーリングの時代は終わった」という指摘と、AGIの本質についての新しい定義は、業界全体に影響を与える可能性があります。
スケーリング時代の終焉:データは有限である
ベンチマークと現実のギャップ
イリアは現在のAIが抱える問題を鋭く指摘しています。AIモデルは評価テストでは驚異的な高得点を出しますが、経済的インパクトを見ると、その性能に全然追いついていないというのです。
例えばコーディングにおいて、バグを直すよう指示すると新しいバグを入れてしまい、それを直すと最初のバグに戻る、という「バグの行ったり来たり」が起きることがあります。テストでは人間以上の知能を持っているのに、実際には自動運転もまだ完全にはできていません。
なぜAIは一般化できないのか
この問題についてイリアは2つの仮説を立てています。
1つ目は、強化学習のトレーニングがモデルを狭く集中させすぎているという点です。特定のタスクに最適化しすぎて、基本的なことに気づけなくなっている可能性があります。カルパシー(元OpenAI)も同様の指摘をしており、膨大にトレーニングすると「暗記」の方が合理的になってしまい、応用力が失われるのです。
2つ目は、研究者がベンチマーク評価に集中しすぎている点です。モデルをリリースする際に評価を良く見せたいがために、評価テストに寄せた強化学習をしてしまう。これは日本の受験勉強に特化した高校生のような状態で、過去問ばかり解けるようになっても、実際の応用問題には弱いのです。
研究の時代へ回帰
イリアによれば、2012年から2020年がAIの「研究の時代」、2020年から2025年が「スケーリングの時代」でした。GPT-3の登場でデータと計算量を増やせば結果が出ると分かり、企業にとっては投資判断がしやすかったのです。
しかしインターネット上のデータは有限です。事前学習で使えるデータには限界があり、スケーリングだけでは進歩が頭打ちになります。今必要なのは、新しい訓練方法の「レシピ」を見つけることだとイリアは主張しています。
AGIの新定義:学習し続けるマインド
一般化能力こそが最大の壁
AGI実現に向けた最大の壁は何か。イリアの答えは明確で、それは「一般化する能力(generalization)」です。今のモデルは人間に比べて一般化能力が圧倒的に低いと断言しています。
一般化が弱い理由として、イリアは以下を挙げています。
サンプル効率の悪さ: 人間は数年で社会に出られるレベルになりますが、モデルは何兆トークンものデータを必要とします。5歳の子供でもゴーカートは運転できるのに、モデルはいつになったら運転できるようになるのでしょうか。
報酬なしの学習ができない: 人間はやり方を見せたり説明を聞いたりするだけで何かを学び、応用できます。しかしモデルは細かい課題設定と報酬設定がないと安定して稼働しません。
価値関数という概念
イリアは「価値関数(Value Function)」という概念を重要視しています。これは、今の行動や状態が良いか悪いかを途中で判断するためのスコアのことです。
通常の強化学習では、何万ステップもの行動の後に初めて成功・失敗が分かります。その間はずっと「暗闇」です。しかし価値関数があれば、例えばチェスでコマを失った瞬間に「悪い手だった」と分かります。ゴールまで行かなくても方向性が途中で分かるのです。
人間の感情は価値関数として機能している?
ここでイリアは興味深い仮説を提示しました。人間の感情は価値関数として機能しているのではないか、というのです。
その根拠として、脳の損傷で感情の処理機能を失った患者の事例が紹介されました。その人は知能はあるのに、意思決定がめちゃくちゃ下手になってしまったのです。靴下の色を選ぶことや財務的な判断に異常に時間がかかるようになりました。
つまり感情とは、「これは良さそう」「これは変だぞ」という価値判断を前に進めるためのシグナルなのかもしれません。感情がないと、どちらの選択肢がテンション上がるか、焦りも感じない、こっちがいい!という判断もできなくなります。
この仮説が正しければ、AIの次のステップには「感情に相当する価値関数」の実装が必要になる可能性があります。
AGIとは「学習し続けるマインド」
こうした議論を踏まえ、イリアはAGIの考え方を見直すべきだと主張しました。従来は「全ての仕事ができる完成されたAI」というイメージがありますが、それは人間的ではありません。
人間は最初から全部できるわけではなく、基本的な能力はあっても、経験を積んで学びながら何でもできるようになっていきます。イリアにとってのAGIとは、最初から全てのタスクをこなす存在ではなく、どんなタスクでも学びながらこなしていくことができる存在です。
インタビュアーがこれを「学習し続けるマインド」と言い換えると、イリアは強く同意しました。経済活動ができたらAGI、という定義(サム・アルトマンの見解)とは異なるアプローチですが、「汎用人工知能」という言葉の字面で捉えれば、こちらの方がAGIらしいとも言えます。
SSI(Safe Superintelligence)の独自戦略
研究に全振りする組織
イリアがOpenAIを離れて立ち上げたSafe Superintelligence(SSI)は、非常に特徴的な組織です。超知性を直接作ることだけに集中しており、プロダクト開発や市場競争には一切参加しません。
調達額は約30億ドル(約4500億円)で、OpenAIやAnthropicと比べれば少額です。しかしイリアによれば、大手フロンティアラボは推論、プロダクト開発、セールス、サポートに大量の資金を使っています。研究予算として使える部分だけを見れば、SSIと大手の差はそこまで大きくないとのこと。
巨大な計算だけが正解ではない
イリアは歴史的な事実として、根本的なブレイクスルーは超巨大計算から生まれていないと指摘します。AlexNetは2枚のGPUで作られ、トランスフォーマーは8〜64個のGPUで作られました。o1の推論モデルもそこまで巨大な計算リソースを必要としなかったといいます。
スケーリングの時代は「どでか計算機」が必要でしたが、技術的なブレイクスルーの研究自体は、別のところにあるというのがイリアの主張です。
収益化は後から考える
では収益化はどうするのか。イリアの答えはシンプルで、「今は研究だけに集中する。答えは後から自然に見えてくる」というものでした。
この姿勢は、初期のAnthropicにも似ています。辞めOpenAI組には共通して、プロダクトを作って稼ぐよりも研究に集中する「lablab」した組織文化があるようです。
テスラジオの考察
イリアの「感情が価値関数として機能している」という仮説は、考えさせられるものがあります。確かに言われてみれば、私たちは多くの意思決定を「なんとなくこっちの方がいい気がする」という感覚で行っています。それが感情による価値判断だとすれば、AIが人間のような柔軟性を持つためには、何らかの形でこれを実装する必要があるのかもしれません。
また、AGIの定義についても興味深い視点が提示されました。サム・アルトマンのような「経済活動ができるAI」という定義は結果の話であり、イリアの「学習し続けるマインド」はプロセスの話です。どちらが正しいというより、イリアの定義は、サム・アルトマンのAGIを達成するためにも必要な前段階の能力を指しているとも言えます。
OpenAIからこうした「ど真ん中の研究者人材」が離れていることは、同社にとって心配な材料かもしれません。一方で、SSIのようなlablabした組織が何を生み出すのか、業界全体が注目しています。
まとめ
- スケーリングの時代は終焉: データと計算量を増やすだけでは限界があり、新しい訓練方法の「レシピ」を見つける研究の時代に戻った
- AGI実現の最大の壁は一般化能力: 今のモデルは人間より桁違いに多くのデータを必要とし、報酬なしの学習ができない
- 人間の感情は価値関数として機能している可能性: 意思決定を前に進めるシグナルとして感情が重要な役割を果たしているかもしれない
- AGIとは「学習し続けるマインド」: 全てができる完成品ではなく、どんなタスクでも学びながらこなせる存在
- SSIは超知性へ直行: プロダクト開発や市場競争から距離を置き、研究に全振りした珍しい組織
この記事の元動画: YouTube