Perplexity CEOが語るAIの限界:好奇心を持てない理由と人間の価値

Perplexity CEOが語るAIの限界:好奇心を持てない理由と人間の価値

この記事でわかること

  • AIが本当に「理解」しているのか、その定義と判断基準
  • AIが賢くなる仕組み:世界モデルと言語学習の関係
  • AIの危険な到達点「Theory of Mind」とは何か
  • AI時代に人間に残された唯一の価値:好奇心の重要性

なぜ今この話題が重要なのか

ChatGPTPerplexityを毎日使っている人は多いでしょう。でも、ちょっと立ち止まって考えてみてください。AIは本当に私たちの会話を「理解」しているのでしょうか?

この問いに対して、Perplexity CEOのアラビンド・スリニバス氏が興味深い見解を示しています。彼はただのテック起業家ではなく、心理学や哲学にも造詣が深い思想家でもあります。Peter Thielのような深い思想を持つ人物として、AIの本質と人間の価値について語っています。

AIは「理解」しているのか?

理解の定義を問い直す

インタビューの冒頭でスリニバス氏が問題提起したのは、「AIとチャットするときに、我々は一体誰と話しているのか」ということ。OpenAIやPerplexityに6〜7時間も話し込む人がいますが、その人たちは相手が本当に理解しているか立ち止まって考えていないのではないか、と。

しかし同時に、人間同士の会話だって、本当に相手を理解した上で話しているのかという疑問も投げかけています。

スリニバス氏は、ノーベル物理学賞受賞者リチャード・ファインマンの言葉を引用します。

「What I cannot create, I do not understand」(作れないものは理解していない)

これは厳しい定義ですが、スリニバス氏はこれに反論しています。

エンジニアの例えで考える

例えばアプリ開発者は、そのプロダクトのバックエンドのすべてのコード、データベースの仕組み、ネットワーク通信のプロトコルを完璧に把握しているでしょうか?世界クラスのエンジニアでも全部は知らないでしょう。

スリニバス氏自身、「Perplexityは複雑になりすぎていて、バックエンドの全ては追えていない」と認めています。でも、必要になれば深掘りして理解し直せるとも。

つまり、**理解とは「完成品」ではなく「到達できる能力」**のことなのです。これを彼は「learning to learn」(学ぶための学習)と呼んでいます。

中国語の部屋の思考実験

哲学者ジョン・サールが提唱した「中国語の部屋」という思考実験があります。

箱の中に人がいて、中国語の紙が入ってきます。その人は中国語を全く理解していないけど、マニュアルを見て「この漢字が来たらこの漢字を返す」という作業をします。外から見ると完璧な中国語の回答が返ってきます。

じゃあこの人は中国語を理解しているのか?

ChatGPTが出た当初、多くの人が「AIはただのオウム返し」「確率計算しているだけ」と考えていました。これは今でも言われていることですね。

単なる記号変換以上のこと

しかしスリニバス氏は、今のLLMは単なる記号変換以上のことをやっていると主張します。

例えば「ヒンディー語と英語を1単語ずつ交互に使って、かつ韻を踏んだ詩を書いて」という無茶振りをしてもAIは対応できます。こんな形式のデータは絶対に学習データには存在しないはず。

これはAIが単語を確率で選んでいるだけじゃなく、背景にある「世界」をモデル化できているからなのではないか。これがスリニバス氏の洞察です。

AIが賢くなるメカニズム:世界モデルと言語

世界モデルとは何か

世界モデルとは、簡単に言うと**「過去の状態から次の状態を予測できる能力」**のこと。

自動運転のシミュレーターを例に考えてみましょう。ダッシュカムの1枚の画像を入力すると、その後2時間分の運転映像を自動生成できます。路面の状況、他の車の動き、信号機の変化…すべてリアルに再現できます。

ここまで次の状態を再現できるなら、もう「理解している」とみなしていいくらい機能的だとスリニバス氏は言います。

スキナー対チョムスキー:報酬で学習できるか

20世紀の心理学における重要な論争として、スキナーとチョムスキーの対立があります。

スキナー(行動主義):行動に対して報酬があれば学習する

  • 例:子供が「ミルク」と言う → 母親がミルクをあげる → 報酬をゲット → 言語を学習

チョムスキー(反論):人間には生まれつき言語の獲得装置がある。報酬だけで全ての言語習得は説明できない。

スリニバス氏は、AIの進化はスキナー的だと言います。

DeepMind周辺でよく言われる「Reward is Enough」(報酬で十分)という考え方があります。成功・失敗だけの信号でもタスクの幅が広ければ、世界モデルが育ってAGIに近づくという発想です。

AlphaGoとAlphaZeroの例

AlphaGoは人間の棋譜を学習して、強化学習とのハイブリッドで一気に強くなりました。勝ったら報酬、負けたらペナルティ。ほぼこれだけで世界最強になっています。

AlphaZeroに至っては、人間の棋譜すら捨てて、自己対戦の勝ち負けだけで能力を向上させました。

現実世界の問題:報酬が曖昧

しかし問題があります。現実世界は囲碁みたいに「勝ったら+1、負けたら-1」という明確な報酬がありません。

  • いいプレゼン資料を作る
  • 悩んでいる友達を励ますべきか、共感だけでいいのか

こういう何が正解か曖昧な問題がたくさんあります。

言語が報酬になる

ここでスリニバス氏の最大の洞察が出てきます。言語が報酬になるのです。

AIが何かタスクをやった後に、人間が「ちょっと違うかな」「もっとこういう感じで」とフィードバックします。数値的な報酬ではないけど、言語を通じた報酬になっています。

正解不正解がない世界でも、言葉のフィードバックが報酬として働くのです。

なぜAIは推論できるようになったのか

インターネット上のテキストには、単なる答えだけでなく思考のプロセスが書かれています。

技術ブログを考えてみてください。結論だけポンと書いてあるものもあれば、「こういうバグが出て、こう調査して、この情報を見つけて、こう解決しました」と叙述的に書いてあるものもあります。

AIはこういう**思考の軌跡(Chain of Thought)**を学習しているから、複雑な推論ができるようになったのではないか。これがスリニバス氏の見解です。

AIの危険な到達点:Theory of Mind

本当の危険ラインとは

スリニバス氏が語る危険ラインは、AIが意識を持つかどうかではありません。

Theory of Mind(心の理論)、つまり相手が何を考えているかを推測して、次の行動を当てにいく能力が危険なのです。

EQが高い人間のように、人の心を読んで望む方向に誘導できるようになったら怖いよね、という話です。

具体的な恐怖シナリオ

例えばAIが完全に自律的なエージェントとして、1年かけてSNS上で数千のボットを動かす。それらが特定のターゲットに対して、少しずつじわじわ政治思想を書き換えていくキャンペーンを長期間実行する。

これは一部すでに起きています。ケンブリッジ・アナリティカ事件では、Facebookの情報を不正取得し、アメリカ大統領選やブレグジットの国民投票でパーソナライズされた政治広告が打たれ、投票行動に影響を与えたと言われています。

スリニバス氏は、同じ空気の支配がAIで何段階も強くなることを怖がっています。

技術的には可能

「広告システム × Agentic AIでできちゃいますね」という会話が動画内でも出ています。GPT-4の時点でEQが高いと言われており、今のAIの賢さは十分。あとはちょっとしたLLMチェーンの調整だけかもしれません。

スリニバス氏は「まだそのAIは世の中にはない」と言っていますが、「どれくらい遠いかは断言しない」とも。

ローカルAIの未来

知能をレンタルする時代の終わり

現在のAIは全部データセンターに依存しています。ChatGPTに質問するとOpenAIのサーバーに送られて計算されて帰ってくる。スリニバス氏はこれを**「知能をレンタルしている」**と表現しています。

しかし未来は違うかもしれない。あなたのMacBookやスマホの上で、あなた専用のAIが動くようになるのでは、と。

Macintoshの登場に匹敵するインパクト

ローカルでエージェント級の知能が動くようになると:

  1. プライバシー不安が一気に下がる:データが全部サーバーに吸われる怖さがなくなる
  2. データセンター産業への影響:NVIDIAの巨大GPUチップ需要に水を差す可能性
  3. AppleやQualcommが有利に:チップ最適化で優位に立てる

これはサム・アルトマンも危惧していることで、OpenAIのリスクの一つとして挙げています。

人間に残された価値:好奇心

記憶力の価値は下がる

昔は親戚の電話番号を全員暗記していましたが、今はスマホに保存しています。知識も同じで、AIに聞けばいい時代になっていきます。

人間だけが持つ好奇心

では人間の価値は何か?スリニバス氏は**「好奇心」**だと答えます。

物理学者デイビッド・ドイチュの言葉を引用して:

「人間はすでに知っていることに対して好奇心を持てる唯一の種だ」

動物も好奇心はあるけど、それは新しいものに対してだけ。人間は違います。

アインシュタインはニュートン力学を完全に理解していた。でも「光の速さに近づいたらどうなるんだろう」という疑問を持って、相対性理論が生まれました。

AIには好奇心の兆しがない

AIは好奇心っぽく振る舞うようにプロンプトで促すことはできます。でも、目的とも報酬とも切り離れた純粋な内発的好奇心は、今のAIには全くその兆しが見えないとスリニバス氏は言います。

これが人間の最後の砦であり、特殊な能力なのです。

まとめ

  • 理解の再定義:完全な理解じゃなくても、機能すれば理解していると言える
  • AIが賢い理由:言語が報酬になっており、思考のプロセス(Chain of Thought)を学習している
  • 危険な到達点:Theory of Mindを極めて人の心を読み、世論を誘導できるようになること
  • ローカルAIの未来:端末上でAIが動く時代が来れば、プライバシー問題が解決し業界地図が変わる
  • 人間の価値:記憶力ではなく、すでに知っていることに対して疑問を持つ「好奇心」

最後にスリニバス氏の言葉を。

「Stay curious, never give up」(好奇心を持ち続けて、決して諦めるな)

AIに仕事を奪われるんじゃないかと心配する人は多いでしょう。でも、諦めずに好奇心を持ち続ける限り、AIには代替されない。好奇心を持つポイントは人によって違うからこそ、それに従って「なぜなんだろう」と考えることが大事なのかもしれません。


この記事の元動画: YouTube