2026-04-26
AIが何かを達成するたび、私たちは「それは本当の知性ではない」と言い直してきた
AIエフェクトという現象から、私たちがAIに何を求めているのかを問い直す。
AIを「知能」ではなく「制度」として考える、第2回。
前回はヒュームの帰納の問題から、AIに完全保証は求められないという話を書いた。では次に問いたい。私たちは、そもそも何を「知性」と呼んできたのか。
繰り返されてきたパターン
1956年、「人工知能」という言葉が生まれた頃、研究者たちは夢を語った。「機械が考える日が来る」と。
だが、その後の反応はいつもよく似ている。
チェッカーに勝った。「それは計算にすぎない」。チェスの世界王者を倒した。「本当の思考じゃない」。囲碁で人間を超えた。「直感を模倣しているだけだ」。絵を描き、文章を書き、会話をする。「それも結局はパターンだ」。
AIが近づくたび、知性の定義は少しずつ後ろへ逃げる。
これをAIエフェクトという。認知科学者パメラ・マコーダックが指摘した現象で、AIが特定の能力を獲得すると、それは「本当の知性ではない」と再定義される繰り返しのことだ。
過大評価と過小評価を同時にやる
私たちはAIを過大評価もする。過小評価もする。しかも、それを同時にやる。
「人間のように考えろ」と言いながら、近づいた瞬間に「それは知性ではない」と言う。SFの描くAIに怯えながら、実際の業務AIに過度な精度を求める。
この矛盾は悪意からではなく、「知性」という言葉の輪郭が曖昧なまま使われてきた結果だ。
問いを立て直す
AIに何を求めているのか。
その問いに答える前に、私たちが何を「知性」と呼び、どこでゴールポストを動かしてきたかを整理する必要がある。
ゴールポストが動き続ける限り、AIへの要求も定まらない。そして要求が定まらなければ、どんなAIを作っても「十分」にはならない。
知性の定義を固定することは難しい。しかし社会実装の基準は、設計できる。次回は、その曖昧さが最も大きな形で現れているAGIという言葉を見る。