2026-05-06
AIに政治を任せる、は間違った問いだ
ANCHORは政策を決めない。民主主義が決めた範囲内で、暴走しないよう制御するだけ。「賢いAI」より「止まれるAI」の話。
AIが政治を語るとき、議論はいつも二つの方向に割れる。
「AIが最適な政策を選べば、政治家より賢い判断ができる」という期待。「AIが民主主義を乗っ取る」という恐怖。
どちらも、同じ間違いを犯している。AIを「意思決定者」として想定していることだ。
間違った問いが、間違った議論を生む
「AIに政治を任せるべきか」という問いは、間違っている。
なぜか。「政治」の本質は「何を大事にするか」を決めることだからだ。成長か、分配か。効率か、公平か。現在世代か、将来世代か。これらは価値判断であり、正解がない。
AIはこの問いに答えられない。正確に言えば、答えるべきではない。
AIが「最適な政策」を選ぶとき、その「最適」は何に対して最適なのか。誰かが重みを決めなければならない。その重みを誰が決めるかが、民主主義の本質的な問いだ。AIに重みを埋め込んだ瞬間、民主的な決定は終わっている。
だから問いを立て直す必要がある。
「AIで何ができるか」ではなく、「民主主義がより安全に機能するために、AIをどう使うか」。
オートパイロットという比喩
飛行機にはオートパイロットがある。
オートパイロットは、どこに飛ぶかを決めない。パイロットと管制官が決める。オートパイロットは、決められた目的地へ向かって、乱気流の中でも安定した飛行を維持する。エンジンの異常を検知したら警告を出す。制御が難しい状況になれば、パイロットに戻す。
重要なのは、オートパイロットがパイロットを「置き換える」のではないということだ。パイロットが決めたことを「安全に実行する」層として機能する。
ANCHORはこの発想から来ている。
ANCHORとは何か
ANCHOR(アンカー)は、制度AIの設計名だ。
制度AIとは、意思決定者としてのAIではない。民主的に決められた価値・優先順位と、実際の政策運用のあいだに挟まる「制御レイヤ」だ。
ANCHORの役割は三つしかない。
観測する。 社会の状態を多軸のベクトルとして読む。GDPだけでなく、健康・格差・信頼・環境・財政を並列に見る。一本の物差しに潰さない。
制約を適用する。 民主的に決められた許容範囲を守る。「この方向には進んではいけない」という禁じ手を、ルールとして実行する。
止まる。 閾値を超えたとき、HOLD/SHRINKを発動する。自動的に動き続けるのではなく、危険な状況で止まれる。
ANCHORは「何が良い政策か」を決めない。民主主義が決めた枠の中で、暴走しないよう動く。
価値判断をしない、とはどういうことか
価値判断をしないとは、何も判断しないということではない。
ANCHORは「方向」だけを見る。この変化は、民主的に決められた許容範囲の内側か外側か。この動きは、禁じられた方向に向かっているか。証拠が不十分なまま進もうとしていないか。
「何が良いか」は判断しない。「この方向は危険かどうか」だけを判断する。
この区別が重要だ。
経済成長が良いか悪いかは、ANCHORが決めない。しかし「格差指標が合意されたバンドを超えて悪化し続けているなら、それをさらに悪化させる方向の動きは止める」という制御はできる。それは価値判断ではなく、事前に民主的に決められたルールの執行だ。
重みのベクトルは人間が更新する
ここが核心だ。
何をどれだけ重視するか——この「重みのベクトル」は、ANCHORの外側にある。
選挙は、この重みを更新するプロトコルだ。「成長より分配を重視する」という方向に票が集まれば、重みが更新される。「環境への投資を増やす」という合意が形成されれば、許容範囲が変わる。
ANCHORはその更新を受け取り、新しい重みのもとで制御を続ける。
重みを決めるのは政治。その重みの範囲内で安全に動かすのがANCHOR。この二つを混ぜないことが、制度設計の核心だ。
混ぜると何が起きるか。AIが「最適な社会」を自分で定義し始める。そうなると、民主的なプロセスで重みを変えようとしても、システム全体を作り直すことになる。重みの変更が事実上不可能になる。
「賢いAI」より「止まれるAI」
AIガバナンスの議論では、「いかに賢いAIを作るか」が中心になりやすい。
しかしANCHORの設計が示す優先順位は違う。
ヒュームが示したように、因果の完全な理解は不可能だ。ゲーデルが示したように、システムは自分自身の正しさを内側から証明できない。この二つを前提にするなら、制度に求められる能力は明確だ。
最適解を当てることではない。正解を主張することでもない。危険を検知したら止まることだ。
賢いAIは、高速で崖に向かって走り続けることができる。止まれるAIは、崖の手前で止まる。
社会に組み込む制度として必要なのは、後者だ。
民主主義の補助装置として
ANCHORは民主主義を効率化しない。民主主義が壊れないよう、その頻度を減らす。
選挙で決まった方向性が、日々の運用の中で少しずつ歪んでいく——これは現代の制度が抱える構造的な問題だ。スカラー最適化のシリーズで書いたように、一本の数字を最大化しようとすることで、別の軸が犠牲になっていく。
ANCHORはその歪みを観測し、事前に決められたルールに基づいて是正する。パイロットが操縦に集中できるよう、安定した飛行を維持するオートパイロットのように。
AIが民主主義を「賢く」するのではない。民主主義が決めたことを「安全に実行できる」制御レイヤを持つ——それが、ANCHORから見た最も民主的な振る舞いだ。
正直な現在地
ANCHORは現在、設計仕様が存在する段階だ。
C3のITSフレームワークとECHO-VERIFYは、このANCHOR設計の技術的な骨格になる。AIの判断に証拠ゲートを設け、判断ログを検証可能な形で残し、止まれる設計にする——これはすでに動いている。
社会インフラとしてのANCHORの実装は、まだ先の話だ。しかし設計思想を今から明確にしておくことが、方向を決める。
「AIに政治を任せる」という問いへの答えは「ノー」だ。正しい問いは「民主主義が決めたことを、安全に実行できるか」だ。
ノンスカラー民主主義シリーズ。前回:重み主権を、社会に返す
C3社会デザインセンター:www.c3-anchor.jp