「政府はAnthropicのAIを使ってはならない」——この命令が連邦裁判所で違憲と判断された。これは単なる行政訴訟の話ではない。AIという技術を、政府が特定の企業単位で規制できるかという、前例のない憲法上の問いへの答えが出た瞬間だ。しかもその答えは「できない」だった。この判決が持つ射程は、Anthropicという一企業の話をはるかに超えている。AIと憲法、企業と国家、言論の自由とテクノロジーが交差する最前線で起きた出来事として、今日は丁寧に読み解きたい。
第1幕【フック】:「企業名指し禁止」という前代未聞の規制
トランプ政権が打ち出したこの規制の奇妙さを、まず理解してほしい。「AIを使うな」でも「特定の用途のAIを使うな」でもなく、「Anthropicという会社のAIを使うな」という命令だ。技術的な安全性の問題でも、特定の機能の危険性でもなく、企業の「選別」だ。これは、政府が「Googleで検索するな」「Appleのデバイスを使うな」と命じるのと、構造的に同じ性格を持つ。そして歴史的に、政府が特定の企業の製品・サービスを名指しで禁じた事例は、非常に限られている。
なぜAnthropicが標的になったのか。Anthropicはサンフランシスコを拠点とするAI企業で、政治的には「安全性重視派」「リベラル寄り」と見られることがある。創業者のDario AmodeiとDaniela Amodeiは、OpenAIの「安全性よりスピード」路線に異議を唱えて飛び出した人物たちだ。安全性を重視するAnthropicのスタンスが、「規制より自由」を旗印にするトランプ政権の路線と相容れないと見なされた可能性は高い。また、AnthropicがAIの安全性に関する政策提言を積極的に行ってきたことが、政権による「政治的排除」のターゲットになったという見方もできる。
連邦裁判所はこの禁止命令を「言論の自由侵害」として違憲と判断した。AIの出力——つまりClaudeが生成するテキスト——を「言論」と捉えるならば、政府がその言論の「送信者」(Anthropic)を理由に使用を禁じることは、修正第1条の保護する自由に反するという論理だ。これは見事な手だ、と思う。正直うまい。AI企業の権利を言論の自由の文脈で守った判例が形成されれば、今後の規制論議に広く影響する。特に「特定のAI企業を政治的理由で排除する」という行政行為に対して、強力な憲法上のブレーキが設置されたことの意義は大きい。
ただし、この判決を手放しで「勝利」と呼ぶことへの慎重さも必要だ。「Anthropicのような私企業の利益を守るために言論の自由を使うのか」という批判は、リベラル・保守双方から出うる。言論の自由は本来、権力の弱い側(市民・メディア・少数派)を守るための権利として発展してきた。それが巨大テクノロジー企業の商業的利益の保護に援用されることへの違和感は、理解できる。しかし同時に、「政府が気に入らない企業の技術を排除できる」という前例を作ることの危険性も、十分に現実的だ。
第3幕【転換】:「AIは言論か」という問いの深さ
AIが生成するテキストを「言論」として保護することの含意は、実は非常に複雑だ。言論の自由は本来、「人間の自由な表現」を国家の抑圧から守るために存在する。AIが生成するテキストに同じ保護を与えるとすれば、「言論する主体」としてAIをどこまで認めるか、という哲学的・法的問いが生じる。今回の判決がその問いに全面的に答えているかどうかは、判決文の詳細を精読する必要があるが、少なくとも「入口の議論」に裁判所が踏み込んだことは確かだ。この問いは、今後数年で急速に具体性を帯びていくだろう。
日本に例えると、これは放送法における「政府による特定放送局の規制」に近い問題だ。日本でも過去に「特定のテレビ局の番組を政府が電波停止できるか」という議論があった(放送法4条の解釈問題)。高市早苗総務相時代の2016年に国会で話題になったこの問題は、「政府が放送内容に介入できるかどうか」という点で、今回のAI禁止令と同じ構造を持つ。表現の自由と公共の利益の間のバランスは、民主主義国家が常に抱える根本的な緊張関係だ。AIがメディアとして機能する時代において、この緊張関係はさらに複雑な形をとる。
一方で、まったく異なる視点からの「不安」も存在する。今回の判決と同時期に発表されたクインニピアック大学の世論調査では、米国成人の過半数が「AIは社会に害をもたらす可能性が高い」と回答している。技術的なエリートや投資家がAIの可能性を語る一方で、一般市民の間には根強い不安がある。連邦裁が「AI禁止は違憲」と言う一方で、市民は「AIに不安を感じている」——この乖離は、民主主義的なAI政策論議において、無視できない亀裂だ。「市民の不安を放置して企業の権利だけを守る司法」という批判を、今後この判決は浴びることになるかもしれない。
AIへの市民の不安は、具体的にどこから来ているのか。雇用の喪失、プライバシーの侵害、デマ・フェイクニュースの拡散、AI兵器の拡散——これらは「漠然とした恐怖」ではなく、すでに現実化しつつある問題だ。Anthropicが「安全性重視」のAI企業であるとしても、AI全体へのリスク認識は個別企業の評判とは別次元で存在する。政府が「Anthropicを禁止する」のは違憲でも、「AI全体のリスクを規制する」枠組みを作ることは合憲でありうる。その区別を明確にした上で政策論議を進めることが、この判決の後に求められることだ。
第2幕【解体】:企業と国家の権力関係という構造問題
今回の判決が示す最も重要な問いは、「政府はAIをどう規制できるか」だ。機能による規制(「危険な用途に使うな」)は合憲的に可能だろう。技術標準による規制(「安全審査を通過したモデルのみ使用可」)も議論の余地はあるが、前例がある。しかし「特定企業のAIを名指しで禁止する」のは、今回の判決が示した通り、憲法上の壁に衝突する可能性が高い。これは規制当局にとって、ある種の「縛り」を意味する。
AIの安全性を確保したい政府が使える手段は、個別企業の排除ではなく、技術的・機能的な基準の設定——つまり「何を規制するか」ではなく「どんな性能・安全基準を満たすか」という方向に向かわざるを得ない。欧州のAI Actがまさにこのアプローチを取っているのは、示唆的だ。「リスク分類」に基づいて高リスクな用途を規制し、透明性義務を課す——このような「用途・機能ベース」の規制は、特定企業の排除という「人格ベース」の規制より、憲法的に安定している。
しかし、「機能基準」による規制もまた難しい。AIの能力は急速に変化する。半年前に「安全」とされていたモデルが、今日のバージョンでは全く異なる能力を持っているかもしれない。「安全審査」のプロセスが技術の進化速度に追いつけるかという問題は、規制設計の根本的な困難だ。これは自動車の安全基準や医薬品の承認プロセスと似ているようで、根本的に異なる。AIは数ヶ月サイクルで更新される「生き物」だからだ。自動車は一度認証を受ければ数年間は同じ仕様で販売できるが、AIモデルは更新のたびに性能が変わり、規制の対象となる「同じもの」が存在しない。
政治的な文脈も付け加えておく必要がある。トランプ政権のAI政策は、バイデン政権が2023年に発令したAI安全に関する大統領令を廃止するところから始まった。規制緩和を旗印にしながら、一方では特定企業を「名指し禁止」するという矛盾した姿勢は、「規制」と「政治的選好」が混在していることを示している。今回の判決は、その矛盾に司法がブレーキをかけた形だ。しかし司法の判断は、政治的な意志を根本的に変えることはできない。トランプ政権が別の手段を通じて同様の「排除」を試みる可能性は、依然として残っている。
第4幕【着地】:日本のAI規制論議への含意
日本では現在、AI規制の基本的な枠組みについて省庁間の議論が続いている。総務省・経済産業省が中心となり、生成AIのガイドラインが策定されているが、強制力を持つ法的規制はまだ本格化していない。「まず普及させてから規制する」という日本的アプローチは、欧州の「先に規制枠組みを作る」アプローチと対照的だ。今回の米国の判決を受けて、日本の規制論議にも新たな視点が加わるだろう。
今回の米国の判決が日本にとって持つ意味は二つある。一つは、「企業名指し規制」という手法の法的リスクが示されたこと。もし日本の政府調達でも「特定企業のAIを使用禁止」という方針が検討されるなら、言論の自由に限らず、より広い競争政策・行政裁量の問題として慎重な設計が必要になる。二つ目は、AI規制の議論が今後急速に「実害」中心の議論に移行するということだ。「何が危険か」「誰が責任を負うか」——抽象的な規制論から、具体的な被害事例に基づくルール形成へ。日本はその転換に、欧米より遅れて追いつくことになる。
AIを「使わない自由」と「使われない自由」の両方が、今、問われている。政府がAnthropicのAIを「使わない」と決めることは違憲とされた。しかし市民が政府のAIによって「使われる」——監視される、採点される、スコアリングされる——ことへの抵抗権はどう保護されるのか。禁止の方向だけでなく、強制使用の方向における自由の問題も、この判決の延長線上に存在している。政府がAIを使わないことへの制限が「違憲」なら、政府がAIを使うことへの市民の抵抗権は、どう保護されるのか——その問いは、今後ますます現実的な意味を持ってくる。
この判決が生む最も重要な長期的問いは、「AI企業は言論の担い手として憲法的保護を受けるのか」という点だ。もしそうなら、AIが生成したコンテンツの著作権、プラットフォームとしての責任、有害コンテンツへの規制——これらすべてに「言論の自由」という憲法上の枠組みが適用されることになる。TwitterやフェイスブックをめぐるSection 230(プラットフォームの免責条項)の議論が、AIの登場によって全く新しい次元に突入する可能性がある。今回の判決はその第一歩として、法律の歴史に刻まれる。そしてその歩みがどこに辿り着くかは、今の誰にも予測できない。
日本のAI規制がこれほど「静か」な理由の一つは、まだ憲法問題として浮上していないからだ。米国では今回のような判決が出ることで、AIと憲法の関係が強制的に可視化される。日本では、憲法訴訟の文化が米国ほど発達していないため、AI規制の問題は行政裁量の問題として処理される傾向がある。しかし行政裁量の問題として処理されるということは、「政権が変われば規制方針も変わる」という政治的不安定性を意味する。長期的なイノベーション環境の整備という観点から、日本もAI規制の「憲法的根拠」を議論する時期に来ているのではないか——今回の米国の判決は、そのような問いを日本社会にも投げかけている。
AIをめぐる「企業対国家」の構図は、今後さらに複雑化する可能性が高い。OpenAIのIPO(別記事参照)が実現し、AI企業が「上場企業」となれば、株主・議会・規制当局・司法という複数のアクターが同時にAIガバナンスに関与するようになる。それは「誰かが一方的に決める」世界から、「複数の力学が綱引きをする」世界への移行だ。混乱するが、それは同時に多様な観点が組み込まれる可能性でもある。今回の連邦裁の判決は、その綱引きに「憲法」という最も重い錘を加えた。AIの未来は、コードだけでなく、法廷でも書かれていく。
表層で止まるな。「AnthropicのAI禁止が違憲」というヘッドラインの奥には、AIと憲法、企業と国家、技術の進化と法の安定性という、私たちの社会の根幹に関わる問いが潜んでいる。そしてその問いへの答えは、まだ誰も持っていない。一つ確かなことがある——この判決は「終わり」ではなく、長い議論の「始まり」だということだ。AIと法律の格闘は、これからが本番だ。
