規制しないという規制がある。2026年3月20日、米国ホワイトハウスは「人工知能に関する国家政策フレームワーク(National Policy Framework for Artificial Intelligence)」を発表した。このフレームワークは議会への立法提言という形式を取り、AIに関する連邦法の整備方針を示している。その中核にあるのは、きわめて明確な一つの選択だ。新しい連邦AI規制機関は作らない。既存の省庁がそれぞれの専門分野でAIを監督し、業界主導の基準に委ねる。ジョージタウン大学のCSET(安全保障・新興技術センター)がこのフレームワークを分析した報告書は、この選択の含意を丁寧に解きほぐしている。規制の「軽さ」は、無策ではなく、意図的な設計だというのが政権の立場だ。バイデン前政権が2023年10月に署名したAI安全大統領令では、AIシステムの安全性テスト義務や連邦機関によるリスク管理の強化が打ち出されていたが、現政権はそのほぼすべてを撤回した。政権交代がAI政策の方向性を180度変えたことを象徴する出来事であり、規制の振り子がいかに大きく揺れ得るかを示している。(Georgetown CSET: Unpacking the White House National Policy Framework for AI)
フレームワークの射程は驚くほど広い。子どもの安全、消費者保護、データセンターのエネルギーコスト、国家安全保障、知的財産、表現の自由、イノベーション促進、労働力開発。これらすべてがフレームワークのなかで扱われている。なかでも未成年者の保護に大きな比重が置かれており、AIプラットフォームに対する年齢確認要件の導入や、保護者が子どものデジタル環境を管理できる仕組みの整備が議会に求められている。ディープフェイク技術を用いた未成年者の性的搾取コンテンツに対する厳罰化も含まれており、これは超党派の合意を得やすい分野だ。この優先順位の設定は、AI規制を「イノベーションの抑制」ではなく「社会的リスクの管理」として位置づけようとする意図の表れだ。だが、個別のリスク対応と包括的な規制体制のあいだには、大きな隙間がある。子どもの安全を守る法整備は超党派の支持を得やすいが、雇用置換やアルゴリズムによる差別といったより構造的な問題に対しては、フレームワークの言及はきわめて限定的だ。(WilmerHale: White House Releases National Policy Framework)
「新しい規制機関を作らない」という選択には、明確な論理がある。政権の立場は、AIはあまりにも多くの産業と社会領域にまたがるため、単一の規制機関では対応しきれないというものだ。医療におけるAIはFDA(食品医薬品局)が、金融におけるAIはSEC(証券取引委員会)やCFPB(消費者金融保護局)が、交通におけるAIはNHTSA(運輸安全局)がそれぞれ既存の専門知識を活用して監督するべきだという分業の論理だ。これに加えて「レギュラトリー・サンドボックス」の設置が提言されている。企業がAI技術を制限的な規制環境の外で試験的に運用できる仕組みであり、イノベーションと規制のバランスを取る手段として位置づけられている。英国がすでに金融分野でAIサンドボックスを運用しており、シンガポールも同様の制度を導入済みだ。米国のこの提案は、こうした国際的な先行事例を参照したものと考えられるが、規模と範囲において前例のない試みとなる。(Morrison Foerster: Trump Administration Releases National AI Policy Framework)
連邦法による州法の先取りは、最も論争的な要素だ。カリフォルニア州やニューヨーク州をはじめ、複数の州が独自のAI規制法を制定・検討している。カリフォルニア州はAIシステムの透明性要件を定める法案を可決し、コロラド州はAIによる差別的意思決定を禁止する法律を施行した。イリノイ州は採用プロセスでのAI利用に厳格な通知義務を課している。フレームワークは、「過度の負担を課す」州法を連邦法で上書きする方針を打ち出した。ただし、児童保護、詐欺防止、消費者保護といった伝統的な州の警察権は維持される。この線引きは一見合理的だが、実際にはきわめて曖昧だ。何が「過度の負担」なのかは解釈次第であり、テクノロジー企業と州政府のあいだで激しい法的闘争が予想される。すでにAI企業のロビー団体は、州ごとに異なる規制への対応コストが年間数十億ドルに達すると主張しており、連邦による統一を歓迎している。一方で州政府の側は、連邦政府の対応が遅すぎるからこそ州が動いたのだと反論する。この対立構図は、かつてのデータプライバシー規制を巡る連邦と州の攻防を想起させる。(Ropes & Gray: White House Legislative Recommendations)
CSETのマッピング報告書は、AIガバナンスの全体像を俯瞰している。2026年4月の更新版は、連邦、州、国際の各レベルでAI規制がどう進展しているかを網羅的に整理している。そこから浮かび上がるのは、米国のAI規制が「パッチワーク」状態にあるという現実だ。連邦レベルでは包括的なAI法がなく、州ごとに異なるルールが乱立している。EUのAI法(AI Act)が包括的なリスクベースの規制体系を構築し、2025年から段階的に施行を開始しているのとは対照的だ。EUのアプローチでは、AIシステムをリスクレベルに応じて四段階に分類し、高リスクシステムには厳格な適合性評価と透明性義務を課す。禁止されるAI利用も明確に定義されている。フレームワークはこのパッチワークを連邦法で統一しようとする試みだが、議会がどこまで迅速に動くかは不透明だ。技術の進化速度と立法プロセスの速度の間には、構造的なギャップがある。(CSET: Mapping the AI Governance Landscape April 2026)
イノベーション促進の章は、具体性において最も弱い。CSETの分析が指摘するように、フレームワークのセクションVはレギュラトリー・サンドボックスの設置、連邦データセットのAI学習への活用改善、既存の規制権限によるセクター別監督を推奨しているが、具体的にどうイノベーションを刺激し、障壁を減らし、デプロイメントを加速するかについては踏み込んでいない。「イノベーションを促進する」と書くことと、実際にそれを政策として実装することのあいだには、巨大な実行ギャップがある。連邦データセットの開放は有望な提案だが、データの品質管理、プライバシー保護、バイアスの問題をどう解決するかは未定のままだ。AIスタートアップの資金調達環境は活況を呈しており、2025年だけでAI関連の投資は全米で1000億ドルを超えた。だが中小企業にとって、規制の不確実性こそが最大のリスクであり、フレームワークの曖昧さはその不確実性を解消するどころか温存している面がある。NISTが2023年に発表したAIリスク管理フレームワークは自主的なガイドラインとして一定の評価を受けたが、法的拘束力がないため実効性に限界がある。フレームワークがNISTの取り組みをどう発展させるかについても、具体的な道筋は示されていない。
この「軽い手」のアプローチは、AIの地政学的競争の文脈で理解する必要がある。米国は中国とのAI覇権争いの真っ只中にある。過度な規制がアメリカ企業のイノベーション速度を落とせば、技術的優位性を失うリスクがある。フレームワークが繰り返し強調する「アメリカの優位性の確保」という文言は、規制の軽さが安全保障上の選択でもあることを示している。中国は2025年に生成AIに関する暫定規制を施行し、国家主導でAI産業を育成しつつコンテンツ統制を強化するという独自路線を進んでいる。2026年初頭には中国発のAIモデル「DeepSeek」が国際的な注目を集め、中国のAI開発能力が米国の想定以上に進んでいることを印象づけた。一方でEUは厳格なAI法により、域内企業が過度なコンプライアンスコストを負うリスクが指摘されている。米国のフレームワークは、中国式の国家統制とEU式の包括規制という二つの極端のあいだで、市場主導型の独自のバランスを模索する第三の道を提示している。その成否は、自主規制が社会的リスクを十分に管理できるかどうかにかかっている。(Cooley: White House Releases AI Regulatory Blueprint)
日本のAI政策にとって、米国の選択は重要な参照点だ。日本政府は「AI戦略2025」のもとで、リスクベースのアプローチを採用しつつも、EUほど包括的な規制には踏み込んでいない。経済産業省はAI事業者ガイドラインを改訂し、自主規制と業界団体による基準策定を促進する方針を維持している。米国がセクター別の既存規制に委ねるアプローチを取ったことは、日本にとって二つの意味を持つ。一つは、過度な規制による国際競争力の低下を避けたいという日本の方向性に親和的であること。もう一つは、AI技術の急速な進化に対して「既存の規制枠組みで本当に対応できるのか」という問いが、日米共通の課題として浮上していることだ。自動運転、医療AI、生成AIによるコンテンツ制作、AIによる雇用置換。これらの課題は既存のどの省庁の管轄にもきれいに収まらない。2025年のG7広島AIプロセスで合意された国際的なAIガバナンス原則と、各国の国内政策との整合性をどう確保するかも、今後の重要な論点となる。日本が米国寄りの「軽い規制」を選ぶのか、EU寄りの「包括規制」に近づくのか、あるいは独自の第三の道を歩むのか。その選択が、日本のAI産業の国際競争力と国民の権利保護の両方を左右することになる。
フレームワークの最大の強みと最大の弱みは、同じところにある。柔軟性だ。セクター別のアプローチは、各分野の特性に合わせた規制を可能にする。だが同時に、セクター間の隙間に落ちるリスク、規制の一貫性の欠如、そして「誰も責任を取らない」状況を生み出しかねない。AIシステムが複数のセクターにまたがって機能する場合、どの規制機関が監督するのか。大規模言語モデルが医療助言を行い、金融アドバイスを提供し、ニュース記事を生成し、子どもと対話するとき、FDA、SEC、FCC、FTCのうち誰がそのモデルを監督するのか。この「レギュレーション・ギャップ」の問題は、セクター別アプローチの構造的な弱点として、ブルッキングス研究所やスタンフォード大学HAIの研究者から繰り返し指摘されてきた。汎用AIモデルの規制は、特定のセクターに帰属させることが本質的に困難であり、フレームワークはこの根本的な問いに対する明確な答えを持っていない。実際、OpenAIやGoogleといった大手AI企業が提供するサービスは、教育、医療、金融、メディア、エンターテインメントなど無数の領域を横断しており、どの規制機関の管轄に属するかを一義的に決めることはできない。
「規制機関を作らない」は、決して「何もしない」ではない。だが、何をどこまでするかの具体性が欠けているのも事実だ。CSETの報告書が示すように、このフレームワークは「立法の青写真」であり、拘束力のある政策ではない。議会がこの提言をどこまで採用するかが、実際のAI規制の姿を決める。そして議会は、AI企業からのロビイング圧力と、AI被害者からの規制要求と、中国との競争圧力と、有権者のプライバシー懸念の間で、きわめて複雑な政治的方程式を解かなければならない。アメリカは「新しい規制機関を作らない」という賭けに出た。その賭けが吉と出るか凶と出るかは、AIの進化速度と政策対応の速度の競走の結果が教えてくれる。今のところ、AIの方が圧倒的に速い。私たちはその結末を、好むと好まざるとにかかわらず、リアルタイムで目撃することになる。
この記事を書いた人
灰島
30代の日本人。国際情勢・地政学・経済を日常的に読み続けている。歴史の文脈から現代を読むアプローチで、世界のニュースを考察している。専門家ではないが、誠実に、感情も交えながら書く。

コメント