AI法は「社会としてAIをどう使うか」を定める外側のルールで、AIガバナンスは「組織がAIを安全・公正に使う」ための内側の運用体制です。
EUではAI Actが2024年8月に発効し、禁止行為やAIリテラシーなどから順に適用が始まり、2026年8月に本格適用の節目を迎えます。
日本では、2025年9月1日に「AI法」が全面施行され、2025年12月には「人工知能基本計画」と「適正性確保に関する指針」が決定されました。
ただし、制度だけ追っても不十分です。実務では、AIの導入・運用のライフサイクル全体で、責任分担・説明・監視・教育を回すことが重要になります。
なぜ今、AI法とAIガバナンスが重要なのか
AIは「便利な道具」から「社会インフラ」に近い存在へ広がり、失敗したときの影響が大きくなったためです。
日本の「適正性確保に関する指針」でも、ハルシネーション(もっともらしい誤情報)や偏見・差別の助長、偽・誤情報、ディープフェイク等への対処が、研究開発機関や活用事業者の重要課題として明記されています。
また、実態データの一例として、スタンフォード大学のAI Index 2025は「AI Incident Database」に基づき、2024年の報告されたAI関連インシデントが233件で、前年比で大きく増えたと整理しています。
つまり「事故が増えた/見える化された」ことが、法制度とガバナンス整備を加速させています。
ここで重要な前提があります。AI法はすべてを法律だけで縛るのではなく、既存の個別法(個人情報、消費者保護、差別禁止、製品安全など)と組み合わせつつ、リスクに応じて管理を求める流れが主流です。
前提整理:AI法とAIガバナンスはどう違うか
AI法は「最低基準」と「社会的な責任の線引き」、AIガバナンスは「現場で回す仕組み」です。両者は対立ではなく補完関係です。
- AI法(法律・規制)の役割:
何が許されないか、誰が責任を負うか、透明性や安全性をどの水準で求めるかを、社会全体の共通ルールとして定めます。EU AI Actのように、禁止領域・高リスク領域・透明性義務などを段階設計する例があります。 - AIガバナンス(組織の運用)の役割:
AIを企画・調達・開発・提供・利用し、運用で監視し、事故対応し、改善する――このライフサイクル全体を回す体制です。日本の指針は、経営層の関与、情報開示、教育・研修、継続改善を含むプロセスとしてAIガバナンスを説明しています。
この記事の整理軸:
「ライフサイクル × 責任主体」で見ると、制度と実装がつながります。日本の「AI事業者ガイドライン(第1.2版)」は、主体を「AI開発者・AI提供者・AI利用者」に分け、10の共通の指針(人間中心、安全性、公平性、透明性、アカウンタビリティ等)として整理しています。
この主体の分解は、EU AI Actの「提供者/導入者」等の責任分担を理解する入口にもなります(完全に一致するわけではありませんが、考え方が近い点が多いです)。
よくある誤解も先回りしておきます。
「AIガバナンス=政府の統制」ではありません。企業・自治体・大学など、それぞれの組織が自分たちのAI利用を管理することがガバナンスです。
問題の実態:何が、どの程度起きているのか
AIの問題は「一部の暴走」ではなく、日常的な業務・サービスに入り込むことで地味に広がるタイプが多いです。
実態を捉えるのは簡単ではありません。国際的に統一された「AI事故統計」が常に整備されているわけではなく、メディア報道に基づくデータベース(AI Incident Database)や、国際機関によるモニタリング(OECDのAIM等)が観測装置として使われています。
ただ、リスクの代表例は一次情報でもかなり明確です。日本の「適正性確保に関する指針」は、偽・誤情報(ディープフェイク等)や偏見・差別、ハルシネーション、サイバー攻撃や詐欺への悪用、事業継続(障害時の復旧)といった論点を、具体的に挙げています。
また、UNESCOの「AI倫理に関する勧告」は、人権・尊厳を軸に透明性や公平性、人間の監督などを重視する国際的基準として位置づけられています。
ここから読み取れるポイントは2つです。
第一に、AIは技術問題だけでなく、人権や民主主義、法の支配といった社会制度と接続する問題になっています。
第二に、AIのリスクは「導入時」だけでなく「運用後」に顕在化しやすいので、継続的な監視と改善(PDCA)が本質になります。
原因構造:なぜ難しく、ガバナンスが必要になるのか
AIのリスクが管理しづらいのは、次の3つが同時に起きるからです。
第一に、複雑性と不確実性です。入出力が正しく見えても、内部の推論過程が説明しづらい、学習データや環境変化で挙動が変わる、といった特徴があるため、「いつ・どこで・誰に」影響が出るかが読みづらい。だから、透明性・検証可能性・責任の仕組みが求められます。
第二に、一般目的化(汎用化)と再利用です。汎用モデル(基盤モデル)や生成AIは、多用途に転用され、サプライチェーン上で再利用されます。そのため、開発者だけでなく提供者・利用者側にも、適切な利用や監視といった役割が生まれます。
第三に、越境性です。AIサービスは国境を越えて提供され、国際的な相互運用性(ルールの整合)がないと、企業も利用者も混乱します。そこで、G7の「広島AIプロセス」のような国際的なソフトロー(自主的指針)も重要になります。
海外ではどう対応しているのか
世界は大きく「包括法(EU型)」「行政指針+分野別(米国・英国型)」「特定用途を強く管理(中国型)」「国際指針(G7・OECD・UNESCO等)」が組み合わさって進んでいます。
欧州連合:EU AI Act(包括的・リスクベース、段階適用)
EUの一次情報として、欧州委員会は、AI Actが2024年8月1日に発効し、2026年8月2日に全面適用(ただし例外あり)と示しています。具体的には、禁止行為とAIリテラシー義務が2025年2月2日から適用、GPAI(汎用AI)モデルに関する義務が2025年8月2日から適用、高リスクのうち規制製品に組み込まれるものは2027年8月2日まで移行期間がある、という整理です。
また、禁止行為の実務適用については、欧州委員会がガイドライン(PDF)を公表しており、禁止規定が2025年2月2日から適用される旨も明記されています。
補足(誤解ポイント):EU AI Actは「AIを全部禁止」ではありません。最小リスクは原則として規制対象外で、リスクに応じて義務が変わる設計です。
EUは遵守を助ける仕組みも並行して整備しています。たとえばGPAIの遵守支援として、GPAI code of practice(自主的ツール)を2025年7月10日に公表したとしています。
米国:連邦レベルは方針変動が大きく、州規制とのせめぎ合いも
米国はEUのような単一の包括法が中心というより、行政方針・調達・既存法(消費者保護等)・州法が組み合わさる構造です。
一次情報で確認できる大きな動きとして、ホワイトハウスは2025年1月20日に、前政権の多数の大統領令等を撤回する文書の中に、2023年10月30日のAI関連大統領令(EO 14110)を含めています。
さらに2025年1月23日の大統領令では、撤回されたEO 14110に基づく政策等を見直す旨が書かれており、AIの安全・信頼の設計が政権によって動きうることがわかります。
2025年12月11日の大統領令では、州ごとの規制の「パッチワーク」を問題視し、最小限負担の全国的枠組みと州法の抑制(法的措置のタスクフォース等)を掲げています。
他方、政府が変動しても組織が使える共通言語として重要なのが、米国国立標準技術研究所のAI RMF 1.0です。AIの設計・開発・提供・利用者向けに、リスクを特定・評価・管理する枠組みを提示しており、2023年1月公表の文書として参照できます。
英国:原則ベースで既存規制当局が担う「プロ・イノベーション」
英国政府の白書は、既存の規制当局が分野ごとに対応しつつ、横断原則(安全、透明性、公平性、説明責任、異議申立て等)で整合を取るアプローチを示しています。
EUのように新法で横断規制を一気に作るというより、「分野の文脈に合わせて適用する」思想が強い点が特徴です。
中華人民共和国:生成AIなど特定領域での管理を強く求める
中国では、生成AIサービスに関する暫定措置(Interim Measures)が2023年8月15日に施行され、公共向け生成AIサービスに対する規律(内容管理、データ・安全等)を定めています。
このアプローチは、民主主義・人権中心の枠組み(EUや国際機関)とは目的や重点が異なる場合があるため、日本企業は「どの市場で、どの用途で提供するか」を切り分けて理解する必要があります。
国際枠組み:OECD・UNESCO・G7・欧州評議会
経済協力開発機構は2019年にAIに関する理事会勧告を採択し、信頼できるAIの原則を標準化しています。
欧州評議会は2024年9月にAIに関する枠組条約を署名開始し、AIのライフサイクルが人権・民主主義・法の支配と整合するよう求める「法的拘束力のある条約」と位置づけています。
なお同条約は、一定数の批准後に発効する設計であることが説明されています。
日本はこの条約に署名したことを外務省が公表しています。
日本の現在地:制度・運用の実情
日本は「開発・活用を推進しつつ、適正性(リスク)を確保する」二本柱を、法律(AI法)+計画(基本計画)+指針(適正性確保指針)+事業者向けガイドライン(AI事業者ガイドライン)で組み立てています。
日本のAI法(2025年9月1日全面施行)
内閣府の説明では、AIのイノベーション促進とリスク対応のため、2025年6月4日にAI法が公布・一部施行され、2025年9月1日に全面施行されたとされています。
法律の要点としては、AI戦略本部の設置(本部長=内閣総理大臣、構成員=全閣僚)、AI基本計画の策定、研究開発・人材・国際規範・指針整備、情報収集や権利利益侵害事案の分析・助言などが概要資料で示されています。
人工知能基本計画(2025年12月23日 閣議決定)
基本計画の概要では、(1)利活用の加速、(2)開発力強化、(3)AIガバナンスの主導、(4)AI社会への継続的変革という4つの基本方針が掲げられています。
ここで注目すべきは「AIガバナンスの主導」が明確に柱として書かれている点です。つまり日本は規制一辺倒ではなく、信頼性を高める基盤整備(評価や国際連携等)で競争力も狙う戦略です。
適正性確保に関する指針(2025年12月19日 人工知能戦略本部決定)
指針は、研究開発機関・活用事業者が特に取り組む事項として、AIガバナンス、透明性、安全性、事業継続、データ配慮などを列挙しています。
特に、ライフサイクル全体でのリスク特定・評価・対処、経営層のモニタリング、教育・研修、継続改善といった“運用の要点”が具体的です。
AI事業者ガイドライン(最新版:第1.2版、2026年3月31日)
経済産業省の掲載ページでは、AI事業者ガイドライン第1.2版を取りまとめ、活用の手引き等も公開したこと、最終更新日が2026年4月1日であることが明記されています。
概要資料では、主体をAI開発者・AI提供者・AI利用者に大別し、10の共通の指針として整理していること、またガイドラインがLiving Documentとして更新される方針であることが説明されています。
行政(公的利用)での生成AI:実務的なリスク対策資料も整備
デジタル庁は、行政サービス等で生成AIを利活用する際に想定されるリスクと対応策をまとめたガイドブック(α版)を公開しています。
これは民間企業にとっても、調達・運用におけるリスク観点(情報漏えい、誤情報、説明責任等)を整理する参考になります(位置づけは行政向けである点に注意)。
当事者別の影響整理
AI法とAIガバナンスは、「AIを作る人」だけでなく「AIを買う人・使う人」にも影響します。
個人(生活者)
影響が出やすいのは、(1)偽・誤情報やディープフェイク、(2)AIによる差別・不公平、(3)個人情報・プライバシー、(4)AI生成物の表示や誤認です。日本の指針は、ディープフェイク(偽動画、性的加工画像、なりすまし音声等)を例示し、危害防止や透明性確保を求めています。
企業(経営・現場)
ポイントは「法令の罰則」よりも、(1)取引上の要求(契約・監査対応)、(2)事故時の説明責任、(3)ブランド毀損、(4)越境対応(EU等)です。日本のAI事業者ガイドラインが、リスクベースアプローチや主体別の整理を前提に自主的取組の支援を掲げるのは、ここが実務の中心になるためです。
自治体・行政
国の基本計画は、政府・自治体でのAI利活用を進める方針を示しており、同時に調達・運用での透明性や適正性も論点になります。
海外展開企業(特にEU市場)
EU AI Actは段階適用で、2026年8月2日が本格適用の大きな節目です。EU域内でAIシステムを提供・利用する、あるいはEU市場に影響する形で提供する場合、役割(提供者/導入者等)に応じた義務が問題になります。
政策手段と実装の選択肢
選択肢は「法律で縛る」か「自主に任せる」かの二択ではありません。現実は、複数レイヤーの組み合わせです。
整理すると、次の4レイヤーが噛み合うと理解しやすいです。
レイヤー1:法律・規制(ハードロー)
EU AI Actのように、禁止領域や高リスク領域に義務を課し、監督・制裁も含める方法です。メリットは強制力と公平性、デメリットは制度設計・適用の複雑さや更新コストです。
レイヤー2:政府の指針・ガイドライン(ソフトロー)
日本のAI事業者ガイドラインや適正性確保指針は、最新技術に追随しやすく、行動目標や実践例で実装可能性を高めます。一方で、実効性は「企業が本気で回すか」に依存しやすい面があります。
レイヤー3:国際原則・国際協調(相互運用性)
OECD原則、UNESCO勧告、G7広島AIプロセスの指針などは、各国制度の土台や共通言語になります。越境ビジネスでは、このレイヤーを踏まえると整合を取りやすい。
レイヤー4:組織内のAIガバナンス(実務)
実務の中心はここです。国際標準としては、国際標準化機構の枠組みであるISO/IEC 42001(AIマネジメントシステム)が、AIのリスクと機会を組織的に扱う標準として紹介されています。
さらに、米国NISTのAI RMF 1.0のような枠組みも、法域をまたいで参照されやすい実務ツールです。
実装上の壁とトレードオフ
AIガバナンスは「正しさ」だけでなく、「続けられる設計」がないと形骸化します。
壁になりやすいのは、
(1)責任の所在が曖昧(誰が最終判断するか)
(2)コスト(人材・監査・セキュリティ)
(3)サプライチェーン(ベンダーAIの説明不足)
(4)現場のリテラシー格差
です。
日本の指針が、経営層の関与や教育・研修、情報開示、継続改善を含む組織プロセスとしてAIガバナンスを述べているのは、この壁を前提にしているからです。
加えて、EU AI ActでもAIリテラシーが早期に適用される領域として整理されており、教育は後回しにできない流れが国際的に強まっています。
今後のシナリオと評価の視点
2026年は制度が出そろうより、適用が本格化して現場対応が問われる年です。
・現状維持シナリオ(最低限のルール整備)
社内規程だけ作り、現場は各自判断。短期コストは低いものの、事故時の説明責任・再発防止が弱くなりがちです。日本の指針が求めるライフサイクル管理や継続改善が回らず、結果的に損失が膨らむリスクがあります。
・部分改革シナリオ(高リスク用途だけ強化)
採用・与信・医療・教育など影響の大きい用途や、対外提供する生成AIから先に、審査・ログ・監視・教育を整備する。リスクベースアプローチに沿いやすく、AI事業者ガイドラインの整理とも相性が良いです。
・制度再設計シナリオ(全社的AIマネジメントへ)
ISO/IEC 42001やNIST AI RMFの思想も参照しつつ、ガバナンスを内部統制として組み込み、調達・開発・運用・監査・インシデント対応まで統合する。初期コストは大きい一方、越境規制(EU AI Act等)や大口顧客の監査要求に耐えやすくなります。
評価の視点(見るべき指標の例)
日本の基本計画は、AI利活用の促進と同時に、AIガバナンスや評価基盤強化も柱にしています。そこで組織としては、
(1)利用実態(どこで使っているか)
(2)事故・ヒヤリハット
(3)教育到達
(4)説明可能性(説明できる案件割合)
(5)外部要求(監査・契約)への対応力
を定点観測するのが実務的です。
よくある疑問Q&A
Q:AI法ができると、生成AIは使えなくなる?
A:多くの制度は「一律禁止」ではなく、リスクに応じて義務や管理を求める設計です。EU AI Actもリスクベースで、禁止領域は限定され、他は透明性や高リスク義務など段階的です。
Q:日本のAI法は、EU AI Actみたいに企業に罰則を直接課す法律ですか?
A:日本のAI法は、AI戦略本部やAI基本計画、指針整備など、推進と適正性確保を国として総合的に進める枠組みを中心に設計されています(罰則中心の横断規制というより、政策推進とガバナンスの基盤づくりの色合いが強い、という読みが自然です)。
Q:会社で最初に作るべきAIガバナンスの最小セットは?
A:一次情報の趣旨に沿うと、
①利用・提供の棚卸し(どこでAIを使うか)
②リスク評価(差別・誤情報・情報漏えい等)
③責任者とエスカレーション
④教育・研修
⑤監視と改善(継続改善)
の5つが最小単位です。日本の指針はこれらをライフサイクル全体のプロセスとして求めています。
Q:「AI事業者ガイドライン」は守らないと違法?
A:ガイドライン自体は、法律の条文ではなく、事業者の自主的取組を支援する性格の文書として整理されています。一方で、取引先や社会からの説明責任(なぜこの運用にしたか)で参照される可能性は高いです。
Q:EU AI Act対応は、いつから準備すべき?
A:2026年8月2日に全面適用(例外あり)という節目があるため、EU市場に関わる企業は少なくとも2026年前半までに、役割整理(提供者/導入者等)と高リスク該当性、透明性対応、契約・監査対応を準備するのが現実的です。
参考
- 欧州委員会・2026・AI Act | Shaping Europe’s digital future・European Commission・
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai・閲覧日 2026-04-07 - 欧州委員会・2025・AI Act Service Desk FAQ・European Commission・
https://ai-act-service-desk.ec.europa.eu/en/faq・閲覧日 2026-04-07 - European Commission・2025・Guidelines on prohibited artificial intelligence practices (Regulation (EU) 2024/1689)・European Commission(PDF)・
https://ai-act-service-desk.ec.europa.eu/sites/default/files/2025-08/guidelines_on_prohibited_artificial_intelligence_practices_established_by_regulation_eu_20241689_ai_act_english_ied3r5nwo50xggpcfmwckm3nuc_112367-1.PDF・閲覧日 2026-04-07 - European Commission・2025・The General-Purpose AI Code of Practice・European Commission・
https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai・閲覧日 2026-04-07 - 内閣府・2025・人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)・内閣府・
https://www8.cao.go.jp/cstp/ai/ai_act/ai_act.html・閲覧日 2026-04-07 - e-Gov(日本)・2025・人工知能関連技術の研究開発及び活用の推進に関する法律(令和7年法律第53号)・e-Gov法令検索(PDF)・
https://laws.e-gov.go.jp/data/Act/507AC0000000053/624018_1/507AC0000000053_20250901_000000000000000_h1.pdf・閲覧日 2026-04-07 - 内閣府・2025・人工知能基本計画(概要)・内閣府(PDF)・
https://www8.cao.go.jp/cstp/ai/ai_plan/aiplan_g_20251223.pdf・閲覧日 2026-04-07 - 内閣府・2025・人工知能関連技術の研究開発及び活用の適正性確保に関する指針・内閣府(PDF)・
https://www8.cao.go.jp/cstp/ai/ai_guideline/ai_gl_2025.pdf・閲覧日 2026-04-07 - 経済産業省・2026・AI事業者ガイドライン(第1.2版)掲載ページ・経済産業省・
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20260331_report.html・閲覧日 2026-04-07 - 総務省・経済産業省・2026・AI事業者ガイドライン(第1.2版)概要・(PDF)・
https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_2.pdf・閲覧日 2026-04-07 - デジタル庁・2025・テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)・デジタル庁・
https://www.digital.go.jp/resources/generalitve-ai-guidebook・閲覧日 2026-04-07 - 米国国立標準技術研究所・2023・Artificial Intelligence Risk Management Framework (AI RMF 1.0)・NIST(PDF)・
https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf・閲覧日 2026-04-07 - The White House・2025・Initial Rescissions Of Harmful Executive Orders And Actions・The White House・
https://www.whitehouse.gov/presidential-actions/2025/01/initial-rescissions-of-harmful-executive-orders-and-actions/・閲覧日 2026-04-07 - The White House・2025・Removing Barriers to American Leadership in Artificial Intelligence・The White House・
https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/・閲覧日 2026-04-07 - The White House・2025・Ensuring a National Policy Framework for Artificial Intelligence・The White House・
https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/・閲覧日 2026-04-07 - UK Government・2023・A pro-innovation approach to AI regulation(White Paper)・GOV.UK・
https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper・閲覧日 2026-04-07 - UNESCO・2022(最終更新2023)・UNESCO adopts first global standard on the ethics of artificial intelligence・UNESCO・
https://www.unesco.org/en/articles/unesco-adopts-first-global-standard-ethics-artificial-intelligence・閲覧日 2026-04-07 - 経済協力開発機構・2019・Recommendation of the Council on Artificial Intelligence・OECD Legal Instruments・
https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449・閲覧日 2026-04-07 - 外務省・2023・Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI Systems・外務省(PDF)・
https://www.mofa.go.jp/files/100573471.pdf・閲覧日 2026-04-07 - 外務省・2023・Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems・外務省(PDF)・
https://www.mofa.go.jp/files/100573473.pdf・閲覧日 2026-04-07 - Council of Europe・2024・Council of Europe opens first ever global treaty on AI for signature・COE Portal・
https://www.coe.int/en/web/portal/-/council-of-europe-opens-first-ever-global-treaty-on-ai-for-signature・閲覧日 2026-04-07 - 外務省・2025・Signing of the Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law・外務省・
https://www.mofa.go.jp/press/release/pressite_000001_00983.html・閲覧日 2026-04-07 - Stanford HAI・2025・The 2025 AI Index Report(Responsible AI等)・Stanford HAI・
https://hai.stanford.edu/ai-index/2025-ai-index-report・閲覧日 2026-04-07 - Stanford HAI・2025・Artificial Intelligence Index Report 2025(PDF)・Stanford HAI・
https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf・閲覧日 2026-04-07 - ISO・2023・ISO/IEC 42001:2023 – AI management systems・ISO・
https://www.iso.org/standard/42001・閲覧日 2026-04-07 - 経済産業省・2024・AIマネジメントシステムの国際規格が発行されました(ISO/IEC 42001)・経済産業省・
https://www.meti.go.jp/press/2023/01/20240115001/20240115001.html・閲覧日 2026-04-07 - Interim Measures(英訳資料)・2023・Interim Measures for the Management of Generative Artificial Intelligence Services・Air University CASI(PDF)・
https://www.airuniversity.af.edu/Portals/10/CASI/documents/Translations/2023-08-07%20ITOW%20Interim%20Measures%20for%20the%20Management%20of%20Generative%20Artificial%20Intelligence%20Services.pdf・閲覧日 2026-04-07

コメント