本記事は、「AIと著作権」「生成AI」「作者(著作者)」「オリジナリティ(創作性)」「模倣」「学習と生成の違い」「学習データ」「依拠性・類似性」「RAG(検索拡張生成)」といった検索キーワードで情報を探している一般読者に向け、一次資料ベースで体系立てて整理します。日本では、文化審議会の整理(「AIと著作権に関する考え方について」)が、学習段階・生成段階・利用段階を分けて、どこで著作権の判断が問題になるかを論じやすい形で示しています。
結論を先に言うと、生成AI時代の「作者」は道具を使う人間/組織に戻ってきます。AIは法的な人格を持たないため、AIが著作者になるわけではなく、AIを用いて著作物を創作した人が著作者になり得る、という整理が一次資料で明示されています。一方で、プロンプトが長い/試行回数が多いだけでは創作的寄与にならない可能性があるなど、オリジナリティの判断は「人がどこまで表現をコントロールし、どこに創作的寄与があるか」に実務上収れんしていきます。
世界に目を向けると、①訴訟とフェアユース(特に米国)、②テキスト・データマイニング(TDM)例外+透明性義務(特にEU)、③ライセンス/オプトアウト設計を含むコンサル・制度再設計(英国・カナダ等)という複数路線が同時進行しています。EUでは、一般目的AI(GPAI)モデルの学習データ概要を公開させる仕組みが、2025年8月から段階的に動き出しました。雇用・経済面では、AIが世界の雇用の相当部分に影響するという推計(例:世界の雇用の約40%がAIの影響を受け得る)が公式機関から出ており、著作権の論点は「文化・創作の価値」だけでなく「労働市場・競争力・透明性・地政学」に波及しています。
導入と概要
この記事で扱う「作者」「オリジナリティ」とは何か
著作権の議論でいう「作者」は、法律用語では「著作者」に近い概念です。日本の一次資料でも、著作者は「著作物を創作する者」であり、著作物は「思想又は感情を創作的に表現したもの」と整理されています。
ここで重要なのは、「うまい・新しい・売れる」などの評価軸ではなく、「創作的に表現したか(創作性)」が基礎になる点です(一般向けの公式教材でも、価値や巧拙とは切り分けて説明されています)。
「オリジナリティ」も、日常語の完全な新規性ではなく、著作権上は「創作性」=(大ざっぱに言えば)作者の個性が表れた表現かどうか、という低めの閾値で語られるのが実務の出発点です。一次資料でも、AI生成物が著作物に当たるかは著作物の定義に当てはまるかで判断し、AIは著作者になり得ない、という枠組みが明示されています。
「学習」と「生成」を分けないと議論が破綻する
生成AIをめぐる混乱の多くは、「学習(訓練)」と「生成(推論・出力)」、さらに「生成物の利用(公開・販売・配布など)」を混同することで起きます。日本の整理はまさにこの点を強調し、生成段階と利用段階で、それぞれ権利制限規定(例外)の適用を別々に検討すべきだと述べています。
したがって、検索でよく見る「学習が合法なら生成も合法/学習がグレーなら全部アウト」といった二分法は、一次資料ベースでは成立しません。
生成AIの技術を最低限どう理解するとよいか
日本の一次資料は、技術を法律と接続するための範囲に絞って説明しています。たとえば、生成AIの開発は大量データの情報解析による学習で進み、生成は学習したパターン等と入力指示の解析結果に基づいて行われる、という概略が示されます。
特にテキスト生成について、「単語の出現確率計算を繰り返す」ことで生成が行われ、通常は学習データの切り貼りで生成するものではない、という説明が一次資料に含まれます。
ただし、ここで「切り貼りではない=既存作品が出てこない」と短絡しないことも重要です。一次研究では、言語モデルや拡散モデルが学習データを記憶し、条件次第で学習例が抽出され得る(丸ごと/ほぼそのままが出る可能性がゼロではない)ことが示されています。
世界の現状
欧州連合(EU):TDMの制度設計と「透明性」の義務化が先行
EUでは、著作権側に「テキスト・データマイニング(TDM)」の例外規定があり、研究目的(Article 3)と、より一般のTDM(Article 4)を分けて設計しています。一般TDMは「適法にアクセスできる著作物等」を対象にしつつ、権利者が適切な方法(オンラインなら機械可読な方法など)で権利留保(オプトアウト)している場合は例外が使えない、という条件が条文上明確です。
一方、AI規制側(AI Act)では、一般目的AI(GPAI)に関する義務が段階適用になっており、GPAIの義務は2025年8月2日から適用される、とEU公式ページで整理されています。
この流れの中で、EUは「学習に用いたコンテンツの要約(Summary of Training Content)」を公開させるテンプレートを整備し、権利者が権利行使しやすくする、という透明性による市場設計を強く押し出しています。
ここで重要なのは、EUが「どうせ違法か合法か裁判で決まる」だけでなく、学習データの出所や類型(公開データセット、オンラインスクレイピング、ユーザーデータ、合成データ等)を一定の粒度で開示させることで、権利者・利用者・規制当局の交渉と監督の前提条件を整えようとしている点です。
またGPAI向けの任意の行動規範(Code of Practice)が「安全・透明性・著作権」順守の実務手段として位置づけられ、署名企業名を含めてEU側が公表しています(例:OpenAI、Google、Microsoft、Anthropic など)。
アメリカ合衆国:フェアユースの訴訟フロンティアと「人間の著作性」確認
米国は、立法で一気に整理というより、フェアユースと訴訟(+行政ガイダンス)で境界線が動く構図が強いです。米国の米国著作権局は、生成AIを用いた作品の著作物性(copyrightability)についてレポートを公表し、AI生成物が著作権で保護されるかどうかは「人間の著作性」が中心になる、という枠組みで論点を整理しています。
象徴的なのは、完全にAIが生成したとされる作品の登録をめぐる争いが最高裁まで行き、2026年3月2日、合衆国最高裁判所が審理を受けない判断をした(下級審の「人間の著作性」要件が維持された)という報道です。申立人はStephen Thalerとされています。
同時に、学習段階(training)については、米国著作権局レポート(Part 3)が、著作権で保護された作品を含む大量データが使われること、その適法性が激しく争われており、米国内に多数の訴訟が係属していることを前提に議論しています。
この「作者」をめぐる筋道は、一般読者向けにまとめると次のようになります。
米国でも、AIが自動で作っただけの成果物は誰の著作物かを立てにくい。一方で、人がAIを道具として使い、人の創作的寄与が認められる部分があるなら保護され得る、という整理が行政資料の中心になります。
イギリス:「学習は争点」+コンピュータ生成物を制度ごと再点検
英国政府は、AIと著作権の関係について「学習への著作権法の当てはめが争点になっており、権利者はコントロールと報酬を求め、開発側は不確実性を問題視している」と、公式コンサル資料で明確に認めています。
そのうえで、権利者の権利留保(reserve)を軸にした例外設計や、透明性の前提整備を検討していることが読み取れます。
英国がやや特殊なのは、著作権法上「computer-generated works(CGW)」という枠組みがあり得る点です。公式資料は、(人間の作者がいない状況で)コンピュータ生成された一定の著作物について、50年の保護や「必要な手配をした者」を作者とみなす仕組みがある、と説明しています。
ただし同じ資料が、CGWは「作者の知的創作(author’s own intellectual creation)」という現代的なオリジナリティ概念と緊張関係があり、条文内に矛盾があるように見える、とも指摘しており、ここを制度として続けるのか/外すのかを改めて問うています。
さらに英国では、Data (Use and Access) Act 2025に基づく進捗報告で、2026年3月18日までに影響評価と報告書を公表する予定(このテーマが制度改正と直結する政策ロードマップに載っている)こと、そしてコンサルへの回答が1万件規模に達したことが公式に示されています。
カナダ:政府コンサルで「TDM・作者性・責任」が主要論点に
カナダは、政府(Innovation, Science and Economic Development Canada)の公式コンサルで、生成AIと著作権の論点を「TDM(学習)」「AI生成物の作者性・権利帰属」「侵害と責任」に整理し、その意見集約(What we heard report)を公開しています。
一次資料上、TDMをめぐる意見は真っ二つです。権利者側は「同意・表示(クレジット)・補償」を強く求め、他方で技術・利用者側の一部は「TDMは作品の表現を享受するのではなく、統計的パターン等を学ぶ非表現的行為で、著作権を実質的に作動させない」と主張します。
それでも「AI生成物を著作権で保護するには、人間の実質的な作者性が必要だ」という点には一定の一致があった、と政府資料はまとめています。
中華人民共和国:裁判所が「AI生成画像の著作物性」を肯定した事例
中国では、AI生成画像が「著作物」になり得るかが裁判で具体的に論じられています。北京インターネット法院の英文判決は、原告がプロンプトやパラメータ設定を行い、生成過程を再現できること等を踏まえ、当該画像が独創性(originality)要件を満たし、原告が著作者・著作権者であると判断した旨を述べています。
同判決は、AIを使ったこと自体で直ちに著作物性が否定されるのではなく、「人の個性的表現が認められるか」を軸に判断している点で、実務上の示唆が大きいです。
大韓民国:登録実務ガイドで「人の創作」と境界線を明文化
韓国では、文化体育観光部と韓国著作権委員会(KCC)が、生成AI支援作品の著作権登録に関するガイドを公表しています。そこでは「著作物には人間の創作が必要」であり、完全自動のAI出力は原則として著作物にならない一方、AIを道具として使い、人の創作的寄与が認められる場合は保護され得る、という線引きが示されています。
また、プロンプト入力だけでは創作的寄与が認められにくい(コントロール可能性や予測可能性の乏しさが理由になり得る)という形で、実務判断の考え方まで踏み込んで説明している点が特徴です。
日本の現状
「一次資料パッケージ」が揃っているのが最大の特徴
日本の強みは、裁判例の蓄積がまだ乏しいと認めつつも、文化審議会での整理(考え方)と、その運用・周知のための解説・チェックリストがセットで公開され、「学習→生成→利用」を分けて検討する読み筋が一次資料として提供されている点です。
しかも、資料自体が「法的拘束力を持つものではなく、個別具体の事案は本来司法判断による」という注意書きから始まり、一次資料でありながら確定解のふりをしない設計になっています。
加えて、2024〜2025年にかけて、権利者団体・AI事業者等の対話の場(関係者ネットワーク)が文化庁と経済産業省の連名で整理され、ライセンスや海賊版対策、望ましいデータセットの形などをテーマに会合が行われたことが公表されています。
これは「法律解釈」だけでは片づかない領域(データセットの設計、契約、海賊版排除、透明性)を政策と市場で埋めに行く動きとして読むことができます。
学習段階:著作権法30条の4(非享受目的)をどう読むか
日本の議論の核は、学習段階で生じる複製等が、著作権法30条の4(非享受目的の利用)で原則許諾不要になり得る、という設計です。解説資料は、30条の4が「思想又は感情の享受を目的としない」利用を広く権利制限の対象にしていると説明し、AIの学習データとして著作物を収集(複製)する例などを挙げています。
また、2019年の「柔軟な権利制限規定」に関する基本資料でも、30条の4が「享受」を目的としない行為を広く対象にし、享受の有無は利用態様や経緯など客観事情も含め総合考慮される、と整理されています。
ただし重要な落とし穴が2つあります。
第一に、目的が複数ある場合に「享受目的が1つでも混じると30条の4が外れる」という説明が、一次資料で明確です。
つまり「学習だから全部OK」という単純化はできません。
第二に、30条の4には「著作権者の利益を不当に害する場合は適用しない」というただし書があります。一次資料は、著作物の利用市場との衝突や潜在的販路の阻害などを観点に、諸事情を総合考慮して判断すべきだと述べています。
そして一例として、情報解析向けに整理されたデータベース(学習用データとして売られているようなもの)を無許諾で複製等する行為が、ただし書に該当し得る例として挙げられています。
ここから導ける実務の読みは、次の通りです。
「市場として提供されている学習用データセット(またはそれに類する商品・サービス)を、無断で学習のために吸い上げる」行為は、単に解析だから無害では済まず、ただし書の射程に入る可能性が高い。一次資料はここを、権利者側の法的に防ぎ得る余地として明示しています。
生成段階・利用段階:「著作権侵害」はどこで成立するのか
一次資料は、生成AIの生成・利用段階でも、プロンプト入力に伴う複製、類似生成物の生成、生成物の利用など、著作物の利用行為があり得るため、権利制限規定が適用される場合がある一方、適用外で許諾が必要になる場合もある、と整理します。
ここで一般読者が押さえるべきは、「侵害かどうかは最終的に個別具体(ケース)で決まる」が、論点の棚卸しはできるということです。
特に頻出の論点が、RAG(検索拡張生成)です。一次資料は、RAG等を実装する場合に、既存データ(DBやWeb)を検索し、その内容をベクトル化したDBを作る過程で複製等が生じ得ることを指摘し、その複製等が「創作的表現を出力することを目的としない」なら30条の4が適用され得る一方、出力を目的とするなら30条の4が外れ得る、と踏み込んでいます。
さらに、30条の4が使えない場合でも、47条の5(情報処理結果の提供に付随する軽微利用等)の適用可能性があるが、「軽微利用」の範囲を超えると原則許諾が必要、という線引きも明示しています。
この整理は、検索意図でよくある「RAGなら安全?」への最短回答になります。
RAGだから安全なのではなく、「既存著作物の創作的表現をどの程度、どんな精度で出す設計か」「それは付随か/主目的か」「軽微利用か」を見て判断する、というのが一次資料のロジックです。
生成AI時代の「作者」:AI生成物の著作物性はどう判断されるか
一次資料は、AI生成物が著作物に該当するかは著作物の定義に当たるかで判断し、AIは人格がないので著作者になれない、と明示します。
では「人が著作者になれるのはどんなときか」。一次資料は、共同著作物の裁判例等も踏まえつつ「指示がアイデアにとどまるなら著作物性は認められない」と述べ、判断要素の例として、プロンプトの分量・内容、生成の試行回数、複数生成物からの選択などを挙げます。さらに「試行回数が多いこと自体」は創作的寄与に影響しない可能性がある、といったありがちな誤解に釘を刺しています。
この考え方は、米国著作権局が「AI生成物の保護は人間の寄与部分を中心に考える」と整理している点とも整合的です(法制度は異なりますが、作者性の直感は近い)。
また韓国の登録ガイドでも、完全自動出力は著作物にならず、人の創作的寄与(編集・修正・選択配置など)が認められる部分が対象になる、という線引きが示されています。
模倣(作風・画風)はどこまで問題か:「アイデア」と「表現」の境目
ここが、生成AI時代の感情的な対立が起きやすいポイントです。一次資料は、作風・画風など「アイデア等が類似するにとどまる」場合、既存著作物との類似性が認められない生成物は著作権侵害にならない(少なくとも著作権法30条の4のただし書適用とは直結しない)という趣旨を述べています。
ただし同時に、それが第三者の営業上の利益や人格的利益等を侵害する態様なら、不法行為や人格権侵害の責任が問題になる可能性がある、とも明示しています。
さらに、特定クリエイターの少量作品だけを追加学習する(例:意図的な過学習、LoRA等)ケースでは、単なる作風にとどまらず創作的表現が共通する作品群になり得るため、追加学習の段階で享受目的が併存し得る/生成物が侵害になり得る点に配意すべき、と踏み込みます。
この部分が、単なる「作風模倣」と「特定作者の作品そのものを狙い撃つ設計」の線引きになります。
社会的な争点:パブリックコメントが示す「分岐点」
一次資料の価値は、結論だけでなく「どこで意見が割れているか」も見えることです。パブリックコメントの主な意見のまとめ資料では、素案が有益だという評価と、AI開発側が萎縮するといった懸念が併存していることが読み取れます(資料自体が主な意見で、網羅ではない点にも注意書きがあります)。
つまり日本でも、「著作権による権利保護」と「AI開発・利用の予見可能性」をどう両立するかが争点であり、一次資料はその衝突を隠さず、論点を切り分けて提示しています。
経済・社会・地政学への影響
労働市場:生成AIは「仕事を消す」より「仕事を作り替える」比率が高い
国際通貨基金(IMF)は、AIが世界経済を変え、世界の雇用の約40%がAIの影響を受け得る、と発信しています。
また同機関は2026年の別の発信でも、同程度の規模感(世界の仕事の相当部分がAIで変化する)の問題意識を繰り返しています。
国際労働機関(ILO)は、生成AIが職務を「代替」するより「補完(augment)」する影響が大きいという見立てを早い段階から示し、2025年には職業タスクベースで精緻化した指数を公表しています。
ここで現実に起きるのは、職種そのものの消滅よりも、仕事の中身(タスク配分)の組み換えです。一次資料と統計が示すこの方向性は、創作分野でも同型で、「制作作業」より「企画・編集・選択・文脈づけ・責任」の価値が上がりやすい、という構造を説明する助けになります。
クリエイティブ産業:価値が「作品」から「データと権利処理」にも移る
英国の公式コンサル資料は、クリエイティブ産業が大きな経済価値を持つ(政府推計のGVA等)ことを具体的数字で示しつつ、AIと著作権の不確実性が投資や成長を阻害し得る、と述べています。
このように、創作の価値は文化であると同時に産業であり、生成AIはそのど真ん中に入り込む汎用技術です。
日本でも、関係者ネットワークで「ライセンス」「海賊版排除」「望ましいデータセット」などがテーマ化されていること自体が、価値の焦点が「作品の無断利用」だけでなく、「合法なデータ流通と対価還元の仕組み」へ拡張している証拠です。
地政学:学習データの透明性が「競争力」と「規制摩擦」の両方を生む
地政学というと大げさに聞こえますが、実務的には「どの市場のルールでAIモデルを提供できるか」という話です。EUはGPAIに関する義務を2025年から走らせ、学習データ要約の公開を求め、しかもオープンソース形態のモデルにも適用され得ると明記しています。
これは、EU市場で商用展開する企業にとって、透明性対応が市場参加コストになります。
他方で、透明性を上げるほど、権利者が権利行使しやすくなり、ライセンス市場が形成されやすくなります。EUのテンプレートFAQ自体が、透明性が正当な利害関係者(例:著作権者)の権利行使を助けるためだと述べています。
この結果、企業は「地域ごとに異なる法制度・透明性要求」に合わせてプロダクト設計やデータ調達を変える必要が出てきます(=規制摩擦)。
さらに、学習データそのものが締め付けられる動きも観測されています。スタンフォード大学のAI Index 2025は、基盤モデル開発の透明性指標が改善した一方で、データアクセス制限が動いていることを示しています。
ここまで来ると、著作権は単なる権利保護の話ではなく、「データ調達能力=国家・企業の競争力」に接続します。
今後の課題と展望
最大の未確定点は「学習はどこまで許され、どう償うのか」
日本の一次資料は、判例が乏しい現状を認めつつ、解釈の一定の考え方を示す必要があったと述べています。
米国著作権局も、学習段階の適法性(フェアユース等)を中心に訴訟が多数係属し、各国で法律提案・制定が進んでいると整理しています。
つまり世界的に見ても、まだ収束したルールはありません。
この未確定点は、制度の選択肢が大きく3つに分岐していることも意味します。
第一に、(米国型)裁判でフェアユース等の境界を詰める。
第二に、(EU型)TDMの例外+権利留保+透明性で、市場交渉の前提を整える。
第三に、(英国・カナダ型)コンサルと影響評価を挟み、ライセンス/オプトアウト/透明性のパッケージを制度設計として組み直す。
透明性と営業秘密のトレードオフは「制度化」されていく
EUのテンプレートFAQは、透明性が権利者の権利行使に資する一方で、営業秘密や機密情報の保護も考慮して、データソース類型によって求める詳細度を変える、と説明しています。
これは、透明性が単なる倫理論ではなく、制度的に「どの粒度なら市場が回るか」という設計問題になっていることを示します。
日本のチェックリスト&ガイダンスも、AI開発者が学習データの出所や収集ポリシーなどを可能な限り情報提供することが、利用者の侵害リスク低減に有益である、と具体的に述べています(営業秘密との関係にも触れています)。
したがって、2026年時点の現実的な展望は、「完全な開示」でも「完全な秘匿」でもなく、限定開示の標準化(テンプレ化)が進む、です。
技術的に「似すぎ」を抑える責任は誰が負うのか
日本の一次資料は、原則として侵害責任は生成AIを実際に使った者が負うが、一定の場合に開発者・提供者が責任主体と評価される可能性がある、とし、その可能性を高める要素(侵害物が高頻度で生成されるのに抑止措置を取らない等)も具体的に整理しています。
さらに、チェックリストでは「類似物の生成防止措置」や、それを利用規約設計・利用者判断に活かすための情報提供の重要性が述べられています。
技術面では、そもそもモデルが学習データを記憶し得るという研究があるため、ゼロリスク化は難しいです。
だからこそ、制度論は適法性の線引きだけでなく、①侵害が起きにくい設計、②起きた時の対応(削除・差止・データ除外等)、③透明性と説明責任、の三点セットで組まれていく可能性が高いです。
よくある疑問Q&A
Q:生成AIの学習は違法ですか
A:一律には言えません。日本の一次資料では、AI学習を含む情報解析目的の利用が著作権法30条の4に当たり得る、という整理が示されています。
ただし、「享受目的が併存する場合は適用されない」こと、さらに「著作権者の利益を不当に害する場合は適用されない」というただし書があることが明示されており、目的・態様・市場への影響で結論が変わります。
したがって検索で見かける「学習は合法/違法」という断定は、一次資料ベースでは危険です。
Q:生成AIの出力に著作権は発生しますか
A:発生し得ますが、ポイントは「人間の創作的寄与」です。日本の整理は、AIは著作者になれず、AI生成物が著作物に当たる場合でも著作者はAIを利用して著作物を創作した人になり得る、と述べます。
同時に、プロンプトがアイデアにとどまる場合は著作物性が認められない可能性がある、とも述べています。
海外でも、米国著作権局の整理や韓国の登録ガイドは、人間の寄与がない自動出力は保護されない方向で線引きしています。
Q:「プロンプトを工夫した」だけで作者になれますか
A:工夫=作者とは限りません。日本の一次資料は、長大な指示でもアイデアにとどまるなら創作的寄与にならない可能性がある、試行回数が多いこと自体は創作的寄与に影響しない可能性がある、と述べています。
米国著作権局レポートでも、プロンプトのみで出力に著作権を与えることへの慎重な議論が示されています(詳細は制度差がありますが、少なくともプロンプトだけでOKが常識化しているわけではありません)。
Q:「〇〇風」「〇〇っぽい」生成は著作権侵害ですか
A:一次資料上、作風・画風などアイデア等が類似するにとどまる生成物は、既存著作物との類似性が認められない限り、著作権侵害には直結しません。
ただし、特定作者の少量作品を追加学習してその作者の作品群の創作的表現が直接感得できる出力が出やすい設計(意図的過学習やLoRA等)では、学習段階でも享受目的が併存し得る、生成物が侵害になり得る、と一次資料が注意を促しています。
また、著作権以外(不法行為、人格権等)が問題になるケースもあり得る、と一次資料は明示しています。
Q:RAGなら著作権は気にしなくていいですか
A:気にする必要があります。一次資料は、RAG等のために既存著作物をベクトル化してDB化する過程で複製等が生じ得ること、さらに回答生成で既存著作物を利用する場合、47条の5の適用があり得るが「軽微利用」を超えると原則許諾が必要、など、条件を細かく示しています。
RAGは「学習をしないから安全」ではなく、「検索して持ってきた既存著作物を、どの程度見せる設計か」が中心論点です。
Q:生成AIに本文や画像を入力して指示するとどうなりますか
A:日本の整理では、プロンプト入力に伴う複製等は30条の4の適用が考えられる、としつつも、入力した著作物と類似する生成物を生成させる目的で著作物を入力する行為は享受目的が併存し得るため、30条の4が適用されない、と述べています。
つまり、他人の作品をその作品っぽく出すために貼り付けるようなやり方は、一次資料のロジックではリスクが高い側に寄ります。
Q:自分の作品がAI学習に使われている気がします。何ができますか
A:一次資料のチェックリストは、権利者が取り得る選択肢として、robots.txt等の技術的手段や、学習用データとして販売(ライセンス提供)しておくことにより、無許諾学習を法的に防ぎ得る可能性を示しています。
ただし、robots.txt等は技術的にクローラを抑止し得る一方で万能ではなく、海外事業者や悪質な収集への実効性は状況に依存します(ここは一般論として限界があります)。
また、既存著作物との高度の類似性がある場合などには、依拠性の立証や、場合によっては学習データの開示を求める手続が問題になることが一次資料に示されています。
個別案件は事実認定が重くなるため、ここは「弁護士等に相談すべき領域」です(本記事は一般情報です)。
Q:「学習データを開示してほしい」は現実的ですか
A:EUでは、学習に用いたコンテンツの要約公開を制度として求める方向が明確で、いつから適用されるかまで公式に示されています(2025年8月2日適用、既存モデルには猶予など)。
日本のチェックリストでも、学習データの出所等の情報提供が利用者の侵害リスク低減に有益であり、技術的可否や営業秘密を考慮しつつ可能な限り努めることが望ましい、と述べています。
したがって「全面開示」は難しくても、「一定形式での限定開示(テンプレ開示)」は各国で現実解になりつつあります。
結論と読者への提案
まとめ
生成AI時代の「作者」とオリジナリティは、感情的には「AIが盗んだ/AIは学習だ」の対立に見えますが、一次資料ベースでは、次の3点に収れんします。
第一に、行為を分ける(学習・生成・利用)。一括で断定しない。
第二に、作者性は人間の創作的寄与で判断する。プロンプトの長さや試行回数は万能な根拠にならない。
第三に、制度は「適法/違法」の線引きだけでなく、透明性・ライセンス・抑止措置・事後対応(差止や除外)のパッケージに向かっている。
読者別の行動指針
創作者(個人・制作会社)の方は、「自分の創作的寄与」を説明できる形に残すのが、今後いっそう重要になります。日本の一次資料が示す通り、どこに創作的寄与があるかが作者性の中心になるためです。具体的には、制作過程のログ、手直し・加筆の履歴、選択や配置の理由など、表現の決定に人が関与した証拠を残す発想が有効です。
AIを開発・提供・導入する企業の方は、チェックリストが示す「学習データの出所や収集ポリシーの情報提供」「類似物の生成防止措置」「侵害が起きた時の対応設計」を、コンプライアンスの中心に置くのが現実的です。 EUのように、学習データ要約のテンプレ公開を制度として求める地域も出ているため、グローバル提供前提なら最も厳しい透明性要求を基準に設計するという経営判断も起きやすいでしょう。
一般の利用者(仕事・趣味で生成AIを使う人)は、①他人の著作物をそのままプロンプトに貼り付けない、②生成物が既存作品に似すぎていないかを最低限チェックする、③公開・販売・広告等をする場合ほど慎重になる、の順に守ると事故が減ります。一次資料は、生成段階と利用段階の適用関係が別であること、入力態様次第で30条の4が外れ得ることを示しているためです。
参考
- 文化審議会 著作権分科会 法制度小委員会(2024)「AIと著作権に関する考え方について」PDF
https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdf - 文化庁(2024)「AIと著作権に関するチェックリスト&ガイダンス」PDF
https://www.bunka.go.jp/seisaku/chosakuken/pdf/94097701_01.pdf - 文化庁 著作権課(2019)「デジタル化・ネットワーク化の進展に対応した柔軟な権利制限規定に関する基本的な考え方(著作権法第30条の4、第47条の4及び第47条の5関係)」PDF
https://www.bunka.go.jp/seisaku/chosakuken/hokaisei/h30_hokaisei/pdf/r1406693_17.pdf - 文化庁(年不詳・最新版PDF)「著作権テキスト」PDF
https://www.bunka.go.jp/seisaku/chosakuken/seidokaisetsu/pdf/93293301_01.pdf - 文化庁・経済産業省(2025)「AIと著作権に関する関係者ネットワークの総括」PDF
https://www.bunka.go.jp/seisaku/chosakuken/pdf/94221801_01.pdf - Agency for Cultural Affairs & Ministry of Economy, Trade and Industry(2025)“Platform for AI and Copyright Stakeholders’ Dialogue”PDF
https://www.bunka.go.jp/seisaku/chosakuken/pdf/94227201_01.pdf - 文化庁(2024)「『AIと著作権に関する考え方について(素案)』に関する意見募集に寄せられた主な意見」PDF
https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/pdf/94011401_01.pdf - European Union(2019)Directive (EU) 2019/790 (Copyright in the Digital Single Market) Official Journal PDF
https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX%3A32019L0790 - European Commission(2024–2025)AI Act application timeline(政策ページ)
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai - European Commission(2025)Template for general-purpose AI model providers to summarise their training content(FAQ)
https://digital-strategy.ec.europa.eu/en/faqs/template-general-purpose-ai-model-providers-summarise-their-training-content - European Commission(2025)The General-Purpose AI Code of Practice(政策ページ)
https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai - U.S. Copyright Office(2025)Copyright and Artificial Intelligence: Part 2 – Copyrightability(Report)PDF
https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-2-Copyrightability-Report.pdf - U.S. Copyright Office(2025)Copyright and Artificial Intelligence: Part 3 – Generative AI Training(Pre-publication version)PDF
https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf - Reuters(2026)“US Supreme Court declines to hear dispute over copyrights for AI-generated material”
https://www.reuters.com/legal/government/us-supreme-court-declines-hear-dispute-over-copyrights-ai-generated-material-2026-03-02/ - UK Government(2024)Copyright and Artificial Intelligence(Consultation paper)
https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence/copyright-and-artificial-intelligence - UK Government(2025)Copyright and artificial intelligence statement of progress under Section 137 Data (Use and Access) Act(Policy paper)
https://www.gov.uk/government/publications/copyright-and-artificial-intelligence-progress-report/copyright-and-artificial-intelligence-statement-of-progress-under-section-137-data-use-and-access-act - Government of Canada(2025)Consultation on Copyright in the Age of Generative Artificial Intelligence: What we heard report
https://ised-isde.canada.ca/site/strategic-policy-sector/en/marketplace-framework-policy/consultation-copyright-age-generative-artificial-intelligence-what-we-heard-report - Beijing Internet Court(2023)Beijing Internet Court Civil Judgment 112792023(AI生成画像に関する判決・英文)PDF
https://english.bjinternetcourt.gov.cn/pdf/BeijingInternetCourtCivilJudgment112792023.pdf - Korea Copyright Commission; Ministry of Culture, Sports and Tourism(2025)Guide to Copyright Registration for Generative AI-Assisted Works PDF
https://www.copyright.or.kr/eng/doc/etc_pdf/Guide_to_Copyright_Registration_for_Generative_AI-Assisted_Works.pdf - International Monetary Fund(2024)“AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity.”
https://www.imf.org/en/blogs/articles/2024/01/14/ai-will-transform-the-global-economy-lets-make-sure-it-benefits-humanity - International Monetary Fund(2024)Melina, G. et al. “Gen-AI: Artificial Intelligence and the Future of Work” (Staff Discussion Note) PDF
https://www.imf.org/-/media/files/publications/sdn/2024/english/sdnea2024001.pdf - International Labour Organization(2023)Gmyrek, P., Berg, J., Bescond, D. “Generative AI and jobs: A global analysis of potential effects on job quantity and quality” (ILO Working Paper 96)
https://www.ilo.org/publications/generative-ai-and-jobs-global-analysis-potential-effects-job-quantity-and - International Labour Organization(2025)“Generative AI and Jobs: A Refined Global Index of Occupational Exposure”
https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure - International Labour Organization(2025)同レポートPDF
https://www.ilo.org/sites/default/files/2025-05/WP140_web.pdf - OECD(2024)“Artificial intelligence and the changing demand for skills in the labour market” PDF
https://www.oecd.org/content/dam/oecd/en/publications/reports/2024/04/artificial-intelligence-and-the-changing-demand-for-skills-in-the-labour-market_861a23ea/88684e36-en.pdf - OECD(2024)“Who will be the workers most affected by AI?” PDF
https://www.oecd.org/content/dam/oecd/en/publications/reports/2024/10/who-will-be-the-workers-most-affected-by-ai_fb7fcccd/14dc6f89-en.pdf - Stanford HAI(2025)AI Index Report 2025, Chapter 3 (Responsible AI) PDF
https://hai.stanford.edu/assets/files/hai_ai-index-report-2025_chapter3_final.pdf - Carlini, N. et al.(2021)“Extracting Training Data from Large Language Models” (USENIX Security) PDF
https://www.usenix.org/system/files/sec21-carlini-extracting.pdf - Carlini, N. et al.(2023)“Extracting Training Data from Diffusion Models” (USENIX Security) PDF
https://www.usenix.org/system/files/usenixsecurity23-carlini.pdf

コメント