生成AIは、翻訳や文章生成といった「ことば」の領域に強い影響を与えています。特に教育現場では、学習指導・校務・評価(レポートや宿題)に生成AIが入り込み、各国でガイドライン整備が進んでいます。背景にあるのは、誤情報(ハルシネーション)、偏見、個人情報・機密の流出、そして著作権(学習データと生成物)をめぐる不確実性です。
一方で、政策・制度が動くほど、教育や仕事の現場で「プロンプト(指示文)」「生成された文章」「それを人が修正した文章」という現場データが増えます。このデータは、人文学にとって「新しい言語実践(書く・訳す・要約する・説明する)」を観察する材料にもなります。ただし、この増加を直接カウントする国際統計はまだ十分ではなく、現時点では「利用率・規制整備・研究結果」から間接的に理解する段階です。
本記事では、世界と日本の制度・統計・一次研究を軸に、生成AIと「ことば」(翻訳、文章生成、言語感覚の変化)を体系的に整理し、読者が他者に説明できるレベルの理解と、行動指針(使い方・学び方・ルール作り)を得られるようにまとめます。
導入と概要
生成AI(生成的AI)は、学習した大量のデータをもとに、文章・画像・音声などをそれらしく生成する技術です。教育分野でも、文章の素案作成、語学学習、調べ学習の補助、アイデア出しなど「ことば」を扱う場面で、利用が急速に現実化しています。
このテーマが人文学(文学部・人文学系)と相性が良い理由は、生成AIが「言語表現」を直接扱うからです。翻訳はもちろん、説明文、要約、レポート、創作、議論の組み立てなど、「人が言葉で考え、言葉で他者と関係を結ぶ」営みそのものに介入します。さらに、教育現場のガイドラインが整い始めると、学生・教員が「どこまでAIを使ったか」を申告する、生成物を検証する、学習成果の評価方法を見直す、といった運用が増え、言語・表現の現場データが構造的に蓄積されやすくなります。
ただし、生成AIは万能の言語能力ではありません。特に「もっともらしい誤り(ハルシネーション)」や、学習データ由来の偏り、著作権・個人情報の取り扱いなど、言語実践に直結するリスクがあるため、教育ガイドラインと著作権整理が同時進行で進む構図になっています。
世界の現状
国際機関の大枠:教育ガイドラインは「人間中心・年齢配慮・データ保護・知財」を柱にし始めている
UNESCOは、教育・研究における生成AI利用の国際的ガイダンスを公表し、データプライバシー保護や年齢制限の検討を含む「人間中心」の枠組みを提示しています。特に子どもについては、一般目的の生成AIは大人向けに設計されがちで、操作・誘導や不適切コンテンツのリスクを踏まえ、独立利用の最低年齢を少なくとも13歳以上とする考え方を示しています(同ガイダンス内で、サービス利用規約・各法制との関係も整理)。
教育現場の「利用実態」:教師・学習者が既に使い始めていることが、ガイドライン整備を加速させている
OECDの2026年の整理では、2024年時点で下級中等教育の教師の37%が授業でAIツールを利用し、22%が少なくとも週1回利用した、という教師調査(TALIS 2024)に基づく数字が示されています。つまり「禁止か容認か」の議論以前に、現場では一定の普及が進んでいます。
またPew Research Centerの調査でも、一般層での利用経験が広がっていることが示されています(例:米国成人の34%がChatGPTを使った経験があり、仕事で使ったことがある人も一定数いる、という調査結果)。
10代についても、同センターは「学校のためにChatGPTを使ったことがある」層が存在することを示しており、宿題・レポート・調べ学習といったことばの課題で利用が起きている現実が、教育制度側の対応を促しています。
各国のガイドライン:共通して「評価(宿題・試験)」「個人情報」「知的財産」に触れ始めている
イギリスのDepartment for Educationは、学校・カレッジ向けに生成AIの位置づけを継続的に更新し、データ保護、評価方法、知的財産(IP)を含む論点を明示しています(更新履歴が公開されており、2025年までに複数回追記)。
カナダ政府のガイドも、公開型ツールに個人情報を入力しないこと、生成内容に対する説明責任は人間側にあること、法務・プライバシー・セキュリティ担当を巻き込むことなど、運用上の実務項目を具体化しています。
研究の世界でも、カナダの研究助成機関は、助成申請や審査に生成AIを使う場合に、申請者が内容に最終責任を負うこと、機密・知財の流出リスクに留意すべきことを明示しています(翻訳ツールの例も挙げつつ、オンラインツールへの入力自体がリスクになり得る点を指摘)。
制度面:著作権・学習データの透明性は「規制による義務化」へ移行し始めている
European Commissionは、EUのAI法(AI Act)に基づき、汎用AI(GPAI)モデル提供者が「学習に用いたコンテンツの要約」を公表するためのテンプレートと解説文書を公表しています。ここでは、AI Actが2024年8月1日に発効し、汎用AIモデル規律が2025年8月2日から適用されること、既に市場にあるモデルは2027年8月2日までに要約公表が求められること、監督・執行が2026年8月2日から始まること、違反時の制裁(例:全世界売上高に連動する制裁金や上限額)など、実務的なタイムラインが書かれています。
このテンプレートは、「データの種類(テキスト等)」「規模(トークン数の大枠レンジ)」「主要データソース」「ウェブから収集した場合の主要ドメイン名の要約」「権利留保(TDMのオプトアウト)への対応」「違法コンテンツ除去」など、著作権を含む学習データの説明責任を、一般の読者にも読める形で出す設計になっています。
この動きは、教育現場で「AIがどんな言語データを学んでいるか」を議論する材料にもなります。なぜなら、教育での翻訳・文章生成は、学習者の言語感覚を形成する入力(読んだり書いたりする素材)と直結するからです。
一次研究:翻訳・文章生成は効果と同時に新しい失敗も生んでいる
翻訳については、機械翻訳・LLM翻訳の「ハルシネーション(原文から乖離した翻訳)」が安全性・信頼性の問題として研究されています。多言語翻訳モデルとGPT系LLMを含む広範な比較では、低リソース方向や英語以外からの翻訳でハルシネーションが課題になり得ること、学習データ由来の有害パターンが露出し得ること、単純なスケールアップだけでは病理が残ること、フォールバック(別モデル併用)で改善し得ることなどが報告されています。
さらに、LLMベースの翻訳が「競争力を高める一方でハルシネーションリスクが高い」という前提のもと、学習段階でハルシネーションを減らす学習法が提案され、言語ペアによっては平均96%のハルシネーション率低下(ゼロショット設定でも平均89%低下)といった結果が報告されています。
文章生成については、「多様性の低下(均質化)」が懸念として研究対象になっています。大学入試エッセイのような文章で、人間が書く集合の方がLLMが書く集合より新しいアイデアが増える速度が高い、という形で集団レベルの多様性低下を測ろうとする研究があります。
また、LLM普及前後(2018年と2024年)で英語ニュース記事の語彙の均質化を検証する研究のように、「社会の文章そのものが変わったのか」を実証しようとする動きも出ています(均質化は起きているはずと想定されがちだが、実データで確かめる必要がある、という問題意識からの研究)。
ここから分かるのは、生成AIが「ことばの能力を外部化」しうる一方で、翻訳の安全性や、文章表現の多様性のように、人文学が長く扱ってきた価値(意味の正確さ・文化的含意・表現の多声性)を揺らす可能性もある、ということです。
日本の現状
教育:ガイドラインは禁止の一律化ではなく、人間中心・情報活用能力を軸に設計されている
日本の文部科学省は、初等中等教育段階における生成AI利活用ガイドライン(Ver.2.0)を2024年12月26日に公表し、学校現場向けの情報を集約するポータルも整備しています。
このガイドラインは、生成AIの利活用を一律に禁止・義務付けするものではない、と明確に位置づけたうえで(参考資料として)、基本理念として「人間中心の生成AI利活用」と「生成AIの存在を踏まえた情報活用能力の育成強化」を掲げています。
校務での利用では、教職員が仕組み・特徴を理解し、生成内容の適切性を判断できる範囲で積極的活用が有用としつつ、学習活動で児童生徒が使う場合は発達段階や育成状況に留意し、リスク対策を講じた上で検討すべきだとしています。
言い換えると、日本の教育政策としては「生成AIがある社会」を前提に、言語能力や批判的思考(真偽検証、問いを立てる力)をむしろ強化する方向でことばの学びを再設計しようとしています。
著作権:行政が確定解を出すのではなく、現行法の射程とリスクを整理し、事例蓄積で更新していく設計
文化庁ではなく、文化審議会側の整理として、文化審議会著作権分科会法制度小委員会が、2024年3月15日に「AIと著作権に関する考え方について」を公表しています。本文書は法的拘束力を持つものではなく、特定技術の確定的評価でもない、と明記した上で、判例・裁判例の蓄積や技術発展を踏まえて見直す前提を示しています。
この整理文書の価値は、教育現場(学習者・教員)にとって「どこがグレーで、どこが危ないのか」を、最低限の論点セットとして共有できる点にあります。
開発・学習段階:日本の特徴は「非享受目的(情報解析)」を広く認めつつ、例外(不当に害する場合)を具体化している点
整理文書は、著作権法第30条の4(思想又は感情の享受を目的としない利用)を中心に、「情報解析の用に供する場合」は同条の対象になり得る、という従来整理を丁寧に再確認しています。
ただし同条には「著作権者の利益を不当に害することとなる場合」は適用されない、というただし書があり、その判断枠組みとして「利用市場との衝突」「将来の潜在的販路の阻害」などを総合考慮する考え方を明示しています。
さらに重要なのは、例外が抽象論ではなく、生成AI特有の具体例で説明されている点です。たとえば、意図的な過学習(overfitting)など「学習データに含まれる著作物の創作的表現の全部または一部を出力させる目的」を伴う追加学習は、享受目的が併存すると評価され得る、という例示があります。
また、検索拡張生成(RAG)のためにベクトルDBを作る場合でも、目的が「創作的表現の出力」なのか、そうではなく情報解析目的なのかで、第30条の4の適用可能性が変わる、という形で整理しています。
生成・利用段階:教育で特に重要なのは「既存著作物との類似性・依拠性」と「入力(プロンプト)時点の扱い」
生成AIの出力が著作権侵害になる典型論として、日本の整理文書は「類似性・依拠性」を軸に議論します。利用者が既存著作物を認識していなくても、当該著作物が学習データに含まれており、類似した生成物が出た場合、通常は依拠性が推認され得る、という整理も示されています(ただし、技術的に出力されない状態が担保されている等の事情がある場合の余地にも触れています)。
さらに、既存著作物(画像や文章)を生成AIに入力する行為は、生成のための情報解析に伴う複製等が生じ得るため第30条の4の適用が考えられる一方で、「入力した著作物に類似する生成物を生成させる目的」で入力する場合は享受目的が併存し得て第30条の4が外れる、という整理が示されています。
これは教育現場に直結します。たとえば「既存の小説の一節を入れて、その作風で続きを書かせる」「既存の教材文を入れて、ほぼ同じ要旨の文章を吐かせる」といった使い方は、学習目的でもやり方によってはリスクが上がります。ここは「学習のねらい(比較・批評・検証)に沿った設計」へ転換する必要があります。
技術的措置の尊重:robots.txtやアクセス制限は実務上の重要論点として明確化されている
文化庁の整理では、生成AI事業者が著作権侵害防止に資する技術的措置として、現存アーティスト名等のプロンプト拒否、技術的制限措置(機械可読な制限)の尊重、削除要求対応などを挙げています。
また別の文化庁資料では、ID/PW制限やrobots.txt等、クローラによる学習データ収集を制限する技術的措置を尊重すべきこと、さらに「AI学習用に有償提供されるデータベース著作物」を無断で学習目的複製する場合は著作権法第30条の4ただし書に該当して適用されない可能性があることなど、実務上の注意点を具体的に述べています。
議論の材料が増えている根拠:相談件数やネットワーク形成が見える化されている
文化庁の別資料(2025年9月時点の整理)では、「文化芸術活動に関する法律相談窓口」でAIと著作権相談を受け付け、相談件数が令和5年度(受付開始後の期間で)26件、令和6年度は89件と増えていることが示されています。
同資料はまた、総務省・経済産業省の「AI事業者ガイドライン」の改訂・統合、内閣府での知財検討会の中間とりまとめ、2025年成立・施行のAI関連法により内閣に人工知能戦略本部が設置されたこと、EU AI Actの一部規定施行や学習データ要約テンプレート公開など、国内外の制度変化を俯瞰しています。
さらに、権利者と事業者の対話ネットワークに、国内外の企業・団体が参加していることも明記され、著作権整理が机上の議論ではなく、実務・産業と連動していることが読み取れます。
経済・社会・地政学への影響
経済:生成AIは「文章・翻訳」など知的労働の一部を自動化し、投資と生産性の再配分を起こしている
The effects of generative AI on productivity, innovation and entrepreneurshipは、実験研究(因果推定のある研究)を中心に、生成AIが生産性・イノベーション・起業に与える影響を整理し、生成AIは文章作成・要約・編集・翻訳・コード生成などのタスクを「自動化(automation)」したり「補完(augmentation)」したりし得る一方で、効果はタスクと利用者の経験に依存し、人間とAIの協働設計が鍵だと述べています。
ここで重要なのは、「ことばの作業」がコスト構造を変える点です。翻訳・要約・作文が高速化されると、作業の中心は「下書き」から「検証(ファクトチェック)」「意図に合わせた調整(スタイル・読者設計)」「責任の所在(説明可能性)」へ移ります。これは言語職(翻訳、編集、広報、教育)全体のスキル要求を組み替えます。
投資:生成AIは国家間競争(資本・計算資源・データ)を強め、規制も競争条件になる
Stanford HAIのAI Index Report 2025 Policy Highlightsによれば、注目度の高いAIモデルの多くが産業界から出ていること、計算資源やデータ規模の拡大が急速であること、そして2024年の米国の民間AI投資規模が大きいことなどが整理されています。
このような資本と技術の集中は、教育や出版、翻訳産業に対して「安価な言語処理」を短期的に供給する一方、学習データの獲得・権利処理・透明性対応といった制度対応コストも増やします。制度が違えば、同じAIでも市場投入のしやすさが変わるため、規制は地政学的な競争条件になり得ます。
社会:データ保護と教育の再設計が、言語体験(読む・書く・訳す)の質を左右する
生成AIの利用は、多くの場合「ユーザーがデータを提供者に渡す」構造を含むため、データ保護が教育利用の前提になります。国連貿易開発会議の統計ページでは、世界の多くの国・地域でデータ保護・プライバシー法制が整備されていることが示されています。
教育現場の実務としては、公開型生成AIに個人情報を入力しない、といった運用ルールが現実的な第一歩になります(カナダ政府ガイドは明確に注意喚起しています)。
子どもについては、年齢配慮や保護者・提供者の責任分担まで含めて議論が必要であり、UNESCOは最低年齢13歳以上をひとつの下限として提示しつつ、国ごとに適切な年齢閾値と検証方法を検討すべきだとしています。
「ことばの品質」:翻訳は安全性、文章生成は多様性、という別々の課題を持ちます。
翻訳では、原文から逸脱した流暢な誤訳が起きると、外交・医療・法務・教育のような高リスク領域で重大な誤解につながり得ます。多言語翻訳モデルやLLM翻訳の研究は、ハルシネーションが低リソース方向で問題化しやすいことなどを示しており、「どの言語でも同品質」という幻想に警鐘を鳴らします。
文章生成では、個人の創作を助ける一方で、社会全体の文章が似通う(均質化する)可能性が議論されています。入試エッセイやニュース記事を対象に、集団レベルの多様性を測ろうとする研究が出てきたこと自体が、「ことばの変化」が実証課題になりつつある証拠です。
地政学:学習データの透明性と国のデータ資源が争点化する
EUでは学習データ要約の公開が制度化され、権利者の権利行使やデータ保護ルールの支援、言語・文化多様性の観点にも触れています。
UNESCOはさらに踏み込み、国民が生むデータが一方的に国外へ流出してデータ貧困が深まるリスクや、巨大IT企業への依存を問題として挙げ、国家としてデータ所有・利用をどう設計するかを論点化しています。
ここは今後、「教育で使う生成AIはどこのモデルか」「どの言語・文化を学習しているか」「国内の言語資源(教科書、文学、方言、少数言語)はどう扱われるか」という形で、言語政策・文化政策と接続していく可能性があります。
今後の課題と展望
課題は大きく、透明性・権利処理・教育評価・安全性(誤情報)の4本柱に収束しつつある
第一に透明性です。EUのテンプレートは、学習データを「技術的詳細」ではなく「一般に理解できる叙述」で開示する設計で、権利者・研究者・消費者の視点を含めています。こうした枠組みが国際的なスタンダード候補になれば、教育現場でも「モデルの出自」「想定される偏り」「言語カバレッジ」を説明できる教材設計が現実的になります。
第二に権利処理です。日本の整理文書は、現行法で対応しつつも、判例が乏しい現状や、事例蓄積の必要性を正面から述べています。つまり、今後の裁判例や国際動向で実務が変わり得る領域です。ここは教育現場向けには「確定解を教える」より「リスク判断の型(類似性・依拠性、非享受目的、ただし書の観点)」を教える方が持続可能です。
第三に教育評価です。宿題やレポートの評価は、生成AIの普及で評価対象が揺れます。英国の教育当局が宿題方針・非監督学習の見直しに触れているのは、まさに「評価の設計」を制度側が意識し始めた証拠です。日本でも文科省ガイドラインは情報活用能力・情報モラルを軸に、学びの目的から逆算して利用の可否を吟味する姿勢を示しています。
第四に安全性(誤情報・ハルシネーション)です。翻訳に限っても、ハルシネーションが低頻度でも致命的になり得ること、軽減のための学習法が提案されていることが示されています。教育現場では「AIを使わせない」より「誤りの検出と修正を学習技能化する」ほうが現実的で、しかも人文学的な批判的読解・検証と親和性があります。
なお、ハルシネーション検出そのものも活発な研究領域であり、統計的推定に基づく検出法などが提案されていますが、万能の解決策ではありません。
展望:人文学の役割は「言語の価値(意味・文体・多様性)を、運用と制度に翻訳する」こと
生成AIで「文章が作れる」こと自体は驚きではなくなりつつあります。これからの争点は、どの文章が信頼できるのか、誰が責任を持つのか、どんな言語文化が残るのか、そして教育として何を育てるのかです。UNESCOが言語・文化多様性やデータ貧困を論点化し、文科省が情報活用能力の育成強化を掲げ、文化審議会が著作権のリスク判断枠組みを整理した流れは、「ことば」を中心に据えた社会設計が必要になっていることを示しています。
よくある疑問Q&A
Q:生成AIで作った文章は、そのまま提出すると何が問題ですか?
A:教育の観点では「学習目標に対して、本人が何を理解し、どう考え、どう表現したか」が見えなくなる点が一番大きいです。制度面では、学校・自治体の方針(許容範囲の明示)と、出力の誤り(ハルシネーション)を本人が検証せずに提出してしまうリスク、さらに著作権・個人情報の混入リスクがあります。
Q:AI翻訳は、もう人間翻訳より正確ですか?
A:「言語ペア・分野・リスク水準」によります。研究では、LLM翻訳は高品質になり得る一方、原文から乖離した流暢な誤訳(ハルシネーション)が問題化し、特に低リソース方向などで課題が見られます。改善のための学習法も提案されていますが、ゼロリスクではありません。重要文書(契約、医療、評価に関わる翻訳)は、人間の検証を前提に設計するのが安全です。
Q:生成AIの出力は著作権侵害になりますか?
A:なり得ます。日本の整理は「既存著作物との類似性」と「依拠性」がポイントです。利用者が元作品を知らなくても、学習データに含まれていた場合に依拠性が推認され得る、という整理もあります。教育利用では「似せるために入力する」「既存の文章をそのまま素材として出させる」など、利用態様でリスクが上がる点に注意が必要です。
Q:生成AIが作った文章に、著作権は発生しますか?
A:日本の整理では、AIは法的な人格を持たないため著作者にならず、著作物に該当する場合でも、人間側がどれだけ創作意図・創作的寄与をしたかが問題になります。米国でも、人間の著作が必要だという登録実務のガイダンスが公表されています。つまり「AIが全部作った」状態は著作権で保護されにくく、「人が編集・選択・構成して創作した」部分が焦点になります。
Q:自分の作品や文章を、AI学習に使われたくありません。できることはありますか?
A:現時点の一次資料に基づくと、少なくとも「技術的にクローラを制限する措置(例:robots.txtやアクセス制限)を尊重すべき」という方向性は、EUでも日本でも論点化されています。ただし、これがどの程度実効性を持つか、どこまで法的に担保されるかは国・制度・事業者の運用次第で、確定的な万能策ではありません。
Q:学校で子どもに生成AIを使わせるのは早いですか?
A:年齢だけで一律に決めるより、発達段階と学習目標から逆算するのが現実的です。UNESCOは子どもの権利保護の観点から年齢制限(最低でも13歳以上)を強く推奨しつつ、国が適切な年齢閾値や検証方法、保護者・提供者の責任を検討すべきだと述べています。日本の文科省ガイドラインも、児童生徒の利用は発達段階と情報活用能力の育成状況に十分留意し、リスク対策を講じた上で検討する立て付けです。
Q:プロンプトや入力した文章は、どこへ行きますか?
A:公開型ツールの場合、入力が提供者側に保存・再利用され得るため、個人情報や機密の入力は避ける、という注意が各国ガイドで明示されています。カナダ政府のガイドは「公開されているオンライン生成AIに個人情報を入力してはいけない」という形で明確に述べています。教育利用の場合も、児童生徒の個人情報・学習記録・校務情報の扱いは最初にルール化すべき領域です。
Q:教育現場向けガイドラインを作るなら、最初に何を決めればいいですか?
A:一次資料から逆算すると、少なくとも次の4点が優先度高です。
(1) 目的:何の学習目標で、どこまで使うのか(使うことが目的にならない設計)。
(2) 透明性:利用の申告、生成物の扱い(提出物・評価物・下書きの線引き)。
(3) データ保護:個人情報・校務情報を入力しない、または管理された環境のみ、など。
(4) 著作権:教材・他者作品の入力、生成物の利用、類似性・依拠性の注意点。
結論と読者への提案
生成AIは「ことばの生産(書く・訳す・要約する)」を高速化し、教育現場ではガイドライン整備を通じて運用が急速に制度化されつつあります。世界では、UNESCOが年齢配慮・データ保護・知財を柱に人間中心の枠組みを提示し、OECDが各国の統治(18か国比較)や教師利用率のデータ整理を進め、EUが学習データ要約の公開を実務テンプレートとして具体化しています。日本では、文科省が学校向けVer.2.0ガイドラインで情報活用能力の強化を軸に据え、文化審議会が著作権のリスク判断枠組み(第30条の4、ただし書、類似性・依拠性など)を整理し、相談件数や対話ネットワークの形成を通じて事例蓄積が進んでいることが確認できます。
読者が今日から持てる行動指針は、次の3点に集約できます。
第一に、生成AIを「答え」ではなく「下書き・対話相手」として扱い、必ず一次情報で検証すること(特に翻訳や固有名詞、引用のある文章)。
第二に、入力しないルール(個人情報・機密・第三者著作物の安易な貼り付け)を先に決めること。
第三に、「ことばの学び」の目標を再定義することです。AIが書ける時代だからこそ、問いを立て、根拠を選び、読者に合わせて構成し、意味と文体の違いを自覚的に扱う力が価値になります。これは文学部・人文学が培ってきた中核技能でもあります。
参考
- UNESCO (2023). Guidance for generative AI in education and research. PDF.
https://table.media/wp-content/uploads/2023/09/386693eng.pdf - UNESCO (2026). Understanding Generative AI(教育・研究に関するガイダンス紹介ページ). Web.
https://www.unesco.org/en/articles/understanding-generative-ai - OECD (2026). OECD Digital Education Outlook 2026: Exploring Effective Uses of Generative AI in Education. Web.
https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_bff0dcab-en.html - OECD (2023). OECD Digital Education Outlook 2023(章:Emerging governance of generative AI in education). Web.
https://www.oecd.org/en/publications/oecd-digital-education-outlook-2023_c74f03de-en/full-report/emerging-governance-of-generative-ai-in-education_3cbd6269.html - European Commission (2025). Explanatory Notice and Template for the Public Summary of Training Content for general-purpose AI models required by Article 53(1)(d) of Regulation (EU) 2024/1689 (AI Act)(C(2025) 5235 final, Annex). PDF.
https://www.bundesnetzagentur.de/DE/Fachthemen/Digitales/KI/_functions/EU-Template.pdf?__blob=publicationFile&v=2 - 文部科学省 (2024). 初等中等教育段階における生成AIの利活用に関するガイドライン(Ver.2.0). PDF.
https://www.mext.go.jp/content/20241226-mxt_shuukyo02-000030823_001.pdf - 文部科学省 (2026). 学校現場における生成AIの利用について(ポータル). Web.
https://www.mext.go.jp/zyoukatsu/ai/ - 文化審議会 (2024). AIと著作権に関する考え方について. PDF.
https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdf - 文化庁 (2025). 生成AIをめぐる最新の状況について(2025/9時点の各国対応・国内動向資料を含む). PDF.
https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/workingteam/r07_01/pdf/94269701_04.pdf - 文化庁 (2024). AIと著作権の考え方 具体的な取組・リスク低減方策等(関連資料). PDF.
https://www.bunka.go.jp/seisaku/chosakuken/pdf/94097701_02.pdf - U.S. Copyright Office (2026). Copyright and Artificial Intelligence(AIと著作権に関する公式ポータル). Web.
https://www.copyright.gov/ai/ - U.S. Copyright Office (2023). Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence. Federal Register.
https://www.federalregister.gov/documents/2023/03/16/2023-05321/copyright-registration-guidance-works-containing-material-generated-by-artificial-intelligence - U.S. Copyright Office (2025). Copyright and Artificial Intelligence, Part 3: Generative AI Training(Pre-publication version). PDF.
https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3.pdf - Pew Research Center (2024). 34% of U.S. adults have used ChatGPT, about 1 in 4 have used it for work(調査記事). Web.
https://www.pewresearch.org/short-reads/2024/11/21/34-of-u-s-adults-have-used-chatgpt-about-1-in-4-have-used-it-for-work/ - Pew Research Center (2024). About a quarter of U.S. teens have used ChatGPT for schoolwork(調査記事). Web.
https://www.pewresearch.org/short-reads/2024/11/19/about-a-quarter-of-u-s-teens-have-used-chatgpt-for-schoolwork/ - Department for Education (2025). Generative artificial intelligence (AI) in education. Web.
https://www.gov.uk/government/publications/generative-artificial-intelligence-in-education - Department for Education (2023). Generative artificial intelligence (AI) in education(PDF版). PDF.
https://dera.ioe.ac.uk/id/eprint/40285/1/Generative%20artificial%20intelligence%20%28AI%29%20in%20education%20-%20GOV.UK.pdf - カナダ政府 (2025). Guide on the use of generative artificial intelligence. Web.
https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-use-generative-ai.html - Government of Canada(研究助成機関)(2024). Guidance on the use of Artificial Intelligence in the development and review of research grant proposals. Web.
https://science.gc.ca/site/science/en/interagency-research-funding/policies-and-guidelines/guidance-use-artificial-intelligence-development-and-review-research-grant-proposals - UNCTAD (n.d.). Data protection and privacy legislation worldwide. Web.
https://unctad.org/page/data-protection-and-privacy-legislation-worldwide - U.S. Bureau of Labor Statistics (2025). Interpreters and Translators(職業見通し・賃金統計). Web.
https://www.bls.gov/ooh/media-and-communication/interpreters-and-translators.htm - OECD; Flavio Calvino ほか (2025). The effects of generative AI on productivity, innovation and entrepreneurship. OECD AI Papers. PDF.
https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/06/the-effects-of-generative-ai-on-productivity-innovation-and-entrepreneurship_da1d085d/b21df222-en.pdf - International Labour Organization (2025). Generative AI and jobs: A 2025 update. Web.
https://www.ilo.org/publications/generative-ai-and-jobs-2025-update - International Labour Organization (2025). One in four jobs at risk of being transformed by GenAI, new ILO–NASK Global Index shows. Web.
https://www.ilo.org/resource/news/one-four-jobs-risk-being-transformed-genai-new-ilo%E2%80%93nask-global-index-shows - Zhi Tang ほか (2025). Mitigating Hallucinated Translations in Large Language Models. NAACL 2025. PDF.
https://aclanthology.org/2025.naacl-long.175.pdf - Nuno M. Guerreiro ほか (2023). Hallucinations in Large Multilingual Translation Models. Transactions of the Association for Computational Linguistics (TACL). DOI:
10.1162/tacl_a_00615/ PDFhttps://aclanthology.org/2023.tacl-1.85.pdf - Sarah Fitterer ほか (2025). Testing English News Articles for Lexical Homogenization Due to Widespread Use of Large Language Models. ACL 2025 SRW. Web.
https://aclanthology.org/2025.acl-srw.95/ - Kibum Moon ほか (2025). Homogenizing effect of large language models (LLMs) on creative diversity: An empirical comparison of human and ChatGPT writing. Computers in Human Behavior Artificial Humans. DOI:
10.1016/j.chbah.2025.100207(全文掲出ページ)https://www.researchgate.net/publication/395887697_Homogenizing_effect_of_large_language_models_LLMs_on_creative_diversity_An_empirical_comparison_of_human_and_ChatGPT_writing - Sam Farquhar ほか (2024). Detecting hallucinations in large language models using semantic entropy. Nature. Web.
https://www.nature.com/articles/s41586-024-07421-0

コメント