オンライン年齢確認とは、SNS、動画サイト、成人向けサイト、ゲーム、アプリなどで、利用者が一定の年齢以上かどうかを確認・推定する仕組みです。近年は、子どもを有害コンテンツや見知らぬ大人との接触から守るため、英国Ofcom、EU、日本、オーストラリアなどで制度化の議論が急速に進んでいます。英国では、2025年7月25日から、ポルノや自傷・摂食障害などの有害コンテンツを扱うリスクの高いサービスに対し、高い実効性を持つ年齢確認が求められる段階に入りました。EUでは、未成年者保護ガイドラインの公表と並行して、プライバシー保護型の年齢確認ブループリントを2025年7月に公開し、2026年4月には実装可能な技術水準に達したと説明しています。日本は現時点で英国型の包括的な義務化には至っていませんが、青少年インターネット環境整備法の見直し議論が進んでおり、フィルタリング中心から、より広いプラットフォーム責任へ論点が移りつつあります。結論からいえば、今後の焦点は「年齢確認を入れるか」ではなく、「どの場面で、どの精度で、どの個人情報まで使うか」です。
導入:なぜ今このテーマが重要なのか
オンライン年齢確認が急に注目された理由は、子どものネット利用が例外ではなく前提になったからです。日本では、最新の速報値で青少年の99.0%がインターネットを利用し、利用機器はスマートフォン78.5%、学校配布のGIGA端末72.7%、ゲーム機66.2%と広がっています。つまり、子ども保護の論点は「インターネットを使うかどうか」ではなく、「どのサービスで何に出会いやすいか」をどう制御するかに変わりました。
同時に、被害の中身も多層化しています。英国のOfcomは、子ども保護コードでポルノだけでなく、自傷・自殺、摂食障害、危険なチャレンジ、いじめ、ミソジニー的・暴力的・憎悪的なコンテンツまで問題として扱いました。EUのガイドラインも、グルーミング、有害コンテンツ、依存的設計、サイバーいじめ、有害な商業慣行まで視野に入れています。つまり「年齢確認」は、子どもオンライン安全の全体像のうち、入口を制御する一部の手段にすぎません。
前提整理:オンライン年齢確認とは何か
まず用語をはっきりさせます。Ofcomは「age assurance」を、年齢確認と年齢推定を含む広い概念として扱っており、自己申告だけは有効な年齢保証とはみなしていません。つまり、単に「18歳以上ですか」というボタンを押させる方式は、いまの主要制度では通用しにくくなっています。
オンライン年齢確認・子ども保護は、便宜上、次の三層に分けると理解しやすいです。
第一にアクセス制限型で、ポルノやギャンブルのような年齢制限コンテンツへの入口で年齢を判定するものです。
第二にアカウント開設型で、SNSなどのアカウント保有そのものに最低年齢を設けるものです。
第三に安全設計型で、年齢確認の有無だけに頼らず、未成年アカウントを非公開にする、レコメンドを弱める、知らない人から連絡されにくくする、といった設計変更を指します。
これは公式資料をもとにした筆者の整理ですが、英国・EU・オーストラリアの違いを読むときに役立ちます。
技術面でも誤解が多いところです。Ofcomが「高度に有効」となり得る方法として例示したのは、オープンバンキング、写真付きID照合、顔年齢推定、携帯回線事業者による年齢確認、クレジットカード確認、デジタルIDサービス、メールアドレスに基づく年齢推定などです。一方で、自己申告や、18歳以上であることを確実に示さない決済手段は不十分とされています。要するに、年齢確認は必ずしも身分証の提出と同義ではありません。
問題の実態:何がどの程度起きているのか
このテーマが制度改正に直結しているのは、被害が「理論上の懸念」ではなく、すでに観測されているからです。Ofcomは2025年6月、英国の8〜14歳の8%が1か月のうちにオンラインのポルノサイトやアプリを訪れていたと公表しました。別の公的説明では、オンラインポルノに初めて接触する平均年齢は13歳で、27%は11歳までに、10%は9歳までに見たとされています。
ポルノ以外でも、問題は広がっています。OECD の2025年報告によれば、OECD諸国では2017年から2022年にかけてサイバーいじめ被害が平均25%以上増え、平均すると6人に1人の子どもがサイバーいじめを経験しています。別のOECD資料では、11〜15歳の女子の約12%、男子の約8%が問題的なソーシャルメディア利用を報告しています。子どもオンライン安全が「成人向けコンテンツ対策」だけでは済まない理由はここにあります。
日本でも、利用年齢の低下は見逃せません。こども家庭庁 の2026年2月公表の速報では、低年齢層の子どもの75.2%がインターネットを利用し、6〜9歳では91.0%に達しています。11歳以上では98%以上が使っているとされ、もはや中高生だけの問題ではありません。保護対象が広がったことで、保護者の監督だけに任せるモデルが難しくなっています。
原因構造:なぜこの問題が起きるのか
原因の第一は、オンラインサービスが国境を越える一方で、年齢基準や権利保護のルールが国ごとにばらばらなことです。OECDは2025年、オンライン安全・電子商取引・プライバシー法のあいだで年齢基準がばらつき、法的要求も十分に具体化されていない「パッチワーク」状態だと整理しました。この分散が、子ども保護の穴を生みます。
第二に、サービス側の年齢ルールが実効性を持っていない例が多いことです。OECDが子どもに使われる50のオンラインサービスを調べたところ、アカウント作成時に年齢を体系的に保証していたのは2サービスしかありませんでした。26サービスには何らかの仕組みがありましたが、多くは特定条件のときだけ発動し、恒常的な入口管理にはなっていませんでした。
第三に、年齢確認そのものが新たなプライバシーリスクを生むことです。欧州データ保護会議 は2025年の声明で、年齢保証は子ども保護のために重要だとしつつも、本人確認・位置特定・追跡・プロファイリングの追加手段になってはならないと明言しました。しかも、すべての利用者に、全年齢向けの無害なコンテンツまで含めて年齢確認を要求するような設計は、必要性・比例性を満たしにくいとしています。つまり、年齢確認は「強ければ強いほど良い」わけではありません。
このため、制度設計では常に四つの軸がぶつかります。精度、プライバシー、利用しやすさ、包摂性です。顔推定やID照合は精度を上げやすい半面、過剰なデータ取得や誤判定の不安があります。逆に、使いやすさを優先しすぎると自己申告のような抜け道が残りやすいです。ここが実装上の最大の難所です。
海外ではどう対応しているのか
英国の特徴は、アクセス制限型と安全設計型を同時に前進させたことです。Ofcomは2025年4月、子ども保護のための40超の措置を確定し、子どもが使う可能性のあるサービスに対して、リスク評価、アルゴリズム制御、未成年の保護、報告・苦情導線、責任者設置などを求めました。2025年7月25日からは、ポルノだけでなく、自傷、自殺、摂食障害などの有害コンテンツを扱う高リスクサービスに高度な年齢確認が要求される段階に入りました。違反時には、最大1800万ポンドまたは全世界売上高の10%のいずれか大きい方までの制裁金や、必要に応じた遮断命令がありえます。
EUの特徴は、安全設計型をより強く打ち出しつつ、アクセス制限型をプライバシー配慮で補強している点です。欧州委員会 は2025年7月、DSA第28条に基づく未成年者保護ガイドラインを公表し、未成年アカウントの非公開設定、レコメンド調整、グループ招待の同意制、スクリーンショット防止、ストリークや既読・自動再生など依存を促しやすい機能の既定オフなどを推奨しました。年齢保証については、成人向けコンテンツやギャンブルには年齢確認、その他では年齢推定を推奨し、しかも「正確・信頼可能・堅牢・非侵襲・非差別的」であるべきだと整理しています。重要なのは、このガイドライン自体は自動的に法令遵守を保証するものではなく、あくまで執行の参照点だということです。
EUは技術インフラも進めています。欧州委員会は2025年7月にオープンソースの年齢確認ブループリントを公開し、デンマーク、フランス、ギリシャ、イタリア、スペインで試行を進めました。2026年4月時点では、ユーザーが「18歳以上であることだけ」を示し、それ以外の個人情報をサービス側に出さない構成を前提に、技術的には実装可能な段階に達したとしています。将来のEUデジタルIDウォレットとの相互運用も前提です。
EUでは執行も進んでいます。欧州委員会は2025年5月、主要ポルノプラットフォーム4社に対して未成年者保護をめぐる正式調査を開始し、2026年3月には、ぼかし表示や警告表示、「成人専用」ラベルだけでは未成年のアクセス防止として不十分であり、プライバシー保護型の年齢確認措置が必要だという予備的見解を示しました。制裁金は最大で全世界年間売上高の6%までありえます。
フランス は、成人向けサイトへの入口規制で先行しています。Arcom は2024年10月に年齢確認の技術基準を採択し、2026年2月には未対応のサイトに正式な是正命令を出しました。Arcomによれば、2025年2月指定の17サイトは、数か月のうちに年齢確認を導入するか、フランスから自主的にアクセス不能にするかの対応を取り、Médiamétrieで測定されるサイトでは、12〜17歳の訪問時間が2024年11月から2025年11月にかけて35%減ったとされます。ただしArcom自身も、この効果は今後の確認が必要だと留保しています。
オーストラリア は、アカウント開設型を最も強く進めた例です。同国では2025年12月10日から、年齢制限対象のソーシャルメディア・プラットフォームが16歳未満のアカウント保有を防ぐために合理的措置を講じる義務を負っています。子ども本人や親に罰則はありません。もっとも、制度が始まって終わりではなく、eSafety Commissioner の2026年3月時点の更新では、470万件の年齢制限対象アカウントが削除・制限され、その後さらに31万件超の追加アクセスが防止された一方で、なお多くの16歳未満がアカウントを保持しているとされ、5つの大手プラットフォームについて潜在的不履行の調査が進んでいます。先行例として注目されますが、「導入したらすぐ徹底できる」わけではないと分かります。
日本の現在地:制度・現場・運用の実情
日本の現行制度の中心は、いまのところ「プラットフォーム入口の厳格な年齢確認」より、フィルタリングと利用環境整備です。青少年インターネット環境整備法は2008年制定、2018年改正で、こども家庭庁 の整理でも、基本計画の柱はフィルタリング普及、適切活用能力の習得、環境整備の推進に置かれています。2024年9月には第6次基本計画が決定され、2025年5月に令和6年度フォローアップが公表されています。
運用面では、保護者の取り組みは一定程度進んでいます。子どもがスマートフォンでネットを使っている保護者の85.8%が何らかの方法で管理していると答え、具体策ではフィルタリング49.2%、年齢相応のサービス・アプリ利用42.1%、時間や場所のルール設定38.4%が上位でした。ただし逆に言えば、フィルタリングを使っていない家庭も半数近くあり、GIGA端末やゲーム機、動画視聴環境まで含めた実態に、従来の携帯電話中心の制度が十分追いついているとは言いにくいです。
そのため、日本では制度見直しが始まっています。2026年3月の検討ワーキンググループ資料では、現行法の発想を「青少年有害情報の閲覧リスク中心」から、利用環境変化に伴うリスク多様化に対応する方向へ見直すべきだという意見が多数だったとされています。資料上では、フィルタリングは「あくまで手段の一つ」と位置づけ直され、SNS規制、年齢認証の必要性や正確性、子どもの権利との関係、事業者の役割の再配分が今後の論点として挙がっています。現時点では、日本版の包括的な年齢確認義務が決まったわけではありませんが、論点は明らかに次の段階へ移っています。
当事者別の影響整理
保護者にとっての影響は、選択肢が増える一方で、判断の難しさも増すことです。年齢確認があると成人向けコンテンツへの偶発接触は減らしやすくなりますが、子どもの安全はそれだけでは確保できません。EUのように非公開設定、レコメンド抑制、スクリーンショット制限、ブロック機能の強化まで含めて初めて、日常的なリスクに対応できます。親が見るべきなのは、「年齢確認の有無」だけでなく、「子ども向け設定が既定でどうなっているか」です。
子ども本人にとっては、保護と排除が近いところにあります。年齢確認が弱すぎれば有害コンテンツや見知らぬ大人への接触が増えますが、強すぎれば安全なコミュニティや支援的な居場所に入りにくくなる可能性があります。日本の検討資料でも、SNSが居場所になっている子どもがいることを踏まえるべきだとされており、年齢制限の導入だけで善し悪しは決まりません。
事業者にとっての影響はさらに直接的です。英国では、UKとの結びつきがある成人向けサービスに年齢保証義務が及び、EUでは未成年者がアクセス可能なプラットフォームに対して、安全設計と年齢保証の組み合わせが参照基準になっています。したがって、日本発のサービスでも、英国向けに成人向け・高リスク領域を扱う場合や、EU圏で未成年が利用しうる設計で運営する場合には、オンボーディング、既定設定、苦情導線、ログ保持方針などの見直しが実務上必要になる可能性が高いです。これは公式文書の適用範囲から導ける実務上の推測です。
政策手段の比較、実装上の壁、今後のシナリオ
政策手段は、大きく四つあります。
第一は高リスク領域への入口規制で、ポルノやギャンブルのように年齢閾値が明確な領域に強いです。
第二はSNS等のアカウント年齢規制で、オーストラリア型のように利用そのものを遅らせる発想です。
第三は安全設計の義務化で、EU型のように非公開設定やレコメンド抑制、依存を促す機能の既定オフを求めます。
第四はフィルタリング・リテラシー教育・保護者支援で、日本が比較的強い領域です。実務的には、単独より重ね合わせが有効です。
では何を優先すべきか。短期で効果を出しやすいのは、高リスク領域への入口規制です。英国やフランスのように、成人向けサービスの入口に強い年齢確認を置く方法は目的が比較的明確で、制度説明もしやすいです。中期的に重要なのは、安全設計の義務化です。子どもが実際に長時間触れるのは、成人向けサイトより日常使いのSNSや動画・ゲーム空間だからです。長期的には、日本でも、フィルタリング・教育・設計規律・一部の年齢確認を組み合わせたハイブリッド型が現実的だと考えられます。これは筆者の分析ですが、各国の公式措置を並べると、その方向が最も副作用と効果のバランスを取りやすいです。
ただし、実装の壁は大きいです。EDPBは、年齢確認が本人特定や追跡の手段に変質してはならず、必要な属性だけを最小限で扱うべきだとしています。技術的にも、利用者がデータを保持し、端末内処理や選択的開示、ゼロ知識証明のような仕組みを使い、しかもログをあまり残さない方向が望ましいとしています。要は、制度設計の評価軸は「未成年をどれだけ弾けたか」だけでは不十分で、誤判定率、離脱率、プライバシー侵害、データ侵害時の影響、差別性、救済手続まで含めて見ないといけません。
今後の日本を考えるなら、シナリオは三つです。
現状維持シナリオは、フィルタリングと啓発を中心に続ける形で、コストは抑えやすい一方、国際的なサービス設計には働きかけにくいです。
部分改革シナリオは、成人向けや極端に高リスクな領域に限定して年齢保証を強め、同時に主要プラットフォームには子ども向け既定設定や報告導線を義務づける形です。
制度再設計シナリオは、SNSアカウント年齢や広範な安全義務まで踏み込むものですが、プライバシー、執行能力、子どもの権利との調整が最も難しくなります。
以下は推測ですが、日本ではまず部分改革シナリオから進む可能性が高いでしょう。評価指標としては、未成年接触率の低下、保護者の利用率、誤判定への不服申立件数、データ侵害件数、事業者の遵守率を見るべきです。
よくある疑問 Q&A
Q. オンライン年齢確認と年齢認証の違いは?
A. 厳密には、オンライン年齢確認は利用者が一定年齢以上かを確認する行為を指し、年齢認証は本人確認やID認証と結びついて使われることがあります。国際的には、年齢確認と年齢推定を含む広い概念として「age assurance」という言葉も使われます。
Q. SNSで年齢確認が必要になるのはなぜ?
A. 子どもが有害コンテンツ、知らない大人からの接触、過度な利用、依存的設計、サイバーいじめなどに触れるリスクがあるためです。特にSNSでは、成人向けサイトのような入口規制だけでは不十分で、年齢に応じた非公開設定、レコメンド抑制、連絡制限などの安全設計も重要になります。
Q. 年齢確認はプライバシー侵害にならないの?
A. 設計次第です。身分証をサービスごとに提出させる仕組みはプライバシーリスクが大きくなります。一方で、EUが目指すように「18歳以上である」という属性だけを示す方式なら、個人情報の提出を最小化できます。重要なのは、本人特定、追跡、プロファイリングに使われない設計にすることです。
Q. 日本でもSNSの年齢確認が義務化される?
A. 2026年4月時点で、英国やオーストラリアのような包括的義務が決まったわけではありません。ただし、青少年インターネット環境整備法の見直し議論では、SNS規制、年齢確認、フィルタリング、プラットフォーム責任が論点になっており、今後の制度改正で部分的に強化される可能性があります。
Q. 子どものオンライン安全には年齢確認だけで十分?
A. 十分ではありません。年齢確認は入口対策にすぎず、SNSや動画サービスでは、未成年アカウントの非公開化、知らない相手からの連絡制限、レコメンド抑制、通報・ブロック機能、保護者向け設定などを組み合わせる必要があります。
Q. 年齢確認は、結局みんなが身分証を出す仕組みになるのですか。
A. そうとは限りません。Ofcomの例示には、顔年齢推定やオープンバンキング、デジタルIDなどが含まれ、EUのブループリントは「18歳以上であることだけ」を示し、他の個人情報を渡さない構成を目指しています。
Q. 顔推定は必須ですか。
A. 必須ではありません。英国もEUも、単一技術を義務づけているわけではなく、目的に対して十分な精度と信頼性、そしてプライバシー配慮を備えた方法を求めています。
Q. EUではもう全てのサービスに年齢確認が義務化されたのですか。
A. その理解は正確ではありません。EUの未成年者保護ガイドラインは重要な参照基準ですが、ガイドラインに従ったから自動的に適法とは限らず、逆にガイドライン自体がそのまま一律義務でもありません。EUはまず、DSAのもとで高リスク領域の執行と、プライバシー保護型の共通技術基盤づくりを進めています。
Q. 日本でもすぐに英国型の厳格な年齢確認が始まりますか。
A. 現時点では確認できません。日本では法見直しの検討が進んでいますが、2026年4月26日時点で、英国型の包括的義務が決定・公表された事実は確認できません。公表ベースでは、SNS規制、事業者責任、フィルタリングの位置づけ直し、年齢認証の実効性などが論点です。
Q. 子どもの安全は親の管理だけでは不十分ですか。
A. 不十分です。保護者の管理は重要ですが、英国やEUの制度が示す通り、子どもが大量に集まるサービス側に、年齢保証、既定設定、レコメンド調整、報告導線などの責任を持たせないと、家庭だけでは追いつきません。
Q. この分野で今後いちばん見るべき指標は何ですか。
A. 未成年のアクセス減少だけでは足りません。誤って成人が弾かれる率、未成年がすり抜ける率、プライバシー事故、保護者の利用率、子どもの苦情処理、そして制度導入後も危険な接触や有害推薦が減っているかを合わせて見る必要があります。EDPBが比例性とデータ最小化を重視しているのは、そのためです。
結論:この問題をどう捉え、何を優先すべきか
オンライン年齢確認をめぐる本質は、「子どもを守るか、自由を守るか」の二者択一ではありません。実際には、どのリスクに、どの場面で、どの強さの年齢保証を当てるかという制度設計の問題です。英国はポルノ等の入口規制と子ども保護措置を強く進め、EUは安全設計とプライバシー保護型年齢確認の両立を目指し、オーストラリアはSNSアカウント年齢に踏み込み、フランスは成人向けサイト入口規制で効果検証を始めています。日本はまだ移行期ですが、議論の焦点が「フィルタリングの普及」から「プラットフォームの責任と実効性」へ動いている点は押さえるべきです。
現実的な優先順位は三つです。
第一に、成人向けや極端に高リスクな領域では、自己申告ではない強い年齢保証を導入すること。
第二に、子どもが日常的に使うサービスでは、年齢確認だけに頼らず、非公開設定、レコメンド抑制、見知らぬ相手との接触制限といった安全設計を既定化すること。
第三に、保護者支援とリテラシー教育を制度の補助線ではなく、本体の一部として扱うことです。読者が今後見るべき指標は、「何人を弾いたか」ではなく、「安全が改善し、しかも過剰監視になっていないか」です。
参考
- Ofcom. 2025. “New rules for a safer generation of children online.” Ofcom. URL:https://www.ofcom.org.uk/online-safety/protecting-children/new-rules-for-a-safer-generation-of-children-online 公式ページ . 閲覧日 2026-04-26.
- Ofcom. 2025. “Online age checks now in force.” Ofcom. URL: 公式ページ https://www.ofcom.org.uk/online-safety/protecting-children/online-age-checks-must-be-in-force-from-tomorrow. 閲覧日 2026-04-26.
- Ofcom. 2025. “Age checks to protect children online.” Ofcom. URL: 公式ページ https://www.ofcom.org.uk/online-safety/protecting-children/age-checks-to-protect-children-online. 閲覧日 2026-04-26.
- European Commission. 2025. “Commission publishes guidelines on the protection of minors.” Shaping Europe’s digital future. URL: 公式ページ https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors. 閲覧日 2026-04-26.
- European Commission. 2025. “Commission makes available an age-verification blueprint.” Shaping Europe’s digital future. URL: 公式ページ https://digital-strategy.ec.europa.eu/en/news/commission-makes-available-age-verification-blueprint. 閲覧日 2026-04-26.
- European Commission. 2026. “The EU approach to age verification.” Shaping Europe’s digital future. URL: 公式ページ https://digital-strategy.ec.europa.eu/en/policies/eu-age-verification. 閲覧日 2026-04-26.
- European Commission. 2026. “European age verification app to keep children safe online.” European Commission. URL: 公式ページ https://commission.europa.eu/news-and-media/news/european-age-verification-app-keep-children-safe-online-2026-04-15_en. 閲覧日 2026-04-26.
- European Commission. 2025-2026. “Commission opens investigations to safeguard minors from pornographic content under the Digital Services Act” and “Commission preliminarily finds PornHub, Stripchat, XNXX and XVideos…” European Commission. URL: 公式ページ https://digital-strategy.ec.europa.eu/en/news/commission-opens-investigations-safeguard-minors-pornographic-content-under-digital-services-act. 閲覧日 2026-04-26.
- OECD. 2025. Age assurance practices of 50 online services used by children. OECD Publishing. DOI: 10.1787/a19853ab-en. 閲覧日 2026-04-26.https://www.oecd.org/en/publications/age-assurance-practices-of-50-online-services-used-by-children_a19853ab-en.html
- OECD. 2025. The legal and policy landscape of age assurance online for child safety and well-being. OECD Publishing. DOI: 10.1787/4a1878aa-en. 閲覧日 2026-04-26.https://www.oecd.org/en/publications/the-legal-and-policy-landscape-of-age-assurance-online-for-child-safety-and-well-being_4a1878aa-en.html
- OECD. 2025. How’s Life for Children in the Digital Age? OECD Publishing. URL: 公式ページ . 閲覧日 2026-04-26.https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/05/how-s-life-for-children-in-the-digital-age_c4a22655/0854b900-en.pdf
- European Data Protection Board. 2025. “Statement 1/2025 on Age Assurance.” EDPB. URL: 公式ページ . 閲覧日 2026-04-26.https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_en
- こども家庭庁. 2026. 「令和7年度 青少年のインターネット利用環境実態調査 調査結果(速報)」こども家庭庁. URL: 公式ページ . 閲覧日 2026-04-26.https://www.cfa.go.jp/assets/contents/node/basic_page/field_ref_resources/9a55b57d-cd9d-4cf6-8ed4-3da8efa12d63/23fcf9bc/20260226_policies_youth-kankyou_internet_research_results-etc_20.pdf
- こども家庭庁. 2024-2025. 「青少年インターネット環境整備基本計画(第6次)」および関連ページ. こども家庭庁. URL: 公式ページ . 閲覧日 2026-04-26.https://www.cfa.go.jp/policies/youth-kankyou/internet_torikumi_guideline
- こども家庭庁. 2026. 「青少年インターネット環境整備法に係る検討事項について」青少年インターネット環境整備法の在り方等に関する検討WG資料. URL: 公式ページ . 閲覧日 2026-04-26.https://www.cfa.go.jp/assets/contents/node/basic_page/field_ref_resources/ee8f405a-81d7-4c41-90da-dc80d0305934/0385aca0/20260331_councilsinternet-kaigiee8f405a_07.pdf
- eSafety Commissioner. 2026. “Social media age restrictions” and Social Media Minimum Age: Compliance Update. eSafety Commissioner. URL: 公式ページ . 閲覧日 2026-04-26.https://www.esafety.gov.au/about-us/industry-regulation/social-media-age-restrictions
- Arcom. 2024-2026. “Technical guidelines on age verification for the protection of persons under 18 from online pornography” and “Fighting exposure of persons under 18 to pornography…” Arcom. URL: 公式ページ . 閲覧日 2026-04-26.https://www.arcom.fr/en/find-out-more/legal-area/legal-resources/technical-guidelines-age-verification-protection-persons-under-18-online-pornography

コメント