
Meta社は10月15日、SNSプラットフォーム「Instagram」において18歳未満のユーザーを対象とした新たな安全強化策を発表した。
違法薬物や過激な表現、暴力的・性的な内容を含む投稿を自動的に非表示にし、検索機能やおすすめ表示の一部を制限することで、有害コンテンツから若年層を保護する狙いがある。
■ アルゴリズム段階で制御 18歳未満は表示対象外に
新たなシステムでは、AIによる投稿解析を通じて薬物、暴力、性的表現、自傷行為などを含む可能性がある投稿を自動的に判別。
18歳未満のアカウントには、該当コンテンツが「おすすめ」や「発見」欄に表示されないよう設計されている。
また、特定のハッシュタグ検索や関連リール表示も制限され、アルゴリズムの段階で未成年ユーザーを有害情報から遠ざける仕様となっている。
■ 適用範囲は世界共通 ティーン保護を国際的に強化
Metaは、この新方針を「ティーン・セーフティ・アップデート」と位置付け、全世界で段階的に適用を進めている。
すでに北米・欧州では実装が始まっており、日本を含むアジア地域でも数週間以内に反映される見込み。
同社は声明で次のように説明している。
「若者たちが安心して自分を表現できるプラットフォームを作ることが私たちの最優先課題です。
今回のアップデートは、リスクの高い情報拡散を抑え、健全なコミュニティを維持するための一歩です。」
■ 背景:若年層のSNS利用トラブル増加
この対応の背景には、近年相次ぐSNS上でのトラブルがある。
10代ユーザーが違法薬物の売買アカウントや性的搾取行為に巻き込まれるケースが世界的に増加。
また、誹謗中傷や「過剰加工による自己肯定感の低下」といった心理的影響も指摘されており、
各国政府がSNS企業に対し、未成年保護策の強化を求めていた。
■ 今後の展望と課題
Instagramでは今後、
- 未成年アカウントの初期設定を「非公開」に統一
- DM機能の年齢制限強化
- AIによる不適切コメント検出の拡張
といった追加施策も予定されている。
一方で、「表現の自由」とのバランスをどう取るかという課題も残る。
専門家からは「過剰な制限による情報格差の拡大」を懸念する声も上がっている。
■ まとめ
- Instagramが18歳未満ユーザー向けの有害コンテンツ制限を世界的に強化
- AIが薬物・暴力・性的投稿などを自動判別し非表示化
- 若年層のSNSトラブル急増を受け、Metaが安全対策を拡充
- 一方で表現の自由との調和が今後の課題に
コメント