Instagram、18歳未満ユーザーへの有害コンテンツ制限を強化 Metaが新たな安全対策を発表

Meta社は10月15日、SNSプラットフォーム「Instagram」において18歳未満のユーザーを対象とした新たな安全強化策を発表した。

違法薬物や過激な表現、暴力的・性的な内容を含む投稿を自動的に非表示にし、検索機能やおすすめ表示の一部を制限することで、有害コンテンツから若年層を保護する狙いがある。

■ アルゴリズム段階で制御 18歳未満は表示対象外に

新たなシステムでは、AIによる投稿解析を通じて薬物、暴力、性的表現、自傷行為などを含む可能性がある投稿を自動的に判別。

18歳未満のアカウントには、該当コンテンツが「おすすめ」や「発見」欄に表示されないよう設計されている。

また、特定のハッシュタグ検索や関連リール表示も制限され、アルゴリズムの段階で未成年ユーザーを有害情報から遠ざける仕様となっている。

■ 適用範囲は世界共通 ティーン保護を国際的に強化

Metaは、この新方針を「ティーン・セーフティ・アップデート」と位置付け、全世界で段階的に適用を進めている。

すでに北米・欧州では実装が始まっており、日本を含むアジア地域でも数週間以内に反映される見込み。

同社は声明で次のように説明している。

「若者たちが安心して自分を表現できるプラットフォームを作ることが私たちの最優先課題です。

今回のアップデートは、リスクの高い情報拡散を抑え、健全なコミュニティを維持するための一歩です。」

■ 背景:若年層のSNS利用トラブル増加

この対応の背景には、近年相次ぐSNS上でのトラブルがある。

10代ユーザーが違法薬物の売買アカウントや性的搾取行為に巻き込まれるケースが世界的に増加。

また、誹謗中傷や「過剰加工による自己肯定感の低下」といった心理的影響も指摘されており、

各国政府がSNS企業に対し、未成年保護策の強化を求めていた。

■ 今後の展望と課題

Instagramでは今後、

  • 未成年アカウントの初期設定を「非公開」に統一
  • DM機能の年齢制限強化
  • AIによる不適切コメント検出の拡張
    といった追加施策も予定されている。

一方で、「表現の自由」とのバランスをどう取るかという課題も残る。

専門家からは「過剰な制限による情報格差の拡大」を懸念する声も上がっている。

■ まとめ

  • Instagramが18歳未満ユーザー向けの有害コンテンツ制限を世界的に強化
  • AIが薬物・暴力・性的投稿などを自動判別し非表示化
  • 若年層のSNSトラブル急増を受け、Metaが安全対策を拡充
  • 一方で表現の自由との調和が今後の課題に

関連記事

コメント

この記事へのコメントはありません。

アーカイブ