インスタグラム、未成年者を守るために対策
世界中で10億人以上が利用している巨大SNSのインスタグラムが、未成年の安全を守るために新たな対策を取ることを発表。成人が18歳以下のユーザーにDM(ダイレクトメッセージ)を送ることに関して、多数の制限や対策がなされる。
まず、未成年のユーザーがフォローしていない成人のアカウントが、その10代の子供にDMを送ることは出来なくなる。
もちろんインスタグラム側は、一部ユーザーが年齢をごまかしていることも理解しており、ユーザーが登録時に入力した年齢の他、機械学習によって予測されたユーザーの年齢も対策に利用されるという。また、DMの内容は暗号化されるため、この対策でDMの中身自体にアクセスされることはないそう。
また、10代のユーザーがすでに相手をフォローしている場合にも、対策はある。例えば、成人ユーザーが18歳以下のユーザーに大量のフレンドリクエストやメッセージリクエストを送っているなど、不審な行為をしている場合、安全のための通知が、すでにその成人とやり取りをしている10代のユーザーにも送られる。そして、会話を終了する、ブロックする、違反報告をするなどのオプションも表示される。
また、10代のユーザーに対して不審な行動をしている成人ユーザーには、インスタグラムで未成年者を見つけづらくするという対応も取るという。例えば、おすすめユーザーや、リール、発見のページに、10代のユーザーが表示されなくなり、未成年ユーザーの投稿にコメントしても自動的に見えなくされるという。
インスタグラムによると、これらの対策は今月中にもいくつかの国で開始され、近いうちにインスタグラムが利用できるすべての国で実装されるように動いているという。(フロントロウ編集部)