Image Credit:Meta vows to take action after report found Instagram’s algorithm promoted pedophilia content

Instagramで未成年者向け性的なコンテンツが広まっていたことが報じられ、Metaは内部のタスクフォースを設立した。Instagramはファイル共有サービスのようではなく、アルゴリズムを通じてこのような活動を取り上げ推奨しているため、問題が指摘されていた。Metaは対策を講じ、CSAMネットワークのブロックや関連ハッシュタグの遮断などを行っている。また、潜在的な加害者同士が連絡しやすいシステムを改良していく考えを示した。Metaは根本的な改善を迫られており、同社の前セキュリティ責任者は、同社が外部調査者よりもCSAMネットワークをマッピングするのに遥かに優れたツールを持っているにもかかわらず、三人の学者が大量のネットワークを発見したことはMetaに警鐘を鳴らすべきだと語った。しかし、Instagramは、調査の問い合わせがあるまで、自社システムがCSAMと関連がある可能性のある用語を検索できるようにしていた。これを改善するシステムをMetaは構築中である。


Pexelsによる写真提供

ウォール・ストリート・ジャーナル紙によれば、報道陣と研究者たちが調査した結果、Metaのシステムが未成年者向けの性的コンテンツに関連するアカウントの広範なネットワークの構築と促進を手助けしていたことから、Metaは内部タスクフォースを設立しました。 Instagramは、フォーラムやファイル転送サービスとは異なり、このような活動をホストするだけでなく、アルゴリズムを通じて促進しています。 Metaは、CSAMネットワークをブロックする取り組みや、システムの変更に取り組んでおり、過去2年間に27のペドフィルネットワークを撤去し、関連するハッシュタグを数千もブロックしています。しかし、Metaの元セキュリティチーフのアレックス・スタモス氏によると、この報告書はMetaの目を覚まさせるべきだということです。スタモス氏は、「限られたアクセスがある3名の学者がこのような広範なネットワークを発見したことは、Metaで警報を鳴らすべきだ」と述べ、MetaはCSAMネットワークをマッピングするための外部調査者よりも優れたツールを持っているため、「人間の調査員に再投資することを望んでいる」と述べました。

引用元記事はこちら
Meta vows to take action after report found Instagram’s algorithm promoted pedophilia content

error: Content is protected !!