Image Credit:Discord (still) has a child safety issue

Discord(ディスコード)は子供の安全性について問題があることが報告されました。NBC Newsによると、過去6年間に、Discordを通じたコミュニケーションが関わった「誘拐、少年愛、性的暴行」の容疑で起訴された大人35人を特定しました。少なくとも15人が有罪判決を受け、「多くの他の容疑者」がまだ裁判中です。さらに、報道陣は165件の事件を発見しました。そのうち、4つは犯罪組織で、成人がDiscordを使って児童性的搾取マテリアル(CSAM)を共有するために起訴され、または「セクストーション」という性的に露骨な画像を送信するように子供たちを脅迫しようとしたとされています。違法行為は、秘密のコミュニティやチャットルームで行われることがよくあります。Discordに対する子供の性的虐待の苦情に対する取り扱い方については、CNNが昨年問題になりました。

Discordは現在、1億5000万人以上のユーザーを有しており、透明性報告書では、子供の安全性に対する投資と優先順位がこれまで以上に強化されていると述べられています。Discordの信頼性と安全担当副社長であるジョン・レッドグレイブ氏は、Discordが2021年に人工知能モデレーション企業Sentropyを買収して以来、問題に対するアプローチが改善されたとしています。同社は、いくつかのシステムを使用して、CSAMを能動的に検出し、ユーザーの行動を分析しています。ただし、現時点では、まだインデックスされていない子供の性的虐待マテリアルやメッセージは検出できず、NBCニュースによると、過去1か月間に作成されたDiscordのサーバーのうち、242件がCSAMを販売するために紛れ込んでいることが明らかになりました。

Discordは、法執行機関にとって対処が特に難しいと報告されています。オンタリオ州警察が記録の保全を求めた場合でも、支払いを求めているとのことです。Discordからのコメントはまだありません。


Pexelsによる写真提供

Discordは、児童の安全に関する問題を抱えていることが報告されました。NBC Newsによると、Discordを介して「誘拐、誘い込み、性的暴行」の容疑で起訴された大人35人の事件が、過去6年間にわたって特定されました。そのうち少なくとも15件が有罪判決を受けており、「その他多数」がまだ審決前となっています。さらに、165件の事件が特定され、その中にはCSAM(児童性的搾取物)を共有したために起訴された大人や、自分たちの性的な画像を送るように子供たちを脅すためにこのサイトを使ったとされる者も含まれていました。これらの違法行為は、隠れたコミュニティーやチャットルームで頻繁に発生しているようです。

Discordは、児童性的虐待告発に対する取り扱いが問題視されてきた歴史があります。NCOSEはDiscordに対して、未成年者のアカウント凍結、児童性的搾取物の禁止など、サイトの大幅な改革を要求しています。Discordは2021年にAIモデレーション企業のSentropyを買収して以来、CSAMを検出し、ユーザーの行動を分析するためにいくつかのシステムを活用しており、大半のマテリアルをプロアクティブに検出することができるようになっているということです。ただし、現在のシステムは、索引されていない児童性的虐待マテリアルやメッセージを検出することはできません。NBC Newsによると、直近1か月間に作成されたDiscordサーバーのレビューでは、偽の用語を使ってCSAMをマーケティングする242個のサーバーが見つかりました。

引用元記事はこちら
Discord (still) has a child safety issue

error: Content is protected !!