Image Credit:Discord bans teen dating servers and the sharing of AI-generated CSAM

Discordは、子供やティーンエイジャーを保護するための方針を更新しました。これは、プレデターがアプリを利用して児童性的虐待物資 (CSAM) を作成し、拡散し、若者を誘い込むのに利用しているとの報告が出たためです。プラットフォームは、AIによって生成されたフォトリアルなCSAMの明示的な禁止規定を追加しました。ワシントン・ポストによると、AIの進化により、子供を性的に描写した写真が増えてきています。同紙は、Discordでテキストからイメージを生成するMidjourneyというAIが不適切な子供の画像を作成するために使用されるという会話を目にしました。
AIによって生成されたCSAMの禁止に加えて、Discordは子供を性的に描写するテキストやメディアコンテンツの禁止も明示的に規定しています。さらに、ティーンのデートのためのサーバーも禁止し、この行為に関与するユーザーに対しても対策を取ることを約束しています。以前のNBCニュースの調査では、マイナーからヌード画像を要求する参加者がいるティーンのデートのためのDiscordサーバーも広告されていました。
以前から、成人ユーザーはDiscord上で未成年者を誘い込んでいますし、未成年者から自分の性的画像を送るように強要する犯罪組織も存在します。ティーンのデートのためのサーバーを完全に禁止することで、この問題を軽減することができるかもしれません。Discordはまた、ポリシーの中に、「年上のティーンが年下のティーンを誘惑し、接触する場合には『Inappropriate Sexual Conduct with Children and Grooming Policy』に基づいて対応する」という文言も盛り込んでいます。
Discordはルールの更新に加えて、最近Family Centerというツールも導入しました。これは、親が子供の活動をチャットサービス上で監視するために使用することができます。親は子供のメッセージの実際の内容を見ることはできませんが、このツールにより、子供がどのような人と友達で、どのような人とプラットフォーム上で会話しているのかを確認することができます。Discordは、これらの新しい対策とツールが、従来の対策とともに未成年者の安全を守るのに役立つことを期待しています。従来の対策には、PhotoDNAを使用してプラットフォームにアップロードされた画像を積極的にスキャンすることも含まれています。


Pexelsによる写真提供

Discordは、子供やティーンエイジャーを保護するためのポリシーを更新しました。このプラットフォームが、捕食者がアプリを利用して児童性的虐待物資(CSAM)を作成・拡散し、また若者を誘惑しているとの報告が出ていました。Discordは今回、AIによって生成された写真のように見えるCSAMを明示的に禁止することとしました。最近のワシントンポスト紙による報道によれば、生成AIの発展により、子供の性的描写を含む写真の拡散が増えています。同紙は、Midjourneyというテキストから画像を生成するAIがDiscord上で不適切な子供の画像を作成する方法についての会話を目にしていました。

AIによるCSAMの禁止に加えて、Discordは他の種類の子供の性的描写を含むテキストやメディアコンテンツも明確に禁止することとしました。また、ティーンエイジャー向けのデーティングサーバーも禁止し、このような行為に関与するユーザーに対しても対策を取ることを誓っています。以前のNBCニュースの調査では、ディスコード上でティーンエイジャー向けのデーティングサーバーが宣伝され、未成年者から裸の画像を要求する参加者もいたことが判明しています。

そして、Discordでは以前から大人のユーザーが子供を誘惑する行為のために起訴されており、いくつかの犯罪組織が未成年者を脅して自分自身の性的画像を送らせる活動も行われています。ティーンエイジャー向けのデーティングサーバーの完全な禁止は、この問題を緩和するのに役立つでしょう。さらに、Discordのポリシーには、年上のティーンエイジャーが年下のティーンエイジャーを誘惑している場合、それは「適切でない性行為及び子供誘拐ポリシー」に基づいて審査・処分されることが明記されています。

Discordはルールの更新に加えて、最近Family Centerツールを導入しました。これは、ユーザーのメッセージの内容自体を見ることはできませんが、子供がプラットフォーム上で誰と友達であり、誰と会話しているのかを保護者が把握できる、自発的に参加するツールです。Discordは、これらの新しい対策とツールが、以前からの対策に加えて未成年ユーザーの安全を確保するのに役立つことを期待しています。以前からの対策には、PhotoDNAを使用してプラットフォームにアップロードされた画像を積極的にスキャンするものがあります。

引用元記事はこちら
Discord bans teen dating servers and the sharing of AI-generated CSAM

error: Content is protected !!