Image Credit:Apple Provides Further Clarity on Why It Abandoned Plan to Detect CSAM in iCloud Photos

アップルは、昨年の議論を巻き起こしたiCloud Photos内に保存されている児童ポルノを検出するという計画を放棄した理由について、詳細な説明を提供しました。アップルのプライバシーと子供の安全の責任者であるエリック・ノイエンシュワンダー氏は、「児童ポルノは忌まわしいものであり、私たちは子供たちがそれに影響されることを防ぐために、強制力と影響力の連鎖を断ち切ることに取り組んでいます」と述べました。しかし、プライバシーとセキュリティの研究者、デジタル権利団体、子供の安全を守る支援団体と協力して検討した結果、アップルはプライバシーを保護するために特別に構築された児童ポルノスキャン機能の開発を進めることはできないと結論付けました。

アップルは、2021年8月にiOS 15とiPadOS 15のアップデートで児童ポルノの検出などを実施する予定だと発表しましたが、顧客や支援団体、研究者などからのフィードバックに基づき、機能の延期を決定しました。提案された計画は、セキュリティ研究者、電子フロンティア財団(EFF)、政治家、政策団体、大学の研究者、さらには一部のアップル社員からも批判されました。

アップルの最新の回答は、英国政府が検討している監視法改正案により、エンドツーエンドの暗号化などのセキュリティ機能を非活性化するようにテック企業に要求するという議論が再燃しているタイミングで行われました。もし現行の法案が可決されれば、アップルはFaceTimeやiMessageなどのサービスを英国で提供することを中止すると述べています。
Appleは、昨年iCloud Photosに保存されている既知の児童ポルノ画像を検出するという物議を醸した計画を放棄した理由について、最も詳細な説明を提供しました。
Appleのディレクターであるエリック・ノインシュヴァンダーは、児童保護団体であるHeat Initiativeの要求に応じて、同社の回答として以下のように述べています。「児童ポルノ画像は憎むべきものであり、私たちはそれによって子供たちが影響を受けやすくなる脅迫や影響力の連鎖を断ち切ることに取り組んでいます」と。しかし、彼はまた、プライバシーとセキュリティの研究者、デジタル権利団体、子供の安全を考慮する者らと協力した結果、同社はプライバシーを保護するために特に構築されたCSAMスキャン機構の開発を進めることができないと結論付けたと述べています。
Appleは、2021年8月に既知のCSAM画像を検出するシステムを含む3つの新しい児童保護機能を発表しましたが、CSAM検出機能の実装は延期されました。この計画は、セキュリティ研究者、電子フロンティア財団(EFF)、政治家、政策グループ、大学の研究者、さらには一部のApple社員など、幅広い人々や団体から批判されました。
この問題へのAppleの最新の対応は、イギリス政府によって再燃された暗号化の論争の時期に行われました。イギリス政府は、サービス提供企業に対して、エンドツーエンドの暗号化などのセキュリティ機能を非活性化することを要求する監視の立法を修正する計画を検討しています。Appleは、現行の形式でこの法案が可決されれば、FaceTimeやiMessageなどのサービスをイギリスで提供しなくなると述べています。

引用元記事はこちら
Apple Provides Further Clarity on Why It Abandoned Plan to Detect CSAM in iCloud Photos

error: Content is protected !!