CSAM写真スキャンツールを廃止するというAppleの決定が新たな論争を引き起こす from wired.com security summary Twitter Facebook はてブ Pocket LINE コピー 2023.09.01 www.wired.comApple's Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh Controversy - wired.comChild safety group Heat Initiative plans to launch a campaign pressing Apple on child sexu... Appleは、同社の写真スキャンツール「iCloud」から児童の性的虐待に関するコンテンツを検出し、削除するよう求める児童安全団体の要請に応じた。 同団体は、ユーザーがコンテンツを監視および検出できるように「通信の安全」機能を組織していると述べた。 注目すべきことに、Apple は以前、プライバシーを保護するクラウド CSAM スキャン機能を設計する努力を無駄にしていると述べていた。
コメント