CSAM写真スキャンツールを廃止するというAppleの決定が新たな論争を引き起こす from wired.com

security summary



Appleは、同社の写真スキャンツール「iCloud」から児童の性的虐待に関するコンテンツを検出し、削除するよう求める児童安全団体の要請に応じた。
同団体は、ユーザーがコンテンツを監視および検出できるように「通信の安全」機能を組織していると述べた。
注目すべきことに、Apple は以前、プライバシーを保護するクラウド CSAM スキャン機能を設計する努力を無駄にしていると述べていた。

コメント

タイトルとURLをコピーしました