Apple、iCloud写真からCSAMを検出する計画を放棄した理由をさらに明確に
Appleは木曜日、 iCloud写真 に保存されている既知の児童性的虐待資料(CSAM)を検出するという物議を醸す計画を昨年 放棄したこと について、これまでのところ最大限の説明を行った。
Wired
と共有され、以下に転載された Apple の声明は、同社が
iCloud
から CSAM を「検出、報告、削除」し、ユーザーがそのようなコンテンツを同社に報告するためのより多くのツールを提供するという児童安全保護団体 Heat Initiative の要求に応えたものである。
Appleのユーザープライバシーおよび児童安全担当ディレクターのエリック・ノイエンシュワンダー氏は、ヒート・イニシアチブに対する同社の回答文の中で、「児童性的虐待の内容は忌まわしいものであり、当社は子どもたちを性的虐待の影響を受けやすくする強制と影響力の連鎖を断ち切ることに尽力している」と述べた。しかし、プライバシーとセキュリティの研究者、デジタル権利団体、児童の安全擁護活動家らと協力した結果、たとえプライバシーを保護するために特別に構築されたものであっても、CSAM スキャン メカニズムの開発を進めることはできないという結論に達したと同氏は付け加えた。 。
![]()
「個人的に保存されているすべてのユーザーの iCloud データをスキャンすると、データ窃盗犯が見つけて悪用できる新たな脅威ベクトルが生み出されることになる」とノイエンシュワンダー氏は書いている。 「また、意図せぬ結果が生じる滑りやすい状況に陥る可能性もある。たとえば、ある種類のコンテンツをスキャンすると、一括監視の扉が開かれ、コンテンツの種類を超えて他の暗号化メッセージング システムを検索したいという欲求が生まれる可能性がある。」
2021年8月、Appleは3つの新しい児童安全機能の 計画を発表した 。これには、「iCloud写真」に保存されている既知のCSAM画像を検出するシステム、メッセージアプリ内の露骨な性的写真をぼかす通信安全オプション、および Siri の児童搾取リソースが含まれる。 Communication Safety は、2021 年 12 月に iOS 15.2 で米国で開始され、その後英国、カナダ、オーストラリア、ニュージーランドに拡大し、「Siri」リソースも利用可能になりましたが、CSAM 検出は最終的に開始されることはありませんでした。
Appleは当初、CSAM検出が2021年末までにiOS 15およびiPadOS 15のアップデートに実装される予定だと述べていたが、同社は「顧客、擁護団体、研究者などからのフィードバック」に基づいてこの機能を延期した。この計画は、 セキュリティ研究者 、 電子フロンティア財団 (EFF) 、 政治家 、 政策団体 、 大学研究者 、さらには 一部の Apple 従業員 を含む幅広い個人や組織によって批判されました。
この問題に対するアップルの最新の対応は、英国政府によって暗号化議論が再燃している時期に行われた。英国政府は、テクノロジー企業に対し、国民に通知することなくエンドツーエンド暗号化などのセキュリティ機能を無効にすることを義務付ける 監視法の改正計画を検討して いる。 。
Appleは、この法案が現在の形で可決されれば 、英国でFaceTimeやiMessageなどのサービスを廃止 すると発表した。
注: このトピックに関する議論の政治的または社会的性質のため、議論スレッドは 政治ニュース フォーラムにあります。すべてのフォーラム メンバーとサイト訪問者はスレッドを読んでフォローすることができますが、投稿できるのは少なくとも 100 件の投稿があるフォーラム メンバーに限られています。










