プライバシー内部告発者のエドワード・スノーデン氏とEFFがメッセージとiCloud画像をスキャンするAppleの計画を非難
児童性的虐待資料データベース(CSAM)と照合してユーザーの iCloud写真 ライブラリをスキャンし、露骨なコンテンツと一致するものや児童のメッセージを探すという Appleの計画が、 プライバシー内部告発者のエドワード・スノーデン氏と電子フロンティア財団(EFF)から批判を浴びている。
著名なプライバシー運動家で内部告発者のエドワード・スノーデン氏は、一連のツイートの中で、Appleが「全世界への大規模監視」の一種を展開し、Appleがインターネット上の他の任意のコンテンツをスキャンすることを可能にする前例を作っているとの懸念を強調した。未来。
スノーデン氏はまた、Appleが歴史的にデジタルプライバシーの点で業界のリーダーであり、2015年12月にカリフォルニア州サンバーナーディーノで起きた襲撃事件の犯人の1人であるサイード・ファルークが所有していた iPhoneの ロックを解除するよう 命じられていたにも関わらず、ロックを解除することさえ拒否したことにも言及した。 FBIと連邦判事がそう判断した。アップルは「危険な前例」を作ることになるとして、この命令に反対した。
著名な国際的な非営利デジタル著作権団体であるEFFは、 ユーザーのiCloudライブラリとメッセージをスキャンするAppleの動きを広範囲に非難し、 「エンドツーエンド暗号化のチャンピオン」が非常に「失望している」と述べた。は「プライバシーとセキュリティにおける同社のリーダーシップに依存してきたユーザーにとって衝撃的な方向転換」を図っている。
児童搾取は深刻な問題であり、それに対抗するためにプライバシー保護の姿勢を曲げたテクノロジー企業はAppleが初めてではない。しかし、その選択はユーザーのプライバシー全体にとって高い代償を払うことになります。 Apple は、その技術的な実装によって、提案されているバックドアのプライバシーとセキュリティがどのように保護されるかを詳細に説明できますが、結局のところ、徹底的に文書化され、慎重に検討され、範囲が狭いバックドアであっても、依然としてバックドアであることに変わりはありません…
![]()
子供が送受信する性的に露骨な画像にのみ使用できるクライアント側スキャン システムを構築することは不可能です。その結果、そのようなシステムを構築するための善意の取り組みでさえ、メッセンジャーの暗号化自体の重要な約束を破り、より広範な悪用への扉を開くことになります。
![]()
Apple が構築している狭いバックドアを広げるために必要なのは、追加の種類のコンテンツを探すための機械学習パラメータを拡張するか、子供だけでなくあらゆる人のアカウントをスキャンするための設定フラグを微調整することだけです。それは滑りやすい坂道ではありません。それは完全に構築されたシステムであり、外部からの圧力がわずかな変化をもたらすのを待っているだけです。
EFFは、世界中のさまざまな政府がメッセージングアプリを含むさまざまなプラットフォーム上のコンテンツの監視と検閲を要求する法律をどのように可決したかを強調し、メッセージと「iCloud写真」をスキャンするというAppleの動きは、追加の素材を含めることが法的に義務付けられたり、簡単に拡大されたりする可能性があることを強調した。 「誤解しないでください。これはすべての iCloud 写真ユーザーにとってプライバシーの低下であり、改善ではありません」と EFF は警告しました。詳細については 、EFF の記事全文を ご覧ください。
この非難は、昨日 Appleが変更を発表して 以来、ソーシャルメディア上で セキュリティ研究者やユーザーから寄せられた多数の懸念 に加わり、計画を撤回してプライバシーへの取り組みを確認するようAppleに求める 請願 を引き起こした。
注: このトピックに関する議論の政治的または社会的性質のため、議論スレッドは 政治ニュース フォーラムにあります。すべてのフォーラム メンバーとサイト訪問者はスレッドを読んでフォローすることができますが、投稿できるのは少なくとも 100 件の投稿があるフォーラム メンバーに限られています。




![Apple、iOS 18 および iPadOS 18 の 6 回目のベータ版を開発者に提供 [アップデート: パブリックベータ版が利用可能]](https://i1.wp.com/cdn-ak.f.st-hatena.com/images/fotolife/h/haosan/20230801/20230801080225.png?resize=768,372&ssl=1)






