Appleが提案する携帯電話スキャンの児童安全機能は「侵襲的で非効果的で危険」とサイバーセキュリティ研究者が新たな研究で指摘
木曜日、十数人の著名なサイバーセキュリティ専門家が、物議を醸しているiPhone上の児童性的虐待画像を検出する計画において「危険なテクノロジー」に依存しているとしてAppleを非難した( ニューヨーク・タイムズ より)。
このひどい批判は、人々の携帯電話に違法なコンテンツが含まれていないか監視するアップルと欧州連合の計画を調査した研究者らによる46ページの新たな研究の中で出されたもので、その取り組みは政府の監視を強化する無効果で危険な戦略であるとされている。
8 月 に発表された計画された機能には、ユーザーの iCloud 写真 ライブラリの児童性的虐待素材 (CSAM) のクライアント側 (つまりデバイス上) スキャン、露骨な性的写真の送受信時に子供とその親に警告する通信の安全性、および Siri と検索の CSAM ガイダンスを拡張しました。
研究者らによると、欧州連合が公開した 文書 によると、欧州連合の統治機関が、暗号化された携帯電話をスキャンして児童の性的虐待だけでなく、組織犯罪の兆候やテロリスト関連の画像をスキャンする同様のプログラムを模索していることが示唆されている。
「法を遵守する国民をスパイし、影響を与えようとする試みに抵抗することが国家安全保障上の優先事項であるべきだ」と研究者らは述べ、欧州連合にその計画の危険性を知らせるために研究結果を現在公表していると付け加えた。
同団体のメンバーでケンブリッジ大学の安全保障工学教授ロス・アンダーソン氏は、「国家の監視権限の拡大はまさに一線を超えている」と述べた。
![]()
研究者らは、監視上の懸念とは別に、この技術が児童の性的虐待の画像を識別するのに効果的ではないことを調査結果が示していると述べた。 Appleの発表から数日以内に、画像をわずかに編集することで検出を回避する方法を人々が指摘したと彼らは述べた。
同グループの別のメンバーで、タフツ大学のサイバーセキュリティと政策を専門とするスーザン・ランドー教授は、「これにより、違法行為が行われる可能性のある理由がなくても、個人の私用デバイスのスキャンが許可されることになる」と付け加えた。 「これは非常に危険です。ビジネス、国家安全保障、公共の安全、プライバシーにとって危険です。」
サイバーセキュリティ研究者らは、アップルの発表前に研究を開始しており、欧州連合(EU)に独自の同様の計画の危険性を知らせるため、現在研究結果を公表していると述べた。
Apple は、iOS 15 および iPadOS 15 の将来のアップデートにこの技術を導入するという決定に対して 、プライバシー擁護者 、 セキュリティ研究者 、 暗号化専門家 、 学者 、 政治家 、さらには 社内の従業員 からも重大な批判にさらされています。
Appleは当初、懸念を和らげるために詳細情報の 公開 、FAQの共有、 さまざまな新しい文書 、 企業幹部へのインタビュー などを通じて誤解を払拭し、ユーザーを安心させることに努めた。
しかし、これが意図した効果を発揮していないことが明らかになると、Apple はその後否定的なフィードバックを認め、CSAM システムを「改善」する時間を与えるために 機能の展開を延期することを 9 月に発表しました。何が関与するのか、懸念事項にどのように対処するのかは明らかではない。
アップルはまた、児童性的虐待資料の認定データベースによってフラグが付けられた児童の写真以外にも画像検出システムを拡大するという権威主義政府の要求 を拒否 すると述べたが、裁判所に従うのではなく市場から撤退するとは明言していない注文。










