Apple、CSAM 検出システムのセキュリティとプライバシーについて新しい文書で概説
Apple は本日、設計原則、セキュリティとプライバシーの要件、脅威モデルの考慮事項など、 先週初めて発表した子供の安全機能 のより詳細な概要を説明する 文書を共有しました 。
iCloud 写真に保存されている既知の児童性的虐待資料 (CSAM) 画像を検出するという Apple の計画
は特に物議を醸しており
、一部のセキュリティ研究者や非営利電子フロンティア財団などから、このシステムが政府によって悪用される可能性について懸念が生じています。集団監視の一種。
この文書はこれらの懸念に対処することを目的としており、 Apple のソフトウェアエンジニアリング責任者である Craig Federighi とのインタビュー で明らかになったいくつかの詳細を繰り返し述べています。その中には、Apple が iCloud アカウントに手動レビューのフラグが立てられる前に、既知の CSAM 画像の初期一致しきい値を 30 個に設定する予定であることが含まれます。会社。
Appleはまた、既知のCSAM画像のデバイス上のデータベースには、同じ政府の管理下ではなく、別々の主権管轄区域で活動する2つ以上の児童安全団体が独自に提出したエントリのみが含まれているとも述べた。
![]()
このシステムは、ユーザーが Apple やその他の単一の組織、さらには同じ主権管轄権にある (つまり、同じ政府の管理下にある) 共謀している可能性のある一連の組織を信頼する必要がなく、システムが信頼できるように設計されています。宣伝どおりに機能しています。これは、デバイス上で実行するために世界中に配布される単一のソフトウェア イメージの本質的な監査可能性、デバイス上の暗号化された CSAM データベースに含まれる知覚イメージ ハッシュが 2 人以上の子供の安全によって独立して提供されるという要件など、いくつかの連動メカニズムによって実現されます。独立した主権管轄区域に属する組織、そして最後に、誤った報告を防ぐための人によるレビュープロセスです。
Apple は、この機能をサポートするすべての Apple オペレーティング システムの各バージョンに含まれる暗号化された CSAM ハッシュ データベースのルート ハッシュを含むサポート ドキュメントを Web サイトで公開すると付け加えました。さらに、Apple は、ユーザーがデバイス上に存在する暗号化されたデータベースのルート ハッシュを検査し、サポート ドキュメントに記載されている予想されるルート ハッシュと比較できるようになると述べました。このための期限は設けられていない。
ブルームバーグ のマーク・ガーマン氏が入手した メモの中で、アップルは独立監査人にもシステムを審査させる予定だと述べた。このメモでは、Appleの小売店の従業員が子供の安全機能について顧客から質問を受けている可能性があることを指摘し、従業員が質問に対処し、より明確で透明性を顧客に提供するために利用できるリソースとして 今週初めにAppleが共有したFAQにリンクしていると 述べた。
Appleは当初、新しい子供の安全機能は今年後半のソフトウェアアップデートでiPhone、iPad、Macに導入される予定だと述べ、同社はこれらの機能は米国での発売時にのみ利用可能になると述べた。批判にさらされているにもかかわらず、Appleは本日、機能をユーザーに公開するこの期限に変更はないと述べた。




![Apple、iOS 18 および iPadOS 18 の 6 回目のベータ版を開発者に提供 [アップデート: パブリックベータ版が利用可能]](https://i1.wp.com/cdn-ak.f.st-hatena.com/images/fotolife/h/haosan/20230801/20230801080225.png?resize=768,372&ssl=1)






