Facebookの元セキュリティ責任者、Appleが計画している子供向け安全機能を巡る論争について語る
メッセージやユーザーの写真ライブラリのスキャンを伴う 新しい児童安全機能 を実装するというAppleの計画をめぐる論争が続く中、Facebookの元セキュリティ責任者アレックス・ステイモス氏が、複数の関係者の批判と将来への提案を交えて議論に加わった。
ステイモス氏は広範な
Twitter スレッド
で、児童保護と個人のプライバシーに関する議論には「簡単な答えはない」と述べた。
ステイモス氏は、新機能の発表に対するAppleの対応に不満を表明し、近年、エンドツーエンド暗号化の安全性とプライバシーの側面に関する広範な業界議論に同社が参加していないことを 批判した 。
Apple は招待されたものの、これらの議論への参加を拒否し、今回の発表で彼らはバランスの議論に突入し、公的な協議や討論もなしに全員を隅っこに追いやっただけだ。
同様に、 ステイモス氏は 、電子フロンティア財団(EFF) や国立行方不明・搾取児童センター(NCMEC)などのさまざまなNGOが、公式声明に議論の余地をほとんど残していないことに失望していると述べた。例えばNCMECは、新機能のプライバシーへの影響を疑問視する Apple従業員を「少数派の金切り声」と呼んだ 。 「アップルの公の動きにより、アップルは自社株を極端に主張するようになってしまった」とステイモス氏は説明した。
ステイモス氏は、Appleの発表に驚いた セキュリティ研究者 や活動家に対し、世界の規制環境にもっと注意を払うよう 促し 、英国のオンライン安全法案とEUのデジタルサービス法がAppleの新しい児童安全機能導入の動きに貢献したのではないかと推測した。
![]()
Apple のアプローチの基本的な問題の 1 つは、自社の通信製品に真の信頼性と安全性の機能を構築することを必死に避けているように見えることです。 iMessage には、スパム、殺害の脅迫、ヘイトスピーチ、NCII、またはその他の種類の不正行為を報告するメカニズムがありません。
同氏は また、Appleには信頼と安全のための十分な機能がないと述べ 、 iMessageに報告システムを構築し、ユーザーに虐待行為の報告を促すクライアントサイドMLを展開し、最悪の事態を調査するために児童安全チームを配置するようAppleに奨励した。報告します。
代わりに、13 歳(以下)のみを対象とした ML システム(私の経験ではセクストーション/グルーミングのターゲットとしては最大のグループではありません)を利用し、子供たちに選択の余地のない選択肢を与え、親に通知します。 Apple T&S の代わりに。
Stamos氏は、 iCloud バックアップ暗号化が進行中でない限り、なぜAppleがローカルでCSAMをスキャンしているのか理解できないと 述べ 、Appleがクライアント側の分類器に対する意見を「毒づいた」可能性があると警告した。
![]()
また、iCloud バックアップの実際の暗号化の準備中でない限り、Apple が iCloud の CSAM スキャンをデバイスにプッシュする理由もわかりません。適切なターゲットは共有 iCloud アルバムをスキャンすることです。これはサーバー側で実装できます。
いずれにせよ、地元の写真を同意なくスキャンして、実際の危害をあまり防ぐことができないクライアント側の ML を作成して出てきたということは、Apple がクライアントのあらゆる使用に対して井戸を汚染した可能性があることを意味します。ユーザーを保護するための -side 分類子。
それにもかかわらず、 ステイモス氏は 、Facebook が CSAM と一致する既知の画像をスキャンすることで、児童虐待画像を投稿した 450 万人のユーザーを捕らえ、これは犯罪者全体の一部にすぎないと強調した。




![Apple、iOS 18 および iPadOS 18 の 6 回目のベータ版を開発者に提供 [アップデート: パブリックベータ版が利用可能]](https://i1.wp.com/cdn-ak.f.st-hatena.com/images/fotolife/h/haosan/20230801/20230801080225.png?resize=768,372&ssl=1)






