Apple 従業員が社内で CSAM 検出計画について懸念を表明
Appleの従業員は現在、 iPhone ユーザーの写真ライブラリをスキャンしてCSAMや児童性的虐待の素材を探すというAppleの計画に懸念を表明する人々の合唱団に参加しており、伝えられるところによると、この技術を利用してユーザーの写真をスキャンして他のタイプのコンテンツを見つけることができるかについて社内で発言しているという。 ロイター通信 の報道によると。
Reuters
によると、不特定多数の Apple 従業員が社内の Slack チャネルを利用して、CSAM 検出に対する懸念を表明したとのことです。特に従業員らは、CSAM以外のコンテンツを発見することで、政府がAppleに検閲のための技術の使用を強制する可能性があると懸念している。一部の従業員は、Apple が業界をリードするプライバシーの評判を傷つけているのではないかと懸念しています。
匿名を希望した従業員らがロイターに語ったところによると、アップル従業員らはアップル社内のSlackチャンネルに、1週間前に発表された計画に関する800件以上のメッセージを大量に投稿した。数日にわたってこのスレッドを見た作業員らによると、多くの人がこの機能が検閲や逮捕のための他の材料を見つけようとする抑圧的な政府によって悪用されるのではないかと懸念を表明した。
![]()
アップルの過去のセキュリティ変更も従業員の間で懸念を引き起こしたが、新たな議論の量と期間は驚くべきものだと従業員らは述べた。一部の投稿者は、Apple がプライバシー保護においてトップクラスの評判を傷つけているのではないかと懸念していました。
報告書によると、ユーザーのセキュリティに関連する役割を担っているApple従業員は内部抗議活動に参加していないと考えられているという。
先週の発表 以来、Apple は CSAM 検出計画をめぐって批判を浴び続けていますが、この計画は 今秋に iOS 15 および iPadOS 15 で展開される予定です 。懸念は主に、この技術が抑圧的な政府や政権による将来の導入にどのような滑りやすい坂をもたらす可能性があるかを中心に展開されている。
Apple は、CSAM 素材の検出に使用されるデバイス上のテクノロジーが他の目的に使用される可能性があるという考えに断固として反対しました。
公開された FAQ 文書
の中で、同社は政府によるそのような要求を断固として拒否すると述べています。
![]()
政府は Apple に非 CSAM イメージをハッシュ リストに追加するよう強制できるでしょうか?
Apple はそのような要求を拒否します。 Apple の CSAM 検出機能は、NCMEC およびその他の児童安全グループの専門家によって特定された、iCloud 写真に保存されている既知の CSAM 画像を検出することのみを目的として構築されています。私たちは以前にも、ユーザーのプライバシーを損なう政府命令の変更を構築および展開するという要求に直面しましたが、それらの要求を断固として拒否してきました。今後ともお断りさせていただきます。明確にしておきますが、このテクノロジーは iCloud に保存されている CSAM の検出に限定されており、それを拡張するという政府の要求には応じません。さらに、Apple は NCMEC に報告する前に人間によるレビューを実施します。既知の CSAM 画像と一致しない写真にシステムがフラグを立てた場合、アカウントは無効化されず、NCMEC にレポートは提出されません。
Apple を批判し、CSAM 検出の導入計画を直ちに中止するよう求める 公開書簡 には、この記事の執筆時点で 7,000 件以上の署名が集まっています。 WhatsApp の責任者も この議論に参加し ています。










