Apple は今年後半に新しい子供の安全機能をリリースすることに引き続き取り組んでいます
先週、Apple は 新しい子供向け安全機能をプレビューし 、今年後半にソフトウェア アップデートで iPhone、iPad、Mac に搭載される予定であると発表しました。同社は、この機能は米国での発売時にのみ利用可能になると述べた。
前回の記事から、Apple の新しい子供の安全機能についておさらいします。
![]()
まず、iPhone、iPad、Mac のメッセージ アプリのオプションのコミュニケーション セーフティ機能を使用すると、性的に露骨な写真を送受信したときに子供とその親に警告できます。 Appleによると、この機能が有効になると、メッセージアプリはオンデバイスの機械学習を利用して添付画像を分析し、写真が性的に露骨であると判断された場合、写真は自動的にぼかされ、子供に警告されるという。
第二に、Apple は iCloud 写真に保存されている既知の児童性的虐待マテリアル (CSAM) 画像を検出できるようになり、これらの事例を協力して活動する非営利団体である国立行方不明搾取児童センター (NCMEC) に報告できるようになります。米国の法執行機関と連携。 Appleは本日、このプロセスはiCloud写真にアップロードされる写真にのみ適用され、ビデオには適用されないことを認めた。
第三に、Apple は、子供と保護者がオンラインで安全を保ち、危険な状況で助けを得るのに役立つ追加のリソースを提供することにより、デバイス間で Siri と Spotlight Search のガイダンスを拡大します。たとえば、CSAM や児童の搾取を報告する方法を Siri に尋ねたユーザーは、報告の場所と方法に関するリソースを案内されます。
先週の木曜日にこの計画を発表して以来、Apple は 、Appleが「大規模な監視を展開している」と主張するNSA内部告発者のエドワード・スノーデンから、新しい児童安全機能が 「バックドア」を生み出すと 主張する非営利電子フロンティア財団に至るまで、いくつかの鋭い批判を受けてきた。 」 を会社のプラットフォームに導入します。
「Appleが構築している狭いバックドアを広げるために必要なのは、追加の種類のコンテンツを探すための機械学習パラメータを拡張するか、子供だけでなくあらゆる人のアカウントをスキャンするための設定フラグを微調整することだけだ」とcowrote氏は述べた。 EFFのインディア・マッキニーとエリカ・ポートノイ。 「それは滑りやすい坂道ではありません。外部からの圧力がわずかに変化するのを待っているだけの、完全に構築されたシステムです。」
懸念は一般大衆にも広がっており、7,000人以上がAppleのいわゆる「プライバシーを侵害するコンテンツスキャン技術」に反対し、同社に計画されている子供向け安全機能の放棄を求める 公開書簡に署名し ている。
現時点では、否定的なフィードバックがあったために Apple が計画を再検討したようには見えません。本日、Apple に確認したところ、新しい子供の安全機能が利用可能になるタイミング、つまり今年後半の iOS 15、iPadOS 15、watchOS 8、macOS のアップデートに関して、同社が変更を行っていないことを確認しました。モントレー。ただし、機能のリリースには数週間から数か月かかると予想されているため、計画は依然として変更される可能性があります。
Appleが自社の計画を堅持すれば、国際的な反人身売買組織ソーンの最高経営責任者(CEO)ジュリー・コードゥア氏を含む数名の支持者を喜ばせるだろう。
「子どもたちのプライバシーの必要性とデジタル上の安全性のバランスを取る技術ソリューションを導入するというアップルの取り組みは、最も衝撃的な瞬間がオンラインで拡散された生存者に対する正義に一歩近づくことになる」とコーデュア氏は述べた。
Family Online Safety Institute の CEO である Stephen Balkam 氏は次のように述べています。 「子供たちをオンラインで保護する際に親が直面する課題を考慮すると、テクノロジー企業は新たなリスクや実際の被害に対応するために安全ツールを継続的に反復し、改善することが不可欠です。」










