Apple、サードパーティアプリへの新しいチャイルドセーフティ機能の拡張に前向き
Apple は本日、 新しい子供の安全機能 に関する記者との質疑応答セッションを開催し、説明会の中で、Apple は将来的にこの機能をサードパーティのアプリに拡張することに前向きであることを確認しました。
おさらいとして、Apple は、iOS 15、iPadOS 15、macOS Monterey、watchOS 8 の将来のバージョンに搭載される 3 つの新しい子供の安全機能を発表しました。
Apple の新しい子供の安全機能
まず、iPhone、iPad、Mac のメッセージ アプリのオプションのコミュニケーション セーフティ機能を使用すると、性的に露骨な写真を送受信したときに子供とその親に警告できます。 Appleによると、この機能が有効になると、メッセージアプリはオンデバイスの機械学習を利用して添付画像を分析し、写真が性的に露骨であると判断された場合、写真は自動的にぼかされ、子供に警告されるという。
第二に、Apple は iCloud 写真に保存されている既知の児童性的虐待マテリアル (CSAM) 画像を検出できるようになり、これらの事例を協力して活動する非営利団体である国立行方不明搾取児童センター (NCMEC) に報告できるようになります。米国の法執行機関と連携。 Appleは本日、このプロセスはiCloud写真にアップロードされる写真にのみ適用され、ビデオには適用されないことを認めた。
第三に、Apple は、子供と保護者がオンラインで安全を保ち、危険な状況で助けを得るのに役立つ追加のリソースを提供することにより、デバイス間で Siri と Spotlight Search のガイダンスを拡大します。たとえば、CSAM や児童の搾取を報告する方法を Siri に尋ねたユーザーは、報告の場所と方法に関するリソースを案内されます。
サードパーティアプリへの拡張
Appleは、今日発表できることは何もないが、ユーザーがより広範囲に保護されるように、チャイルドセーフティ機能をサードパーティにも拡張することが望ましい目標であると述べた。 Appleは具体的な例を明らかにしなかったが、可能性の1つは、子供が受け取った露骨な性的写真をぼかすために、Snapchat、Instagram、WhatsAppなどのアプリで利用できるようにするコミュニケーションセーフティ機能である可能性がある。
もう 1 つの可能性は、Apple の既知の CSAM 検出システムが、iCloud 写真以外の場所に写真をアップロードするサードパーティ製アプリに拡張される可能性があることです。
Appleは、チャイルドセーフティ機能がいつサードパーティに拡張されるかについての時期については明らかにせず、機能のテストと展開をまだ完了する必要があると述べ、また、潜在的な拡張が行われないことを確認する必要があるとも述べた。プライバシー特性や機能の有効性を損なうもの。
大まかに言えば、サードパーティへの機能の拡張が同社の一般的なアプローチであり、2008年にiPhone OS 2にApp Storeを導入してサードパーティアプリのサポートを導入して以来、Appleはそうしてきたと述べた。










