• ブログ
  • 米アップル、児童性的虐待画像を...
米アップル、児童性的虐待画像を検出へ アメリカ国内のiPhoneなどスキャン

米アップル、児童性的虐待画像を検出へ アメリカ国内のiPhoneなどスキャン

米アップルは5日、アメリカ国内のiPhoneユーザーが画像をクラウドサービス「iCloud」に保存する際に、児童性的虐待コンテンツ(CSAM)かどうかを特定するシステムを導入すると発表した。

アップルによると、画像がiCloud内に保存される前にCSAMかどうか検知するという。

全米行方不明・被搾取児童センター(NCMEC)や、児童の安全に関連する団体が収集した、児童性的虐待画像のデータベースと、iPhoneユーザーが保存しようとしている画像を比較する仕組み。

CSAM画像は「ハッシュ」と呼ばれる数値コードに変換され、アップルのデバイス上の画像と「照合」するという。

アップルは、画像が編集されていても、オリジナル画像と類似するものを検出できるとしている。

CSAMと判断された場合には、人間が内容を確認した上で、ユーザーについて法執行機関に報告するという。

しかし、こうした技術が、禁止されているコンテンツや政治的発言などの特定にまで利用され、プライバシーが侵害されるのではないかとの懸念が浮上している。

米アップル、児童性的虐待画像を検出へ アメリカ国内のiPhoneなどスキャン

専門家たちは、独裁政府が自国民の監視にこの技術を使いかねないと懸念している。

アップルは今年後半にリリースされるiOSおよびiPadOSの新バージョンについて、「ユーザー・プライバシーに配慮しつつ、オンラインでのCSAMの拡散を抑制する暗号技術の新アプリケーション」が含まれる予定だと説明した。

「極めて高い精度」

アップルは「画像がiCloud Photosに保存される前に、デバイス上で画像と既知のCSAMハッシュとの照合処理が行われる」と説明している。

このシステムは「極めて精度が高く、特定のアカウントについて誤った警告を出す確率は、1年間で1兆分の1以下」だという。

CSAMの疑いが報告されると、一つ一つを手動で確認し、CSAMに一致するものがあるかを判断する。その後、ユーザーのアカウントを無効にし、法執行機関に報告するための措置をとる。

同社は、特定ユーザーの保存画像を把握するのは、そのユーザーがiCloud Photosアカウントに、すでにCSAMだと判定されている画像を保持している場合のみだと説明。そのため、この新技術は既存技術に比べてプライバシー保護の面で「大きな」メリットがあるとした。

一方で、懸念を示すプライバシーの専門家もいる。

「アップルが長期的にどのような計画を立てているかに関わらず、同社は非常に明確なシグナルを発している。ユーザーの携帯電話をスキャンして禁止コンテンツを検出するシステムを作っても安全だ――というのが同社の(非常に影響力のある)考え方だ」と、米ジョンズ・ホプキンス大学のセキュリティ研究者マシュー・グリーン氏は指摘した。

「その今後が今後、正解と出るか間違いだったと出るか、それはほとんど問題ではない。これでダムが決壊する。それがポイントだ。今後は、各国政府があらゆる事業者に、この技術の導入を要求するはずだ」