アップル、児童虐待画像の検出技術に関するFAQを公開
コメント
注目のコメント
これが実装されるとなると、性犯罪被害者やいじめ被害者が脅迫やフザけた末のネタとして撮影された画像等も後々含まれることになっていくんでしょうか。
iCloudにアップしない、Android端末で撮影するといった方向に向かうだけな気もしますが、ごく一部でも救われるケースがあれば意味はあるのかもしれません。プライバシーとの兼ね合いも含めて今後議論を深めていく意義は大きいと感じます。「人間による確認」があるから大丈夫、というような書き方だけど、人間の信頼性、悪意や意図的な利用が無い事を、どうやって保証するのだろうか。
「既知のCSAM画像」とは、どの様な画像で、基準はあるのか。
情報が公開されないのなら、基準はAppleが自由に変更出来るかもしれない。
アプリ内でスクリーンショットを保存出来るゲームやサービスもある。
アプリとiCloudとの関係が不明だが、Appleの方針によって、影響を受けるアプリもあるのだろうか。悪意があろうと無かろうと。