• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

アップル、児童虐待画像の検出技術に関するFAQを公開

23
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • フリーランス/零細投資家

    これが実装されるとなると、性犯罪被害者やいじめ被害者が脅迫やフザけた末のネタとして撮影された画像等も後々含まれることになっていくんでしょうか。
    iCloudにアップしない、Android端末で撮影するといった方向に向かうだけな気もしますが、ごく一部でも救われるケースがあれば意味はあるのかもしれません。プライバシーとの兼ね合いも含めて今後議論を深めていく意義は大きいと感じます。


  • 会社員

    「人間による確認」があるから大丈夫、というような書き方だけど、人間の信頼性、悪意や意図的な利用が無い事を、どうやって保証するのだろうか。

    「既知のCSAM画像」とは、どの様な画像で、基準はあるのか。
    情報が公開されないのなら、基準はAppleが自由に変更出来るかもしれない。

    アプリ内でスクリーンショットを保存出来るゲームやサービスもある。
    アプリとiCloudとの関係が不明だが、Appleの方針によって、影響を受けるアプリもあるのだろうか。悪意があろうと無かろうと。


  • Colleagues/ふるさと納税ガイド CTO

    人間による確認をします!とか言ってますが、そもそも我が子の水着を人間が確認している事実が気持ち悪いので普通にpixelに乗り換える事にしました。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか