• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

アップルが「児童への性的虐待」の画像検出を“延期”したことの意味

62
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    Weights & Biases カントリーマネージャー

    賛否には主にこの技術が他の目的で使われるのではないかという懸念があります。テロリストの発見などは正当化されうる目的かもしれませんが、エドワードスノーデンのケースのように国のテロリスト認定を正当とみなせないシチュエーションもある。
    技術としては、非可逆な圧縮(ハッシング)をLocally Sensitive(局所性鋭敏)に行うという技術です。似た画像を
    (同じ画像から機械的に生成できる)ベクトル空間の似た場所に配置するように自己学習したディープラーニングネットワークを使うことにより、セマンティックに近しい画像が近しい数値に圧縮される。セマンティックにというのはそのレベル感や閾値にもよるけれど、例えば使い方によっては一枚の裸の児童の写真をもとに、写真としては著しく異なっていても、裸の児童が写っている写真を高速に探してくる、というようなことが可能になる。
    ハッシングにおける類似・重複コンテンツの検索などは特にテキストにおいてはかなり前から使われており、その手法は確立されている。一方で、どれくらいの揺らぎを許容するのかは主観的な匙加減があり、また今回1番の問題はサーバー上にあるとは言ってもユーザーの所有しているデータや、個人の端末の中にある写真を対象にするという点。当然幼児ポルノは明確に撲滅されるべき行為でありながら、その調査のために無条件に家宅捜査が行われるとなれば誰もが危機感を抱くと思う。それにちょっと近い。

    本アルゴリズムの概念的仕様はこのドキュメントにおいてアップルが公開している: https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf


  • 某証一部企業 product marketing chief 某証一部企業 product marketing chief

    写真という個人の所有物を、クラウドという個人が利用するレンタルスペースに預ける。その、個人所有物を、レンタルスペース運営会社が勝手に見て検閲行為を行う。

    これはほとんどの人がプライバシーの侵害と感じるもの。司法の権力による範疇であり、私企業が行える範疇を超えているのでは?
    個人が尊重される民主主義社会の仕組みとして受け入れるのは無理でしょう。

    クラウドにアップロードした写真を検閲するのではなく、公のネットワーク上にアップロードした段階で検閲がかかる仕組みにしたらどうか?

    ここまでの権利侵害する気概があるなら、「性犯罪歴のある人はアップル商品、サービスの利用を禁止する」とした方が社会的インパクトも含め影響と効果があるでしょう。


  • とあるシステムインテグレーターの契約社員

    ニューラルハッシュの技術的な議論をここでしても不毛ですし、それが有意義な場は、もっと別の場所と時期があるでしょう

    いま、ここでの議論は、もっと個人的な見解への問いかけではないのでしょうか?

    あなたは、
    そう、あなたのことです

    児童の性的虐待を防ぐためだったら、自分のスマホとクラウドストレージの中の、個人プライバシーへの侵害を認めるかどうか?
    それに対する、あなた自身の選択です

    政府がー
    とか
    アップルへの信頼性がー
    とかではなく

    性的虐待を、搾取を受けている子どもたちに、私たちが何を差し出せるか?なのではないのでしょうか


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか