• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

アップル、性的に露骨な子供の写真を検出し通報-年内に新機能導入

Bloomberg.com
279
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • 製造業 主任研究員

    エラー率1/1兆っていくらなんでも低すぎるだろ…と思いましたが、これは内容を認識して性的搾取かどうかを判定しているわけではなく、公的機関が「これは性的搾取の画像」と認定している画像リストがあって、それと同じ画像を持っているかどうかを判定するという話ですね。
    なので、プライベートに撮影した子供の裸の写真が検閲される可能性は極めて低くて(1/1兆)、ネットで流通している画像をそういう趣味の人がダウンロードしたり、誤って子供が見てしまったり、といったことを防ぐためのものに見えます。

    ちなみに、全く同じ画像ファイルを持っているかどうかは、1/1兆よりも遥かに高い精度(実質ゼロ)で判定することが容易にできますが、画像ファイルは流通する過程で再圧縮されたり切り抜かれたりと言った加工が自動的になされるので、全く同じファイルになりません。そこで、非常に似た画像であればある程度加工がなされても検出できるような工夫がされており、そのため1/1兆という、低いものの画像が膨大にあればたまにエラーが起きる程度の精度になっています。


    追記

    画像は暗号化されており、性的搾取とされる画像と一致しない限りAppleや当局は復号して画像の中身を見れないという主張で、そのエラー率(性的搾取とは関係ないのに、性的搾取と判定されてAppleや当局が無関係の画像を見てしまう確率)が1/1兆ですね。それを高いと見るか低いと見るかですが、少なくともプライバシに対する配慮は感じられます。


注目のコメント

  • badge
    専修大学 商学部教授

    米国民は、政府等の検閲を受け入れ難い国民性を有していると思われますので、一部に強い拒否反応があると思われますが、一方で、法律で社会的弱者を保護するという考え方が強く、特に児童の保護には高い関心が保たれているので、アップルの取り組みは、差し引きすると、世論には歓迎されると思います。

    しかし、そもそもが一企業アップルによる個人データの検閲であり、それの国家への通報を実施するためには、アップルが提供するクラウドを利用する際に同意すべき「契約=プライバシー・ポリシー」に定めておく必要があると思います。その存在があるのなら、企業がユーザーの「犯罪の証拠」を当局に提供しても、ユーザーから責任を問われることはないでしょう(同意しているのですから)。

    この方法を用いれば、強い犯罪抑止力が得られると思います。これにより、ネットの公共性が高まることが期待できます。(米国政府がアップルに検閲を要望していることが背景にあるかもしれません。)


  • badge
    慶應ビジネススクール 教授

    この件はアメリカでもプライバシー問題で騒いでいますが、個人的には「ここまでできるのか」という驚き。少し前に、確かグーグルの画像認証にバイアスがあり公的に使おうとしたことが取り消されましたが、いずれもっとすごいことが起こりそう。


  • badge
    株式会社ポーラ 代表取締役社長

    それほど、児童に対してのさまざまな問題があるということ。まずは危険な目に遭っている、或いはこれからそうならないようにする施策は必要だと思います。際限なく広がるオンライン上の情報の規制も必要だと思います。そことプライバシーの問題は切り離せない課題。監視社会的な恐怖感もありますが、放置することで新たな恐怖を生んでいる事実もある。個人の情報の閲覧、情報への介入に関してはその必要性と納得度を高める必要はあるのかと。
    監視or抑止 この問題はこれからますます重要な課題。議論しつつ進めないと。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか