新着Pick
113Picks
Pick に失敗しました

人気 Picker
まだAIが学習できる量が揃っていないのは難しいですよね。
わたしたちが不適切だと思ったら不適切としていくことも大切です。
ソーシャルメディアだけではなくマーケットプレイスなどのメディアも同様の問題があります。一般の人ではいないと思いますが、悪意をもってガイドラインをかいくぐってビジネスにしようという人が必ずいるので、その対応はイタチごっことなります。

記事内の実数値があっているかは定かではないですが、マニュアルでチェックして学習データをとり、なるべく自動化されるような仕組みづくりを目指しているのでしょう。今後GAFAだけでなく、プラットフォームを目指す日本企業の課題になると思いますので、海外でやっていることを参考にできたらいいですね。
1時間25件、普通の人が見るSNSの量と大して変わらないか、それより少ないのでは、という印象。総論、良くやっている方だと思う。テクノロジーの精度で追いつかない以上は人力でやるよりほかない。そのやり方が非人道的というほどにも見えない。
Facebookを見ていて不適切コンテンツのようなものに出くわした経験もほぼ無い。一方で周囲にいわれのない不適切コンテンツ削除をくらった人はごく少ないものの何人かいる。

ただし適切な回復措置がなされるのならば、不適切コンテンツがばら撒かれるくらいなら多少厳しかったり間違いが混ざったりするのは許容の範囲なのではなかろうか。何事も完璧は無い事をこの類のGAFA批判においては前提に置くべきではなかろうか。ちなみに彼の研究室かは知らないがこの統計の発表元NY大学MBAには、かのアンチGAFA急先鋒、スコットギャロウェイ教授がいる。
青少年のネット問題や炎上問題が重視され始めたのは10年ほど前ですが、プラットフォーム上の違法有害情報をチェックする仕事は心を病むという指摘が当時もうありました。AI自動チェックの導入を期待していましたが、まだまだなんですね。
Facebookのコンテンツ監視についてのデータが興味深い。
監視のモデレーター1万五千人で、1日あたり300万件の投稿を監視。心理的に圧迫される投稿もあるでしょうし、ちょっとゆとりがないのかなという気もしましたが...
個々のコンテンツを監視するので難しいのであり、そのコンテンツを投稿する人のプロファイリングをすることで、第一弾のフィルターをかければ、監視する対象を劇的に減らすことができるのではないでしょうか?

セキュリティ分野では常識ですが、問題のある行動をする人達の割合は、全体のうち、極めて限定されていますから。

※個人的な見解であり、所属する会社、組織とは全く関係ありません
Facebook(フェイスブック、FB)は、アメリカ合衆国カリフォルニア州メンローパークに本社を置くFacebook, Inc.が運営する世界最大のソーシャル・ネットワーキング・サービス(SNS)である。Facebookという名前は、アメリカ合衆国の一部の大学が学生間の交流を促すために入学した年に提供している本の通称である「Face book」に由来している。 ウィキペディア
時価総額
78.1 兆円

業績