新着Pick
97Picks
Pick に失敗しました

人気 Picker
AIの特徴と限界を示す象徴的な事例ですね。いまのAIは原理的に倫理観をもちえません。なにが不適切で、なにが差別なのかは、文脈によって異なります。

さらに文脈はその社会の在り方にも左右されます。30年前ならまったく問題なかった発言が、いまでは大問題になるわけです。こうしたさまざまな文脈を踏まえて、完全に不適切発言を防ぐのは、人間でも困難です。

ましてや、人間とは比べものにならないぐらい高速に学習ができるAIであれば、小さな歪みでもどんどん大きくなります。人間であれば、なあなあで済ませられるのに、AIではそういうわけにはいきません。

最後は「倫理とはなにか」に行き着きます。これは人類がずっと議論していることで、いくら高速学習をしても答えが出るものではありません。現実的な解決策は「答えを控える(なあなあで済ませる)」ということでしょう。対話AIなら、実装はそう難しくないはずです。しかし、対話以外のケース、よりシリアスな問題(たとえばトロッコ問題)であれば、判断を控えているわけにはいきません。何でも自由に学習させるのではなく、事前に教師が教え込む必要があります。だからAIの自立学習は難しいのです。

AIが人間の代わりになるというのは絵空事です。他方で、AIにはさまざまな使い途があります。今回の事例は、その試行錯誤の代表例と受け止めました。
非常に興味深い出来事。AIの難しさなんでしょうね。
人も同じで関わる人やコミュニケーションで考え方が変わる。だけど、倫理観や価値観というフィルタを通すことで変な考えにならないように自らを守っている。これが時として先入観として悪く働くこともある。先入観も自らを守るためにあるフィルタなんでしょうね。人の頭はやはりすごいなとも思います。AIを作るときはいきなりゼロからではなく、まずは教養を学ぶ必要があるということですね。全く人と同じですね。
AIって言うと本当に知性があるように聞こえてしまい、こういった記事は怖いですよね。


エモーショナルな記事を書けば世間の注目を集まりやすいです。でもそれだとただの思考停止になってしまい、「AI=よくわからないコワイもの」という空気を世間に醸成してしまいます。
せっかくの便利な道具を食わず嫌いするのは大きな損失です。


大事なのは仕組みの方で、機械学習では「それっぽい関数」を計算機による試行回数の暴力で作ってるだけです。(非常に強引なまとめ方ですが、、、およそ合ってる表現だと思います)

ルダの返答がy、利用者が送信した文字列をxとすると、
y=f(x)のfを無理矢理作るのが機械学習です。

本記事でもとりあげられていますが、fの制御に困っているんですよね。

「暴走した」「こわいねえ〜」で終わるのではなく、原理から説明すれば
「まだまだ技術的に未熟だから、我々が良い教師データを与えてみんなで良いモデルにしよう」みたいな意識も生まれるんじゃないでしょうか。夢の見過ぎですかね、、、

まあ、ユーザのリテラシーも求められるようになっています。
なぜこれが記事になるのか。もしかして機械学習が陥ったワナだったりして。