• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

【大問題】ひそかに起きてる、AIと企業の「巨大トラブル」

NewsPicks編集部
1047
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • NewsPicks 編集委員(ニューヨーク支局)

    AIによる「事故」が、水面下で多数、起きているという話。おそらく、表沙汰になっていないものが、山のようにあるはずです。

    昨年11月、米国で上場している不動産テック企業のジロー(Zillow)が、いきなり「AIによる不動産バイバイで、3億ドルの損失を出した」として、この新規事業をすべて凍結するという発表をしています。これで株価は30%以上も吹っ飛び、従業員の1/4はクビになりました。

    こうしたAIの「リスク」をあぶり出すサービスを展開しているのが、ロバストインテリジェンス。このスタートアップは、米国サンフランシスコで日本人起業家の大柴さん(まだ20代!)が率いる注目株で、いまAI業界で静かにおきているリスクについて語ってもらいました。


  • 東北大学医学部医学科 第2期 NewsPicks Student Picker

    ヘルスデータを機械学習的手法で解析している者です。AIの判断を鵜呑みにすることで取り返しがつかなくなる危険性があることは医療の世界でも全く同じです。どの領域においても必要なことは、AIに対するリテラシーを持つことだと思います。

    たしかにAIは統計学の延長という側面がありますが、古典的な統計学ではまず人間が数理モデルや分布を仮定することが必要です。他方、一般にAIと呼ばれる手法の中には、人間が予め数学的な構造を設定することなく学習を行ってくれるものが多く存在します。

    ここで大事なのは、ほとんどの場合AIの学習には教師データ(答え付きのデータセット)が必要だということです。記事でも一部触れられていましたが、学習するデータにバイアスが含まれていた場合、バイアスを反映した出力となることが大きな問題です。この問題はさらに別の2つの問題も含んでいると私は思います。

    ①教師データのラベリングの妥当性
    そもそも画像の中に写っているものが牛である、という人間の判断が正しかったかという問題です。これは既存の知識体系に依存した形でしか答えを設定出来ない以上、ブレイクスルーとなる新しい分類法を見つけることが出来ないという課題に繋がります。

    ②AIが学習時に用いた特徴量が人間とは異質な可能性がある点
    AIは牛そのもののみならず、牛を含んだ画像全体から共通点を探り出すことで『牛を含んだ画像』の特徴を見つけ出します。牛以外の要素でも学習が行われていることは長短ともにありますが、本記事で問題になっている短所は背景画像により牛の文脈を失ったとき、AIは人間よりも誤った判断を行う危険性が高いのではないかという懸念です。ある研究では、人間にはわからない程度のノイズを画像に含めるだけで途端にAIの正解率が下がった、というものもあります。AIが何を根拠に学習を行っているのかわからないとされることが多い中でいかに致命的な誤判断を見抜くか、という問題が存在します。

    AIを活用する現場の人たちはその限界をよく理解して使い方を限定しますが、世間ではAIに対する過剰な期待があり何でも出来るのではないかという感覚の解離があります。AIがあるから人間が暗記を放置してもよいという主張は時に暴論であり、医学を発展させていくためには人間が知を学び続ける必要性が失われることはないのだと痛感させられることが多々あります。


  • badge
    慶應ビジネススクール 教授

    与信の差別の話は、実はAIが偏っているというよりは、現実世界の偏りを見える化しただけではないのかという気もします。裸の王様を指摘した子供と同じ。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか