AI精度が運用時に低下?人手をかけず自動修復する世界初の技術とは
コメント
注目のコメント
AIの陳腐化は今後大きな課題になると思います。
そもそもAIが正しい学習をしているのか、絶えず入力されるデータが信頼できるものなのか、素朴に考えれば考えるほど、AIに過度な期待は、企業リスクを知らぬ間に高めてしまいます。
AIモデルの精度の劣化を防ぎ切ることは、恐らくできないと考えて、企業は特に基幹システムとデータ分析が繋げていく際に、データサイエンティストの訓練を怠ってはいけない気がします。
AIモデルを作るデータサイエンティストではなく、その陳腐化を検証できる人材は、余程気合を入れないと育ちません。人材育成に時間がかかる保守メンテ要員みたいなものだからです。
NTTデータもDataRobotと予測モデルの更新の自動化サービスを提供しています。
MicrosoftやGoogleの動きは掴んでいませんが、AIをクラウドに実装するのであれば、より耐性の高いAIにしようと動いていると思います。
こういうところに日本のスタートアップが出てきてくれないかなと期待しているところです。これはめちゃくちゃ有用な技術ですね
ある程度特定の課題であれば学習時のデータ分布と今のデータ分布の違い(平均、中央値、標準偏差、最大最小等の統計情報)から精度向上を図れそうな気もするが、実際そんな簡単な話なんだろうか。
もっと難しい話の気がする
いずれにせよすごい常に過去の状況が良くないと判断して、アップデートをかけられると、自然災害等で突発的に物の流れが変わっただけなんて時もこちらが正しいと判断されてしまうのか。「AIって育てなくちゃいけないんだよね」って会話、好きなんだけどな。