画像生成AIの訓練に「児童ポルノ」が使用されていたことが発覚
コメント
注目のコメント
生成AIの生成画像は本質的に非実在です。なので児童の顔生成を止めるか、裸体全体の生成を止めない限り、擬似児童ポルノの生成は止められないはずです。
需要が高いからと放置するには、児童搾取は問題が深刻です。フェイクニュースや誹謗中傷でも画像生成AIの威力は絶大です。画像生成AIはカジュアルな悪用の影響が大き過ぎるとも感じます。AI規制が法整備されるまで、一旦立ち止まることが必要かもしれません。記事にもありますが、とくにStable Diffusionが取り沙汰されているのは、それがオープンソース化されているため特に影響が大きいこと想定されるからであって、今回問題の根本にある学習用データセット「LAION-5B」等を用いているのは、Midjourney、Imagenなど画像生成AIブームを牽引してきた主要なAIモデルが名を連ねています。
AI開発では量だけでなく質の伴ったデータが必要だとよく言われます。恣意的かそうでないかは別に、こうしたバイアスを生むような悪質なデータが用いられたことは許されることではありません。
ですが、こうしたデータをどこから得たのかを辿ると、それは私たち人類の一部の人々が過去に意思を持って世に放ったものであることに恐らく間違いありません。
言ってみれば今回の事件は、AIモデルそのものや開発者に問題があることもさることながら、私たち人類の過去の行動にも責任が問われているに等しいことを忘れてはいけないのだと思います。AIは学習材料に不適切なものが含まれていても、その部分だけ学習内容を取り除くことができないので、データを精査する前処理が非常に重要です。
そのため、今回のような不適切な画像が訓練データに入っていると、モデルを再度学習し直さない限り、無かったことにはできないので、AIを、作る際には細心の注意が必要です。