最新言語モデルでも避けられない。AIにおけるジェンダー・バイアス
コメント
注目のコメント
プロピッカーとしてこういう風に書いちゃダメかもしれないんですが、この話、ちょっと分からないんですよね。
言葉から色々推察する、というのは大切な事で、「〇〇寄り」というのを実態に即した形で理解していることが、様々な物事への理解に繋がると思うのだけれども、「ジェンダー」とか「人種」とかの情報を欠落させるのが、本当に必要な事なのか、ちょっと分からないです。それだけならまだ理解度は落ちないかもしれないけど、ここからさらに「年齢」とか、様々なものをどんどん欠落させていくと、ただ物分かりの悪いAIが生まれそう。
差別とかが生まれるのが良くない、という話はもちろんそうなんですが、極端になりすぎると気持ち悪いな、って思ってます。例えば日本で使う製品で、日本人が99%判別出来るけど、アメリカ人は70%しか判別できない顔認識カメラ、みたいなのがあったとして、これは差別的だから両方90%のものを使え、みたいになると、ちょっと意味が分からないな、と思いますし。
僕の無知もあると思うのですが、差別というものに対して過剰に対応しすぎているように見えるケースは僕視点だと多くありますし、今回のケースの一部もそう見えます。もちろん「バイアスがある」という事実だけに留まるのであれば良いのですが、「なので変更を加えるべきだ」という方向に繋がり、全方面で不幸になってしまうケース、というのもあるのかなー、と。
どこまでが許されて、どこまでが許されないべきか。その「許されないライン」がどんどん進んできていて、それを止めると袋叩きにされる、という環境が出来ているような気がしますし、AI/人間双方において、そうした議論の場があるべきなのかなあ、と感じています。
AIによる差別が知らぬ間に発生することと、何もかもが差別扱いされて何も語れなくなること、どちらが怖いかと言われると、今の僕にはわかりません。面白い!AIのジェンダー・バイアスがは作る側の人間から受け継げられているということ自体は想像の範囲内ですが、実世界のジェンダー・ギャップの克服、データ自体の男女バランスなど、AIの中での多様性も積極的に取り入れる必要がある、、、専門家のご意見も聞きたいと思いました。
興味深いですね。そもそもartificial “human-like” intelligence であって、実際の人と社会のモデリングや学習からAIが構築されるわけです。人と社会の模倣。
ジェンダーバイアスのような論理的に正誤のつかない文化的intelligenceは生身の人間と同じく周囲環境(与えられたデータ)から影響され学習して身に付けるしかない。良いAIに育ちましたねぇ、きっと育て方が良かったんだ、とか、育て方が悪いからこんなAIになってしまったんだぞ!とか。