誤ちを犯すAI、なぜ男性や白人を“ひいき”してしまうのか
ビジネス+IT
321Picks
コメント
注目のコメント
AIの開発者は、偏った理系集団であり、文系の方が公平でバイアスのない視点を持っている…という記事の主張がもはや偏見。
あと、AIの偏見は、学習データに依存するものであり、そのデータの作り手は開発者ではないことが多く、理系や文系の偏りとは別の話。
という突っ込みどころ満載だが、偏見というより差別となるようなAIを開発しないようには注意が必要。
ただ、公平なAIを求める社会の裏には、AIはヒトよりも優れた神のような存在であるべきというバイアスを含んでおり、それは危うい思想だと自覚しておきたい。AIに学習させるデータの偏りがあれば、偏りが生まれます。
AIのエンジンの問題ではありません。
特に思想のようなものは、肯定している人よりも反発している人の方が多く発信する傾向があり、
ネットの情報をそのまま入れると、倫理から外れ反社会的な思想に育ってしまいます。
この代表的なものがマイクロソフトのTayです。
https://www.google.co.jp/amp/s/gigazine.net/amp/20160329-reason-microsoft-tay-crazy
これは情報元が荒れていたので、AIが不適切な成長を遂げてしまいました。
しかし、例えば、人がこれが正しいと押し付けると、それも偏りが生まれかねません。
思想において正しいデータを入れるということは、現実的に不可能だと思います。