イーロン・マスクのAIモデル「Grok」は意外なほど政治的に中立的だった
コメント
注目のコメント
客観的に「中立」を定義すること自体に無理がある。
単純に事実関係を伝えるだけであっても、どこを切り取るか/削ぎ落すかによって一定の恣意性は入り込んでしまう。
ましてや事実関係の「解釈」であれば何らかの価値判断基準を置かざるを得ず、社会に絶対的/共通的な基準がない以上、受け手によってその回答は右にも左にも評価され得る。
AI活用における現実解は、AIの回答内容自体の中立性を追求するのではなく、
・AIに、回答とそれを生成した際の判断軸/論拠を合わせて提示させる
・ユーザー側がプロンプトで多様な考えの提示を求める
・ユーザーが複数のAIを併用して各製品の回答の癖や対象テーマに係る意見の幅/ブレを把握/理解するよう努める
あたりになるように思う。ニュースばかり見てると世界が壊れているように見えても実際にはニュースにならない問題のないところが多く総体としてはむしろ良くなっていたりするように、自らの意見を表明する場での発言を学習すれば当然現状に対して不満のある(すなわち左寄りの)出力になる。
AIモデルに政治的なポジションがある(とか差別的である)かのような表現は擬人化が過ぎるし、学習元データより生成側の技術を悪者に見せる点であまり適切ではないと思うけど、学習データの偏りをなくせない以上、世界の実態を正確に捉えるという課題は(2023年末時点の生成AIが使うタイプの)大規模言語モデルすべてに共通するものであって、技術者視点では決して軽視できないフィードバックなんだと思う。