新着Pick
45Picks
Pick に失敗しました

人気 Picker
「米MicrosoftのAI「Tay」の差別的なツイート」がやり玉に上がっているので、ちょっとだけ援護射撃しますね。

Microsoftは人種や性別、宗教、政治的思想などにバイアスがみられると報道された直後に速やかに問題を解決し、様々なAIサービスにおいてバイアスが気にならないほど精度を改善しています。それなのに、それは報道されない。