ChatGPTに書かせた過去の判例が嘘まみれと発覚。書類提出の弁護士に制裁の可能性
コメント
選択しているユーザー
厳密性が必要な領域では、やはり使えない。
人間の脳は、人それぞれの経験や必要なことによって進化すると、つくづく感じる。言葉を選ばなければ、ふわっとしたことで世の中のかなりのコミュニケーションは回っていて、そこの一定部分にChatGPTはフィットしている。逆に一個の厳密性が破綻するとすべての信頼が崩れたり論理が崩れるような領域もあり、そこは職業倫理や訓練含めて、同じ脳でも違う深化をする。
厳密性をどこまで求めるかについて、Tempretureでの対応だけでなく、LLMに対してFew Shotsの教師学習をしたら、ここはどれだけ対応できるようになるのだろう?
注目のコメント
英文の元記事や裁判書面を読むと、リストに虚偽の裁判例の名前や番号を載せただけでなく、相手方からリストの裁判例が発見できないとクレームをつけられて、生成AIに書かせた偽の判決文まで提出した可能性があるとのこと。
完全に故意ですし、しかも、バレるに決まっているので、浅はかとしか言いようがない。やはりまだ正確性を求める仕事を盲目的に任せられる精度には至っていないという事でしょう。
ChatGPTの精度は、その領域の専門家にしかわからないところがあります。というのも、正しい事を言っているのかどうか判断できるのがその領域の専門家だからです。
そういう意味では、トップの専門家はどの領域でも残るでしょうし、なんちゃって専門家は駆逐されるでしょう。
医療界では、日米の医師国家試験を通る性能を示していますが、それも正しい指令を送っているからです。使う側が正確に情報をインプットできなければ、役立たずになってしまいます。
ChatGPTの医療的な使い方について、これからトピックスで連載を始める予定ですので、ご興味のある方はご覧ください。