ChatGPTに書かせた過去の判例が嘘まみれと発覚。書類提出の弁護士に制裁の可能性
コメント
選択しているユーザー
注目のコメント
英文の元記事や裁判書面を読むと、リストに虚偽の裁判例の名前や番号を載せただけでなく、相手方からリストの裁判例が発見できないとクレームをつけられて、生成AIに書かせた偽の判決文まで提出した可能性があるとのこと。
完全に故意ですし、しかも、バレるに決まっているので、浅はかとしか言いようがない。やはりまだ正確性を求める仕事を盲目的に任せられる精度には至っていないという事でしょう。
ChatGPTの精度は、その領域の専門家にしかわからないところがあります。というのも、正しい事を言っているのかどうか判断できるのがその領域の専門家だからです。
そういう意味では、トップの専門家はどの領域でも残るでしょうし、なんちゃって専門家は駆逐されるでしょう。
医療界では、日米の医師国家試験を通る性能を示していますが、それも正しい指令を送っているからです。使う側が正確に情報をインプットできなければ、役立たずになってしまいます。
ChatGPTの医療的な使い方について、これからトピックスで連載を始める予定ですので、ご興味のある方はご覧ください。