【悲報】弁護士が裁判でチャットGPTを使ったらこうなった
NewsPicks編集部
260Picks
コメント
注目のコメント
ChatGPT3.5を使って、医療論文の検索をしても、同じように架空の論文を出してきて、もと論文に行き着く事が出来ない事象が起こりました。
しかし、それも徐々に改善されてきており、現在のChatGPT4では直接リンク先を示さないものの、ある程度正しい情報を示してくれるようになってきました。
ChatGPTは登場時からものすごい注目を受けていますが、印象としては成長段階で、物凄いスピードで間違いの修正が進んでいると思います。
近々、この記事の弁護士ようにChatGPTを活用した方が良い時代が来る可能性が高いと思います。弁護士がChatGPTを鵜呑みにしたというのは、にわかには信じがたいです。でも本当だったのですね。
しばらくするとChatGPTの正確性は飛躍的に改善されるでしょう。むしろごくたまに間違える状態になり、裏取りを省きがちになった時の方が怖いです。
出典が示されても間違えは何種類かあります。
•リンク先が存在しない出典を捏造する
•出典文書に存在しない情報を生成する
•出典文書の要約時に意味を逆転した表現を生成する
•出典文書の要約時に別の箇所を要約してしまう
だから、出典元文書を良く読む必要があります。こうした事例は氷山の一角でしょうね。
ChatGPTの修正は進むでしょうが、Google検索同様、ずっと「使う人次第」ではないでしょうか。
そして「本」だってそういうものかもしれません。
当該事件について昨日のVoicyで話したばかりでした。
「残念なChatGPT悪用事例と、AIのたどりつけない領域」
https://r.voicy.jp/MLmPYzwO9z7
#Voicy