病気の際、自分で病状を判断しなければならない時でもChatGPTは力になってくれる
コメント
選択しているユーザー
あってるかあってないかわからないけれど、インターネット上の情報からあってそうなことを、あたかもわかったような文章で対応してくれるという意味では役に立つでしょうね。
「赤目」という非医学用語を結膜炎と表現できれば、たとえGoogleで普通に調べてもそれなりの情報には辿り着きます。
これが結膜下出血だったとしたら、結膜炎と調べても出てきませんが、うまく見つけられたら正直写真見るだけでそれだろうとわかりますし、様子見でも構いません。
(ただし、「赤目」で画像検索すると妖怪とか怖いのが出てくるので注意)
これが流行性角結膜炎だと、確かに自然軽快しますけど、家庭内や職場で蔓延しかねないので、診断をつけてもらって指導を受けることに意義があります。
そして...よほど薬を飲んだ時に生じる副作用の方が薬品名もわかっているため正確に出てくると思うのですが。
添付文書とかインタビューフォームとか...まぁ、そこにたくさん出てくる副作用を全部理解して、それがどの程度の割合なら自分にとって問題かを判断するのが困難でしょうけど。。。
...かなり記事には批判的なことを書きましたがけど、医療の多くはオーダーメイドよりも一般化・テンプレート化される方向にありますし、それで問題ないものも多いので、きっと全体的な流れとしてはこういう方向に行くのでしょうね。LINEなどでの遠隔医療相談も大量にデータがあれば、あとはbotでほとんどいけるようになるのでしょう。
注目のコメント
ChatGPTは様々な分野で人間の生活を効率良くしてくれますね。一方医者不足と記載がありますが、都心では医者余りと言われて、都心の医者は戦々恐々としてます。
ChatGPTの隆盛により、失職する医者が増えなければ良いですが。ChatGPTにより一定の職業が不要になるのは、様々な分野で言えることですね。大規模言語モデルは質問という文章に続く文章を生成するAIのはずです。
学習した言語の中から最適な文章を生成することが目的です。
確かに医療関係の論文や診断についての文章もあるでしょうが、今では根拠のない眉唾な医療情報や論文どころかフィクションから文章を生成する可能性も十二分にありえます。正直正気の沙汰とは思えないです。
素直にググって自己で判断しましょう。
生成AIを何でもできると勘違いさせる記事はやめるべきで、アイデア出しなどの正確性の必要のないことに使用するべきです。
まあ、学習データやアルゴリズムを医療関係に特化した生成AIならばまだマシな気はしますけどね。