chat-gptで医者いらず?

最近のAIの進歩は目を見張るものがある。少し前までは、「AIはそう言ってるけど正しいの?」と思っていたが、最近はその精度がかなり上がり、我々が十分仕事で使えるレベルになってきた。
学会での論文検索や比較、まとめなどボタン一つで出来てしまうから、今までの大変な思いをしたのは何だったのかと思ってしまう。
論文に関しては査読(本当に正しいかを調べる)まで出来てしまうから楽である。
先日も当院の2000本以上あるブログを全て読ませ、「この治療院の特徴は何?」と聞いたら、15分ほど音声で解説してくれた。これには驚いた。
もっと驚いたことは常連さんが、採血をしてchat-gptに読ませて、結果を医者と比較したと言ったことだ。「え、chat-gptは血液検査の結果読めるの?」と聞いたら、「写メで取ってそのまま読めますよ」というので信じられず、実際やってみたら、驚くほどの精度で解析してくれた。
まさか、心電図は無理だろうと思ってやったら、これもびっくりするほど詳細なデータで出してくる。
1番驚いたのは胸のレントゲン写真である。
以前富士フイルムが、肺がんなどレントゲンやMRIの見落としを防ぐためのソフトを開発したが、今やchat-gptを使うと一般人にそれが出来てしまう時代になった。
これが進むと何が起こるかというと、血液などの検査結果をまず医者から聞いて、その後chat-gptでもっと詳しく聞く。患者はどっちを信じるのだろうか?おそらくchat-gptではないかと思ってしまう。「あの先生、適当なことしか言わなかったけど、chat-gptはとても詳しく説明してくれた。」と今から予想がつく。本当に凄い時代になった。

image_print印刷する