GPT-4は医療に不可欠なツールになる
医師や看護師は本当に助けを必要としている。米国の医療従事者の仕事量は、過去20年間で劇的に増加した。医療現場の日常業務の大部分は、過酷で単調な事務作業や書類手続きに追われるものになってしまっている。その結果、医療従事者は燃え尽き症候群や極度の仕事への不満に悩まされている。
GPT-4は、医師が日常業務で最も負担を強いられ、重荷となっている多くの側面から解放されるための基盤技術として、実に有望である。診療記録を自動化する製品を開発している多くの企業にとって、GPT-4はゲームチェンジャーとなる。
さらに、GPT-4は、事務処理だけでなく、最もらしくエビデンスに基づいた仮説を立て、複雑な検査結果を解釈し、一般的な疾患だけでなく、稀な疾患や生命を脅かす疾患の診断も認識し、関連する参考文献や説明を提供することができる。高度に専門的な研究論文を読み、非常に洗練された議論を行うこともできる。
一方で、GPT-4は新しい能力だけでなく、新しいリスクも提供する。大きな問題の1つが「幻覚」とも呼ばれる、GPT-4の情報を捏造する傾向である。そのことが難しくもあり厄介でもあるのは、その答えがほとんどいつも正しく見えることだ。そのため、GPT-4を医療に使用する場合は、システムの出力を検証するステップを組み込む必要がある。
GPT-4が医療に不可欠なツールになることは間違いない。しかし、これらのメリットには同時にリスクも伴うため、医療現場に導入される新しいツールと同様に、人間の的確な判断に基づいた慎重な運用が求められる。医療ミスは依然として根強い問題であり、可能な限りGPT-4のようなAI技術がそれを悪化させないことを望みたい。当分の間、GPT-4は人間の直接の監視なしに医療現場で使用することはできないだろう。
重要なのは、GPT-4自体がこの検証作業において非常に効果的であるように見えることであり、医療ミスを減らすという問題に直接適用できるツールになるかもしれない。GPT-4を使ってGPT-4自身の答えをチェックする場合、GPT-4の別のセッションを使ってエラーチェック作業を行うことが重要である。
人間と機械の共生医療をどのように実現させるか
レントゲン画像の読影やカルテの作成など、特定のタスクに的を絞ったこれまでのAIシステムとは異なり、GPT-4のような汎用AI技術は、教育的な推測や情報に基づく判断が必要とされる状況に巻き込まれることになる。実際には、医師-患者-AIアシスタントの「三位一体」が、医師-患者-AIアシスタント-AI検証者へと拡張される可能性がある。
しかし、どのような役割であっても、GPT-4が出力したものを人間が確認することは必要である。結局のところ、核心的な問題は、人間の医師の判断、経験、共感に従属させながら、スピード、スケール、分析範囲といったGPT-4の利点を享受するにはどうすればよいか、ということである。
GPT-4は、加速度的に強力になっていく汎用AIシステムの最初の一歩に過ぎないというのが、コンピュータ科学者たちの共通認識だ。したがって、ヘルスケアや医療におけるGPT-4の役割には、ある程度の限界や制約があるかもしれないが、後続のAIシステムが医療において人間の能力に近づき、それを凌駕することは避けられない。我々の社会にとって最も重要なことは、人間の健康に最大限の利益をもたらすために、この人工知能の進化に合わせて、医療へのアプローチをどのように進化させるのがベストなのかを理解することである。
より可能性が高いのは、規制当局が医療AIの正味の利点とリスクを評価することだ。AIにリスクがないわけではない。しかし、アスピリンや医療用大麻のような簡単に手に入る薬も同様だ。最終的には、リスクと利点、革新性と慎重さといった、これまでの医薬品や医療機器でもお馴染みのバランスを、全く新しい医療AIに適用する必要がある。
結局のところ、社会として、この新しいAI時代の恩恵をフルに享受し、それを適切なタイミングで実現したいのであれば、医療界全体が共同で、適切な規制を導入するために、学び、受け入れ、そしてできる限り慎重に行動することが求められる。