人工智能(artificial intelligence, AI)聊天应用 ChatGPT 去年 11 月开始向公众开放,引爆全球热潮至今。不同背景的无数用户争相与其对话,试验将其引入日常工作、生活,切身领略着未来的可能形态。ChatGPT 由美国企业 OpenAI 开发,本质是以大量文字材料为基础建立的复杂数学公式(称为“大型语言模型”),似乎具备了理解并运用人类文字的能力。由于开发之初未限制使用目的,各专业信息均有输入,造就了如今多领域通用的 ChatGPT。
AI 进入医药领域已有多年时间,从临床影像学辅助诊断,到药物研究化合物筛选,应用广泛。但临床场景强调人与人直接沟通、质量要求严苛,面对的问题大多因人而异,AI 介入似乎仍然是遥远的事情。科幻小说作家特德·姜说它是 所有网络文本的模糊图像,药物研究工作者 Derek Lowe 说它是“非常优秀的废话生成器”(very accomplished bullshit generator),从原理看都属合理推断。ChatGPT 极限大概就在复述现成文字信息了吧。
然而,临床医学界顶尖学术期刊《新英格兰医学杂志》(NEJM)近日发表报告,介绍了 ChatGPT 初步参与临床工作的测试结果 (Lee, Bubeck, and Petro 2023),促使我重新审视这类 AI 应用。这篇报告包含三个实际案例:根据医患对话撰写医疗记录(medical note),解答美国医学执业资格考试(USMLE)问题,以及根据患者病情提供实时咨询服务。整体表现有瑕疵,但可以接受,AI 回答时甚至可以给出推理(reasoning)依据。
ChatGPT 有两点让我印象尤其深刻:一是它能理解上下文,二是它能自我纠错。
使用 ChatGPT 时,用户通过发送“提示语”(prompt)来获得 AI 反馈。提示语是自然语言的问题或指示,AI 的反馈则是针对问题的回答,或根据指示操作的结果,一来一回模拟了人与人的对话形式。ChatGPT“能理解上下文”意味着,用户可以像真实对话交流那样,通过不断澄清、纠正、追加,完善问题或要求,帮助 AI 生成符合需求的结果。
和人类一样,ChatGPT 会犯错,无中生有虚构信息,这称为“幻觉”(hallucination)现象。临床工作中一旦出错,难免伤害患者。但如果将包含有“幻觉”信息的 AI 反馈,作为提示语再次输入,ChatGPT 竟然能够甄别、纠正这些它曾经犯过的错误。这种“自我纠错”能力,或许将成为 ChatGPT 应用于临床的第一道安全保障。
报告作者承认 ChatGPT 仍须改进,主要顾虑便是“幻觉”错误。当 AI 振振有词地提供错误信息时,临床工作却面临着一场灾难。如果临床工作者不得不花大量精力、时间来校对、核实 ChatGPT 的回复,这显然与利用 AI 减轻他们工作负担的初衷背道而驰。即使 AI 具备“自我纠错”功能,目前也仅在有限尝试中验证了效果,无法保证每一次都成功纠错,甚至无法保证自我纠错时不引入新的错误。
另外一个亟待解决的,是医疗数据隐私问题。建立 ChatGPT 所用级别的大型语言模型需要海量数据,全世界有能力通过如此海量数据,开发如此庞大 AI 应用的机构屈指可数。假如 ChatGPT 应用于临床工作,势必要把待处理的医疗数据传输给开发机构,这就可能导致医疗数据向临床工作者、患者以外的第三方泄露。医疗数据一直被视为患者的敏感隐私信息,找到合适办法保护患者隐私前,ChatGPT 在临床医疗圈必定举步维艰。
NEJM 这篇报告的第一作者 Peter Lee 来自微软研究院(Microsoft Research)。微软一直是 OpenAI 的 坚定支持者,为后者提供了大量资源,也积极将其成果整合入自家产品。Peter Lee 等合著的书籍 The AI Revolution in Medicine(见下图)也在近日出版,讲述了更多 ChatGPT 在医学领域探索的故事,从时间线看这方面的开拓可以说蓄谋已久。本书作者之一 Isaac Kohane 是哈佛大学医学院的生物医学信息学教授,在身为医生的他眼里,目前 ChatGPT 已经比许多他观察过的医生都优秀了。
Eric Topol 医生为此书写了一篇精彩 评论,提到 ChatGPT 有时会表现出类似“共情”(empathy)的态度,颠覆了大众对计算机系统“冷冰冰”的固有成见,也是高效临床沟通不可或缺的要素。书中的“AI 增强患者”(AI-augmented patient)概念令他痴迷:未来患者完全有机会从 ChatGPT 获得有限但实时的医疗服务,由 AI 解答患者的个体化问题——这将是慢性病管理翻天覆地的突破。
毫无疑问,ChatGPT(或类似 AI 应用)在患者床边觅得一席之地,已是大势所趋。连创刊两百余年的 NEJM 都顺应潮流,迅速推出相关子刊 NEJM AI。之前面试医学撰写(medical writer)候选人时,不知不觉聊到 ChatGPT。她试用 ChatGPT-4 后,对自己职位的前景感到担忧,因为 AI 已经可以取代她们的一部分工作了。
她积极主动的尝试给了我当头棒喝,表明个体的“想象力”如此重要:新事物诞生时,我们不该急着判断它的价值,应该发挥想象将它融入我们的工作、生活,看看它能不能帮助我们更好、更快地实现目标——无论对新事物的看法是喜是忧,无动于衷从来都不是人类的选择。
参考文献
- Lee, Peter, Sebastien Bubeck, and Joseph Petro. 2023. “Benefits, Limits, and Risks of GPT-4 as an AI Chatbot for Medicine.” N Engl j Med.