犹他州把一部分续方交给了AI

犹他州正在允许一个 AI 系统在没有医生直接介入的情况下,续开部分精神科药物处方。这不仅是该州第二次把这类临床权限交给 AI,也几乎是在替全国试水。官方的说法一如既往地稳健,意思大致是这能省钱、提速、缓解医疗短缺。医生们则提醒,机器如果看不见复杂病情,也就很难理解复杂后果。很朴素的现实,偏偏总要等到试点开始才想起来。

这项为期一年的试点上周公布,允许旧金山初创公司 Legion Health 的 AI 聊天机器人在部分情况下续开精神科药物。公司向犹他州用户提供每月 19 美元的订阅服务,主打“快速、简单的续方”。项目预计在 4 月某个时间点启动,不过眼下公司网站上还只是等待名单。

试点范围被刻意压得很窄

这个项目的边界画得相当死板,既限制药物种类,也限制患者资格。根据 Legion 与犹他州人工智能政策办公室的协议,聊天机器人只能续开 15 种低风险维持类药物,而且这些药物必须已经由临床医生开过处方。

其中包括:

  • fluoxetine(Prozac)
  • sertraline(Zoloft)
  • bupropion(Wellbutrin)
  • mirtazapine
  • hydroxyzine

这些药物常用于治疗焦虑和抑郁。

患者还必须被视为病情稳定。近期改过剂量或换过药的人不能参与,过去一年里有精神科住院记录的人也被排除在外。与此同时,患者每 10 次续方,或者每 6 个月,必须至少和医疗服务提供者核对一次,取更早者。

系统不能开新处方,也不能处理需要更密切临床监测的药物,包括那些需要抽血监控的药。管制药物同样不在范围内,这意味着很多 ADHD 药物都被挡在门外。苯二氮䓬类药物、抗精神病药,以及广泛被视为双相情感障碍金标准治疗的锂盐,也都不在试点之内。换句话说,真正复杂的病例基本没打算交给聊天机器人。

患者要先自证身份,再回答一堆筛查问题

使用这套系统的人必须主动选择加入,验证身份,并证明自己确实已经有处方。做法可以是上传药瓶或标签照片之类的材料。之后,系统会询问症状、药物副作用以及疗效,还会问到自杀念头、自伤、严重不良反应和怀孕等问题,用来标记红旗信号。

如果任何答案超出试点设定的低风险范围,系统应当把个案转给临床医生,由人来决定是否续方。患者和药剂师也都可以要求人工复核。理论上,机器先筛,人在后面兜底。问题在于,医疗工作里“兜底”这件事,向来比流程图看起来更难。

犹他州官员在宣布试点时表示,自动化维持类药物的续方流程,能让患者更快、更便宜地拿到所需治疗。长期来看,他们说这还可能让医疗人员把时间集中到“更复杂、风险更高”的患者身上,并缓解全州的精神卫生短缺问题。州政府称,约有 50 万名犹他州居民无法获得心理健康服务。Legion 联合创始人兼首席执行官 Yash Patel 的表述则更宏大,称这是一次全球首创,会大幅扩大医疗可及性,也可能成为“远不止续方”的起点。

精神科医生并不买账

精神科医生们的反应要冷静得多。犹他大学医学院精神科医生兼教授 Brent Kious 对 The Verge 表示,他认为“基于 AI 的续方系统的好处可能被高估了”。在他看来,这种工具“未必会提升最需要照护者的可及性”,因为目标患者本来就得先在精神科医生那里建立治疗方案,才能使用这项服务。

Kious 还担心,自动化可能助长他所称的精神科“过度治疗流行病”,让一些患者继续服药的时间超过实际需要。哈佛医学院精神科教授、贝斯以色列女执事医疗中心数字精神病学主任 John Torous 也提出了类似担忧。他指出,有些人确实需要长期服药,但另一些人可能更适合减量或停药,这类判断需要更主动的管理、调整和谨慎评估。如果把复诊检查外包给聊天机器人,这件事显然会更难做。

Torous 还质疑,聊天机器人是否能安全自动化哪怕是最常规的精神科护理环节。他说,处方判断不只是看药物相互作用这么简单,还要理解患者用药计划背后的具体处境。他怀疑今天的任何 AI 系统,是否真的能理解这些独特背景和影响因素。Kious 也说,这类系统“原则上也许可以安全,但关键全在细节”。而细节恰恰是外界最难看见的部分。他形容现在这类技术“有点像炼金术”,并认为在让公众广泛使用之前,更透明的数据、更扎实的科学和更严格的测试都应该先到位。

更现实的风险是,AI 可能漏掉东西

除了整体上的不确定性,还有更直接的安全问题。Kious 指出,聊天机器人在筛查时可能漏问关键问题,患者也可能没有意识到某些副作用,或者回答不准确。有些人甚至会故意迎合系统,只为了更快拿到药。严格说,这并不是聊天机器人独有的问题,精神科本来就大量依赖患者自述。不过,人类临床医生通常还能利用更多线索。他说,当他看诊时,不只会听患者说了什么,也会注意他们没说什么,以及他们如何出现、如何表现。患者当然也可能对人类医生撒谎,但 AI 系统可能更容易让人一步步“调答案”,直到得到想要的结果。

Torous 还提醒,现实世界里聊天机器人的安全翻车案例已经不少。Legion 这次是犹他州第二个 AI 开处方试点,前面还有一个更广泛的初级医疗项目 Doctronic,去年 12 月启动。这个项目上线几周后,安全研究人员就成功让系统散布疫苗阴谋论、生成制毒指令,甚至把某位患者的阿片类药物剂量提高了三倍。州官员表示,Legion 这次范围更窄,就是为了专门瞄准“该州的精神健康短缺”问题。

Legion 说自己有护栏,但外界还是不太安心

Legion 表示,这项试点是在严格护栏下运行的。除了它所谓的“保守资格门槛”之外,与犹他州的协议还要求公司提交详细的月度报告,并让前 1250 次请求接受精神科医生的密切审查,之后还要定期抽查约 5% 到 10% 的请求。

Legion 联合创始人兼总裁 Arthur MacWaters 对 The Verge 表示,任何远程医疗模式都存在风险,不论是 AI 辅助还是完全由人主导。他强调,公司的流程不会依赖某一个自述答案来直接放行治疗。公司设置了多层保障,包括对药物和患者资格的严格限制、内置 AI 安全筛查、药剂师参与,以及在必要时升级给临床医生。他说,公司把这项试点视为一块重要的试金石,目标是让犹他州数十万生活在精神卫生资源短缺地区的人更容易获得服务,同时也为 AI 医疗应用提供验证场景。

MacWaters 没有评论更多用例、其他药物或扩展到其他州的计划,只说公司对未来“很兴奋”。他也没有给出明确的时间表。不过,从公开表态看,Legion 的野心显然不止于犹他州。它的续方网站写着服务将于“2026 年覆盖全美”,MacWaters 也曾表示,产品会“非常非常快地进入每个州”。这种说法听起来很有冲劲,和医疗监管常见的谨慎节奏相比,多少有点不合拍。

这到底在解决什么问题

对几位接受采访的精神科医生来说,最基础的问题其实是:Legion 真的在解决什么?Kious 指出,已经建立治疗关系的患者,很多时候甚至不需要专门预约就能续方。多数精神科医生大概都愿意“免费、无需预约地续开处方”,只要他们担心患者状况,或者药物本身风险比较高。可这恰恰是 Legion 的 AI 不被允许处理的那部分。

Torous 说,如果由他来选,他目前会先避开这类系统。如果你已经找到了有效的治疗方案,最好还是继续和那个了解你的临床医生保持合作。医疗创新当然值得讨论,只是当讨论对象已经直接碰到精神科用药时,大家通常会希望机器少一点自信,多一点证据。