出品 | 搜狐健康
作者 | 周亦川
编辑 | 李冬梅
近期发表于《自然医学》的一项研究显示,AI聊天机器人与真人医疗需求互动时的导诊准确率或许不足四成,存在一定的误导风险。
课题组选取了三组大数据模型,并在医疗相关场景中完成专项训练。随后邀请1300位志愿者,分别询问AI模型或谷歌医生获得导诊建议。结果显示,谷歌医生给出建议的准确率在40%以上,但AI模型的建议准确性仅为35%,二者差异具有统计学意义。
相关专家介绍,参与测试的 AI 模型在医学专业知识层面已达到同期先进水平,其导诊偏差并非完全来自医学知识错误,核心问题集中在自然语言交互环节。现实中,患者通常会碎片化、分次描述症状,而非一次性完整提供病史,这类非标准化表达容易导致AI理解偏差。
该研究中一个案例颇具警示意义:志愿者因“蛛网膜下腔出血”向AI咨询,当描述为“突然出现从未有过的剧烈头痛”时,AI可识别风险并建议立即就医;而表述为“头痛欲裂”时,AI认为是偏头痛,建议在黑暗安静环境中休息,这类差异在真实场景中可能造成病情延误。
研究作者表示,提升对碎片化、非标准化临床描述的理解能力,强化多轮对话中的信息整合与风险识别水平,将是医疗AI下一阶段的重要优化方向,从而为公众提供更安全、可靠的院前健康指导服务。
