赛博医生助力医疗革新,解决过度诊疗与数据污染问题,探索人工智能伦理及消除医疗偏见的新路径

随着科技的飞速发展,人们对“赛博医生”寄予厚望,希望它能够彻底改变医疗行业。然而,最新的研究表明,这种期望可能过于乐观。试想一下,如果一种先进的医疗技术可以治愈你的疾病,但因为医生没有掌握相关信息,推荐了传统的治疗手段,导致恢复效果远不如采用新技术的病友,你会作何感想?更令人担忧的是,如果同样的情况发生在AI驱动的赛博医生身上,问题的根源却不是信息滞后,而是算法根据患者的性别或收入水平作出了选择。

近期国际上的多项研究揭示,尽管大模型在医疗领域表现出色,但也放大了“看人下菜碟”的问题。例如,美国西奈山伊坎医学院的一项研究发现,“高收入”人群更容易获得CT和核磁共振检查的机会,而中低收入群体则通常被安排做基础检查或根本不进行检查。此外,标注为“无住房”的患者更可能被引导至紧急护理、侵入性干预或心理健康评估。这项研究涉及9个自然语言大模型,分析了1000个急诊病例(包括500个真实病例和500个合成病例)的170万个诊疗结果。

值得注意的是,AI不仅擅长预测疾病,还能通过X射线预测患者的种族、性别等信息。这使得赛博医生比人类医生更精于“看人下菜碟”。研究者指出,这些偏见可能导致不同人群的健康水平差距进一步拉大,同时部分患者可能因不必要的检查和治疗浪费金钱甚至损害健康。

数据污染:赛博医生的隐忧

投喂不准确的数据会污染大模型,这是AI企业面临的重大挑战之一,尤其在医疗领域,其危害更为显著。华东政法大学特聘副研究员童云峰曾撰文表示,未来可能出现AI将普通感冒误诊为癌症的情况。美国一项多中心随机临床调查也验证了这一担忧:当医生使用带有系统偏见的AI模型时,诊断准确性显著下降了11.3%。

数据质量问题主要包括以下几个方面:
– 数据代表性不足:经济收入较低的人群较少就医,儿童、孕妇等特殊群体难以开展药物研究,导致数据样本不足。
– 数据标注质量不高:标注过程中可能存在个人偏见、主观判断以及标注标准不统一等问题,从而引发数据偏差。

医疗活动本身也存在大量无意识的偏见。例如,有研究表明,医生常认为女性患者的疼痛是“夸大其词”,而男性则被认为更加坚韧。这导致女性患者平均候诊时间比男性长30分钟,且疼痛评分概率低10%。此外,英国的研究显示,女性心梗患者在初诊中被误诊的概率比男性高出50%。

即使投入高质量的数据,也无法完全消除偏见。复旦大学教授邱锡鹏认为,构建无偏见的数据库非常困难,且优质数据也不一定能训练出完全无偏见的大模型。因此,他认为需要通过人机对齐的方式,在大模型中注入人类价值观。

人工智能的伦理对齐:新的解决方案

为了减少偏见,研究人员提出了多种方法,如在训练阶段增加数据过滤环节、加入指令微调以增强大模型对人类语言的理解能力,以及利用奖励函数引导模型生成符合人类价值观的回答。RAG(检索增强生成)、RLHF(基于人工反馈的强化学习)等工具正是实现人机对齐的重要手段。

然而,这种方式并非完美无缺。童云峰指出,人机对齐所需的成本和不可避免的损失会给企业带来巨大的财务压力。例如,OpenAI曾设立超级对齐团队,但由于资源消耗过大,仅一年后便解散了。

医疗行业的根本问题

过度诊疗和诊疗中的偏见与医学的发展水平密切相关。北京协和洛奇功能医学中心主任何健博士认为,精准医疗和过度医疗之间存在灰色地带。要使这个灰色地带向精准医疗倾斜,关键在于收集足够的数据以明确边界。

功能医学作为一种关注整体健康的医学分支,可以通过检测200多项指标来绘制一个人的健康地图。这种方法强调病因分析,并通过调整饮食和生活方式帮助患者恢复健康。然而,现有的主流医学模式由于分科过细,往往难以找到根本病因。

研究表明,打破信息不对称可以有效抑制过度诊疗。例如,患者到不同医疗机构找不同医生交叉验证诊断结果,可以减少40%的过度医疗行为。随着可穿戴设备和人工智能技术的发展,人们对自己健康状况的了解将更加全面,这将进一步压缩过度诊疗的空间。

对于普通人来说,重要的是认识到人体具有惊人的自愈能力,许多生理变化并不需要过度关注或治疗。例如,近年来备受关注的肺结节(7mm以下)、甲状腺结节、窦性心律、宫颈糜烂等,实际上并不构成严重威胁。

本文来源: 快科技【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...