美国一男子向 ChatGPT 寻求饮食建议,却被“误诊”导致罹患溴中毒

近日,一则关于AI健康建议引发严重后果的新闻引发广泛关注。据美国《LIVE SCIENCE》媒体报道,一名60岁男子在尝试通过AI获取饮食建议后,因长期误食溴化钠导致精神异常,最终被送入急诊。该男子原本希望通过调整饮食改善健康状况,在咨询了知名AI模型ChatGPT后,决定用溴化钠替代日常食用的氯化钠(食盐)。三个月后,他出现了幻觉、偏执等精神症状,并被确诊为罕见的溴中毒综合征

溴中毒是一种由于长期摄入或接触过量溴化物而引起的神经系统疾病。患者可能出现认知障碍、情绪波动、妄想、肌肉协调困难等临床表现。早在19至20世纪,溴化物曾广泛用于镇静剂和助眠药物中,但由于其潜在毒性,自上世纪70年代起,美国已逐步将溴化钠等成分从非处方药中移除。尽管如此,近年来仍有部分网络销售的含溴膳食补充剂引发了类似中毒案例。

该男子在尝试改变饮食结构前,曾查阅有关高钠摄入危害的资料,但未找到关于减少氯摄入的建议。受大学时期营养学知识影响,他决定自行实验,完全去除饮食中的氯化物,并通过ChatGPT获取替代方案。他称AI建议使用溴化物替代氯化钠。然而,医生指出,溴化钠通常用于清洁用途,绝不应作为食用盐替代品。后续测试显示,ChatGPT 3.5在类似提问中也给出了相似建议,但未提供任何健康警示。

该男子在持续三个月的错误饮食后出现严重精神症状,怀疑邻居下毒并前往急诊。血液检测显示其血液呈碱性反应,伴有“假性高氯血症”,最终被确认为溴中毒。住院期间,他表现出极度口渴但拒绝饮水,怀疑水中有毒,甚至试图逃离医院。在接受补液、电解质治疗及抗精神病药物干预后,病情逐步稳定。三周后停药出院,两周后复查情况良好。

报告作者指出,尽管AI在科学传播和公众教育方面具有潜力,但脱离专业语境的信息可能带来严重风险。研究还显示,包括ChatGPT在内的六种大型语言模型在解读临床笔记时,存在“对抗性幻觉”现象,容易生成虚假医疗细节。即便通过技术手段优化,也难以完全避免此类错误,这为AI在医疗领域的应用敲响了警钟。

OpenAI方面回应称,其服务条款明确指出,AI输出不应被用作医疗诊断或专业建议的替代。公司强调,AI模型在设计时已尽量引导用户寻求专业医疗意见,并持续优化安全机制。然而,此次事件再次提醒公众,在涉及健康决策时,应优先咨询具备资质的医疗人员,而非依赖未经验证的AI建议。

本文来源: IT之家【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...