OpenAI发布GPT-5 Instant,却遭用户怒怼!

(由多段落组成):

近日,OpenAI宣布将对GPT-5 Instant模型进行功能升级,旨在“更精准识别用户情绪波动”并提供更具支持性的回应。根据官方说明,当系统检测到对话涉及“敏感话题”或可能反映用户处于心理压力状态时,会自动切换至GPT-5 Instant模型,以实现更快、更有温度的反馈。这一更新正逐步向ChatGPT用户推送,初衷是提升AI在危机干预中的响应能力。

然而,这项本意为“关怀用户心理健康”的技术调整,却在社交媒体上迅速引发强烈争议。X平台(原Twitter)上,“#StopAIPaternalism(停止AI家长主义)”和“#keep4o(保留GPT-4o)”两大话题迅速登上热搜榜,大量用户表达不满。许多用户质疑该功能涉嫌未经同意的心理分析与数据收集,认为其边界模糊、侵犯隐私,甚至可能被滥用。

核心争议之一在于“自动切换机制”缺乏用户控制权。不少用户指出,AI无权单方面判断何为“情绪困扰”,更不应擅自更改交互模型。有用户直言:“我付费使用的是GPT-4o,不是让你来当我的心理咨询师。”另一位网友讽刺道:“下次是不是还要在我打字慢的时候弹出‘你看起来很难过’?” 更有人担忧,日常的情绪表达、文学创作或角色扮演可能被误判为心理危机,导致对话中断或模型强制切换。

更深层的问题在于信任缺失。此前OpenAI曾承诺尊重用户对模型的选择自由,但此次更新被视为背离承诺的“暗中操作”。一位开发者表示:“我们希望AI辅助,而不是被AI监视。”还有用户呼吁增加明确开关选项:“成年人应有权决定是否接受情绪干预,哪怕这意味着承担风险。”

从伦理角度看,AI介入心理健康领域始终存在争议。虽然支持者认为此类功能可在紧急情况下挽救生命,但反对声音强调:算法不应代替人类做出“谁需要帮助”的判断。过度宽泛的“敏感”定义可能导致普通对话被误读,进而削弱用户体验与创作自由。正如一位网友精辟总结:“我们需要的是共情,不是监控;是理解,不是审判。”

这场风波已不止于一次产品更新,而是演变为用户与科技公司之间关于自主权、隐私边界与技术伦理的公开博弈。OpenAI或许想扮演“数字守护者”,但在未征得用户明确同意的前提下,再善意的技术也可能被视为越界。真正的智能,不仅在于识别情绪,更在于懂得何时介入、何时退后一步。

GPT-5 Instant, AI情绪识别, 用户隐私争议, 模型自动切换, OpenAI伦理问题

本文来源: iFeng科技【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...