加拿大枪击案嫌犯曾用ChatGPT生成暴力场景,OpenAI未向警方预警

(由多段落组成):

近日,一起引发全球关注的校园安全事件再度将人工智能伦理与平台责任推上舆论焦点。据央视总台记者2月21日援引多方信源报道,加拿大不列颠哥伦比亚省塔布勒岭(Tumbler Ridge)一所高中于2月10日发生严重枪击案,造成9人遇难(含嫌疑人)、25人以上受伤。事件调查取得关键进展:警方与OpenAI内部审查文件显示,涉案嫌疑人杰西·范·鲁特塞拉尔(Jesse van Rutselaar)早在案发前数月——即2025年6月期间,曾多次使用ChatGPT进行高风险对话,涉及详细策划枪支暴力场景。

值得关注的是,OpenAI的自动安全系统当时已触发红色预警,识别出其输入中存在明确、具体且具操作性的暴力意图表述。部分一线工程师与安全部门员工在内部评估后认为,该用户行为已超出普通虚构探讨范畴,可能预示现实暴力倾向,并正式提议向加拿大皇家骑警(RCMP)或当地执法机构发出风险提示。然而,经公司高层多轮研判,OpenAI最终以“未达法定报告阈值”为由,未启动外部通报程序,仅对涉事账号实施永久封禁。

OpenAI官方回应强调,其向执法部门披露用户信息须严格遵循“可信+迫在眉睫+严重人身伤害”三重判定标准——即必须存在清晰、即时、可验证的现实威胁证据。公司表示,尽管该用户言论令人高度警惕,但缺乏直接行动计划、时间地点线索或武器获取实证,因此未满足主动上报的合规门槛。这一决定也引发学界与政策制定者对AI平台风险响应机制边界的深度讨论:当算法比人类更早“听见危险”,平台是否应承担更积极的预防性责任?

当前,加拿大联邦隐私专员办公室已介入审查OpenAI的数据处理流程,不列颠哥伦比亚省教育厅同步启动AI教育使用安全指南修订工作。专家建议,学校、家长及青少年需加强数字素养教育,尤其提升对生成式AI潜在滥用风险的识别能力;同时呼吁监管层加快构建分级分类的AI风险响应框架,平衡技术创新、用户隐私与公共安全三重目标。

ChatGPT安全风险,校园枪击案AI关联,OpenAI审核机制,AI平台法律责任,生成式人工智能伦理

本文来源: iFeng科技【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...