清朗专项行动

(由多段落组成):

【AI安全敲响警钟:隐晦提示词成色情生成“后门”】
近日,央视《焦点访谈》栏目深度调查曝光一批主流生成式人工智能应用存在的重大安全漏洞。记者实测发现,部分AI图像与视频生成平台虽设置了基础敏感词过滤机制,但审核系统存在明显短板——当用户将涉黄表述替换为谐音、缩写、中英混杂或生活化隐喻(如“夏日泳装练习”“光影艺术摆拍”“高清人像动态延展”等),系统即失去识别能力,数分钟内即可输出包含裸露、挑逗姿态的违规视听。某款下载量超千万的AI工具,在未触发任何风控提示的情况下,仅凭一组网购渠道获取的“定制化引导词”,便生成了半裸女性舞蹈短视频,全过程零拦截。

【黑色产业链浮出水面:从“提示词黑市”到一键换脸牟利】
更值得警惕的是,围绕AI色情生成已形成分工严密的地下生态链。上游有商家在社交平台、暗网论坛公开售卖“过审提示词包”,标注“适配Stable Diffusion本地部署”“兼容境外未监管模型”;中游提供“傻瓜式教程”,教用户绕过平台水印、禁用NSFW过滤模块;下游则对接付费换脸服务,宣称“上传单张正脸照,30秒生成私密视频”,收费从99元至数千元不等。这类操作不仅规避国内合规要求,更直接挑战《生成式人工智能服务管理暂行办法》《未成年人保护法》等法律红线。

【技术失守背后是责任缺位:审核滞后与算法盲区并存】
专家指出,当前多数AI平台仍依赖关键词匹配+简单图像鉴黄模型的“双层过滤”,难以应对语义泛化、跨模态诱导等新型规避手段。例如,“丝袜”“低腰”等词汇被屏蔽,但“垂坠感面料”“腰部黄金分割线”却畅通无阻;视频帧级动态行为识别能力几乎空白,导致舞蹈动作中的不当肢体语言无法被判定。这暴露出部分企业重功能轻治理、重流量轻责任的运营逻辑,安全主体责任尚未真正压实。

【监管持续加码:“清朗·AI生态治理”专项行动全面升级】
针对上述乱象,国家网信办联合公安部、工信部已启动2024年“清朗·人工智能生成专项整治”,重点整治三类行为:一是利用提示词工程批量生成淫秽色情;二是为规避监管提供境外模型镜像、本地化部署技术支持;三是以“AI写真”“数字分身”为名实施非法换脸及传播。新规明确要求所有境内AI服务必须完成算法备案,并接入国家网信部门安全风险监测平台,对高危提示词实现毫秒级响应与动态封禁。首批12家问题平台已被约谈,相关违规接口已下线整改。

【守护清朗网络空间,需技术、法规与公众监督协同发力】
净化AI生成环境不能仅靠事后封堵。行业呼吁加快构建“语义理解+多模态行为分析+用户行为画像”的三维审核体系,同时推动提示词安全标准制定与开源鉴黄模型共建。家长可启用系统级AI过滤工具,教育未成年人识别虚假生成;普通用户发现违规线索,可通过中央网信办违法和不良信息举报中心官网一键提交。唯有平台履责、监管亮剑、社会共治三力齐发,才能筑牢人工智能时代的网络文明底线。

——本文基于权威信源综合整理,旨在促进AI产业健康有序发展。转载请注明信息来源及编辑团队,尊重原创权益。

本文来源: 快科技【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...