“AI 伦理”争议升级,部分慈善机构开始使用 AI 生成“贫困儿童”图像

(由多段落组成):

近日,英国《卫报》在10月20日发布的一则深度报道引发了国际社会对AI生成图像伦理问题的广泛关注。报道称,大量由人工智能合成的极端贫困、儿童困境以及性暴力幸存者相关的图片正迅速充斥于各大图库平台,如Adobe Stock Photos和Freepik等,并被越来越多的全球卫生类非政府组织用于宣传材料中。这类图像虽看似真实,实则完全由算法虚构,其广泛传播已引发人道主义与视觉伦理领域的深切担忧。

Fairpicture是一家致力于推动“道德影像使用”的公益机构,其成员诺亚・阿诺德在接受采访时表示,当前AI生成图像的滥用现象几乎无处不在。一些国际组织已经开始主动采用这些合成图片,而更多机构也在探索其可行性。他指出,这一趋势的背后,除了技术门槛降低外,更深层的原因是资金压力——尤其是美国政府近年来对非政府组织援助预算的削减,迫使许多机构转向成本更低、获取更便捷的AI图像,以替代传统摄影拍摄所需的人力、时间和授权费用。

然而,这种“低成本解决方案”正在带来严重的社会后果。安特卫普热带医学研究所的研究员阿尔谢尼・阿列尼切夫通过长期追踪发现,这些AI生成的“贫困场景”高度模式化,反复呈现诸如干裂土地、空碗孩童、泥泞中的瘦弱儿童等典型画面,严重固化了人们对发展中国家的刻板印象。他在研究中收集了超过百张被用于反饥饿或反暴力宣传的AI图像,其中包括一位身着婚纱、满脸泪痕的非洲少女,以及亚洲儿童在污染河流中游泳的虚构场景,这些不仅失真,更带有明显的种族化倾向。

更令人忧虑的是,这类图像已在多个主流视觉素材平台上公开销售或免费下载,标题甚至标注为“难民营中的真实儿童”或“白人志愿者援助非洲村落”等具有误导性的描述。阿列尼切夫强调,此类本质上是在消费苦难,且极易加深公众对非洲、南亚等地区的负面认知,削弱真正需要帮助群体的声音真实性。他警告称,如果放任这些偏见性图像在网络空间扩散,它们很可能被重新抓取并用于训练下一代AI模型,从而形成“偏见循环”——即AI不断复制并强化自身制造出的错误叙事。

专家呼吁,图库平台、非政府组织及技术开发者应共同建立更严格的审核机制与使用规范,杜绝AI生成图像在人道传播中的不当应用。同时,公众也需提高媒介素养,警惕那些看似感人却可能虚假的视觉。唯有如此,才能确保科技服务于真实、尊重与公平,而非成为刻板印象的放大器。

AI生成图像, 图库网站, 道德影像, 全球卫生传播, 刻板印象

本文来源: IT之家【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...