给AI造假配上“紧箍咒”
今年伊始,横空出世,各类AI应用在中国以迅猛之势融入了各行各业,展现出了惊人潜力。
然而,如同硬币的两面,在大众消费市场AI技术可以促进商业发展、品牌迭代,也可能为商业造假、冒牌顶替提供技术能力。有的不良商家靠AI假图吸引消费者下单、有的直播间用AI背景伪装“工厂发货”、用“AI换脸”冒充名人明星、将他人照片合成淫秽影像、利用AI生成假场景制造假新闻等,这些乱象让各类平台和消费者深受其害。
在人工智能技术蓬勃发展的我们也需警惕深度伪造、虚假信息生成、数据篡改等AI造假行为对社会信用体系形成了新挑战。新事物的出现,必然呼唤与之相适配的新的治理方法。放任不管,或一管就死,都不是治理的目的。只有符合新时期新形势的AI治理理念,才能为AI应用创造好的发展环境。
为促进人工智能健康发展,规范人工智能生成合成内容标识,国家互联网信息办公室等四部门近日联合发布了《人工智能生成合成内容标识办法》(以下简称《办法》)。《办法》的出台可谓非常及时,这意味着法规正在给AI配上“紧箍咒”,规范其生成合成行为,避免其伦理失范问题,使其更好地服务广大受众。
要求“自报家门”、亮明身份,打到了AI造假的“三寸”。AI生成技术是先进工具,也是一把双刃剑,用好了,就是解放生产力的神奇工具。比如,虚拟“数字人”可以助力主播从繁琐的拍摄中解脱出来,AI翻译能促进文化传播与交流,造就全新的传播变革。AI造假,则是这一先进技术被恶意利用生出的“恶之花”。要想区分AI工具是被善意使用还是恶意利用,关键的第一步,就是要让用户能够清晰分辨自己所见内容的真假。《办法》要求所有AI生成的作品必须亮明身份、清晰标识,这无疑是一个好的开始,迈出了规范AI应用的坚实一步。
强制标注AI生成内容,披露算法逻辑,这样的治理办法坚持了透明度原则,也充分呈现了AI治理的“技术向善”思维。当前,AI正处于从低度向深度进化的阶段,人类对AI的未来有许多美好愿景,只有发扬技术向善,才能为AI提供一个更好的训练数据池和应用场景地,避免AI在错误数据中训练出错误的思维导向。如果说商业AI造假影响的还只是当下的消费体验,那么当造假成为数据池的重要组成部分,无法加以分辨和剔除,假数据、恶数据会给人类未来带来怎样的影响?实在细思极恐。
从更长远的角度看,给AI内容做标识还只是第一步,下一步还应当推动AI开发者在模型中嵌入科学伦理限制,为构建“可信内容生态系统”奠定了基础。比如,让AI模型拒绝回答可能用于伪造、诈骗的内容请求,限制生成未经授权的影响力人物图像。在信息传播上,则要打造“可信新闻计划”,嵌入区块链技术,避免想象式、编造式信息利用算法不当散播。除了可信新闻计划,还应当提升可信数据空间的建设力度。当可信新闻与可信数据均在可信平台中呈现的时候,人们会自然选择可信平台与可信内容,避免被虚假内容误导。
当然,治理AI造假,也离不开公众认知的提升。当前,AI步入大众生活只是开始,未来AI与人类生活、工作的结合必将更加紧密。强制平台标识内容的AI身份,有助于公众提升判断力,未来还应当提供更多大众化、普惠式的AI认知课程,让公众能够在AI时代学会善识AI、善用AI,从根本上增强人们防范AI造假的“免疫力”。
知善知恶是良知,为善去恶是格物。AI进步、技术创新与AI伦理规范是有机统一的整体,只有统筹好发展和安全,减少技术滥用的危害,为AI良性进步铺路架桥,才能让AI真正服务于人类幸福美好生活。
(本文刊载于《瞭望东方周刊》2025年第8期,总第931期)
上一篇:AI重塑医疗
下一篇:AI时代,阅读何为?