本文作者:访客

人民日报:AI合成不能如此无下限

访客 2025-08-02 12:36:23 70670
人民日报:AI合成不能如此无下限摘要: 近日《人民日报》刊文痛批某平台AI合成内容"无下限",直指人工智能技术滥用引发的社会乱象。这一权威发声将AI伦理治理这个全球性议题再次推向舆论中心,也揭示了技术创新与社会责任之间日...

近日《人民日报》刊文痛批某平台AI合成内容"无下限",直指人工智能技术滥用引发的社会乱象。这一权威发声将AI伦理治理这个全球性议题再次推向舆论中心,也揭示了技术创新与社会责任之间日益突出的矛盾。

人民日报:AI合成不能如此无下限

从技术本质看,AI合成具有"双刃剑"特性。当今主流生成式AI已实现文字、图像、视频、语音的跨模态合成,技术门槛的降低使得普通人也能制作以假乱真的内容。年初某明星"AI换脸"直播带货事件中,技术滥用直接导致消费者权益受损。数据显示,2023年上半年网络平台甄别的虚假内容中,AI生成占比已达37%,同比激增210%。

法律层面,我国已构建起初步的AI治理框架。《网络信息内容生态治理规定》明确将"利用深度学习等技术从事违法活动"列为禁止行为;《生成式人工智能服务管理暂行办法》则要求AI生成内容必须进行显著标识。但现行法规在跨境监管、责任认定等方面仍存在盲区,如近期曝光的境外AI伪造领导人讲话视频事件,就暴露出国际协同治理的迫切性。

此次官媒发声直指三个核心问题:一是平台审核机制形同虚设,放任低俗合成内容传播;二是部分创作者伦理意识淡漠,为流量突破底线;三是技术提供方责任缺位,缺乏有效的使用追踪机制。比较之下,欧盟《人工智能法案》将AI系统按风险分级管理的思路,或可为中国治理提供借鉴。

从产业发展角度看,野蛮生长阶段已经结束。国内头部企业如百度、阿里等已开始自发组建"AI伦理委员会",在技术研发阶段植入伦理算法。这种"治理前置"的模式,比事后监管更具可持续性。值得注意的是,清华大学去年发布的《人工智能伦理风险评估指南》,为企业提供了可量化的伦理合规工具。

《人民日报》的批评实质上是为AI发展划定红线:技术创新不能逾越公序良俗,算力进步必须匹配伦理进步。在人工智能写入"十四五"规划的战略背景下,构建包含技术标准、法律法规、行业公约、公众监督的立体治理体系,才能确保这场技术革命行稳致远。

阅读
分享