据正观新闻报道,3月5日,在政协小组讨论上,全国政协委员靳东回应了AI换脸导致的诈骗问题。他说:“一些喜欢我影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。希望能建立更好的规则。”就在前一日,全国人大代表、小米科技董事长雷军也提出“加强‘AI换脸拟声’违法侵权重灾区治理”,因为他本人就是AI换脸拟声的“深度受害者”。

面貌被合成、声音被伪造,靳东、雷军只是“深度受害者”的冰山一角。过去一段时间,不法分子利用公众人物形象、声音进行AI深度合成视频,实行诈骗,给社会带来信息失真、认知混乱等问题。这恰恰说明,现阶段规范AI合成技术应用和传播边界,已非常迫切。

不可否认,人工智能技术本身是积极的,且在影视、播报、社交平台等领域具有广泛实用价值。然而发展至今,AI技术已经被别有用心之人当成牟利手段。这既淆乱公众视听,又侵损名人声誉,更易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,带来一系列社会治理风险。 

事实上,相关部门对于AI合成音视频的打击从未停止过。2023年,国家网信办等部门联合发布出台《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息;2024年,网信办发布《人工智能生成合成内容标识办法(征求意见稿)》也提出,对AI生成合成内容要进行标识,以便公众识别和区分,防止误导性信息传播。

尽管相关部门不断完善治理规定,可从实际效果来看,此类合成音视频还是对公众人物形象造成负面影响,被蒙在鼓里的人也仍然不在少数,这不得不引人深思——究竟该如何加强AI生成内容违法侵犯重灾区治理?对AI生成内容进行显著标识,效果是否有限?添加显著标识就可以随意合成、随意恶搞了吗?对于利用AI生成内容进行不当牟利者,是否应该加大惩罚力度?

近日,靳东、雷军两位公众人物,在全国两会上纷纷提出AI合成音视频相关治理意见,不仅推动行业自律和技术应用的伦理合规性,也强化相关平台主体责任,明确了使用AI技术的发展和风险防范,无疑是及时且有必要的。

当然,在实践层面,如何将这类原则性要求细化为具体指导,确保各方拥有明确预期,尚需深入研究。比如,对于提供生成式AI服务的服务商而言,面对此类侵权行为是否应该承担责任?应承担何种责任?若相关平台未能及时有效阻止,是否应连带担责?这些问题值得探讨。

AI技术快速发展,行业行为准则和道德规范也要紧随其后,如此才能真正为人类福祉添砖加瓦。(正观评论员 任思凝)

(黄河评论信箱:zghhpl@163.com)


统筹:陈若松
编辑:韩静
分享至

还没有评论,快来抢沙发吧!