点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

编者按:近日,多位配音演员公开表态,反对在未获本人知情同意的情况下,擅自采集其声音素材,用于AI训练、音色合成及商业变现等用途。相较于AI换脸,AI仿声侵权的隐蔽性更强,维权难度也更高。配音演员如何维护自身合法权益?相关乱象又该如何治理?对此,光明网“网络强国·百人谈”专栏推出“被AI‘偷走’的声音”系列观察。
【网络强国·百人谈——“被AI‘偷走’的声音”系列观察③】
随着生成式AI等技术深度融入网络作品,网络平台的责任边界与法律义务引发广泛关注。中国社会科学院国际法研究所副研究员何晶晶表示,AI仿声侵权灰色产业链的形成,折射出技术“去中心化”所带来的治理挑战。需从“源头”和“出口”两端同时发力治理,不能让“技术中立”原则成为免除监管与治理的借口。

中国社会科学院国际法研究所副研究员 何晶晶
AI仿声侵权有隐蔽性、碎片化特征
“在现行法律框架下,未经授权采集并使用他人声音进行AI训练与合成,并非单一的侵权行为,而是一个多重权利交叉的复杂议题。”何晶晶说。
具体而言,从《民法典》的角度看,自然人的声音权益受到法律保护,擅自使用他人声音进行商业运作,或构成对声音权的侵害;在《著作权法》语境下,配音演员的录音制品凝结着表演者的创造性劳动,擅自提取此类音频用于大模型训练,往往会侵犯权利人的“表演者权”及“录音制作者权”;此外,根据《个人信息保护法》,人的声音特征(声纹)应被归类为“敏感个人信息”,对其进行收集和处理,必须依法取得个人的单独同意。
何晶晶坦言,此类侵权行为具有高度的隐蔽性与跨地域的碎片化特征,监管层面存在多重客观困境和挑战。如侵权行为多发生在技术“黑盒”中,配音演员难以收集侵权证据;侵权过程往往是“蚂蚁搬家”式的零星操作,单次涉案金额极低,维权成本往往高于可能获得的赔偿。

产业要平衡技术应用与权益保障
当前,含有侵权AI声音的内容往往在各大网络平台传播,并实现流量变现。谈及音频内容平台乃至行业责任,何晶晶表示,需在鼓励技术应用与保障用户权益之间寻找平衡。
其中,在产业链源头端,AI音频合成服务提供者需落实算法合规与数据合规的相关要求,确保训练素材来源合法;在出口端,则需要切断侵权内容的变现链条,压缩“网络黑灰产”生存空间。此外,协助并督促创作者或发布者履行AI生成内容标识义务,也是平台不可推卸的责任。
“技术原理上,在AI合成音频中嵌入人耳无法察觉的隐形水印或保留‘声纹指纹’,是完全可行的。在监管规则层面,我国也已建立了相对完善的要求。”何晶晶提到,相关部门近期开展了针对未有效落实AI生成合成内容标识规定的专项执法行动,但部分小型“作坊”或开源工具为了迎合“黑灰产”的匿名需求,仍然会刻意规避法定标识义务,这也给监管部门进行跨平台、穿透式执法带来了挑战。

辩证看待问题,重塑社会信任
声音不仅传递信息,更是情感温度与“人格在场”的直观体现,“听音如见人”是社会的朴素共识。何晶晶认为,当AI生成技术使得听众越来越难以分辨声音的真伪时,可能对传统的社会信任体系造成结构性冲击。
何晶晶提醒,从社会治理效率的视角来看,将重点防线压在受众端是不切实际的,以平台方或发布渠道治理仍是更有效率的方式,而公众素养培育必不可少。她建议,应向社会公众普及对AI技术的科学认知、应用边界和辨别方法,在面对涉及资金往来、关键信息确认等敏感场景时,避免盲目轻信或恐慌。
“目前的乱象,本质上来源于技术应用普及速度‘跑赢’了社会伦理和规则建设速度所带来的阵痛。”她表示,应辩证地看待这一现象,从法治规范、产业自觉、素养提升等多个层面推动人工智能技术合规、有序发展,引导技术向善,而非因噎废食。
光明网网络安全频道&数字化频道出品
监制:张宁 策划:李政葳 拍摄:曾震宇 田津金 制作:田津金 孔繁鑫

“网络强国·百人谈”
更多内容欢迎扫码关注专栏
相关链接:
