点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

编者按:近日,多位配音演员公开表态,反对在未获本人知情同意的情况下,擅自采集其声音素材,用于AI训练、音色合成及商业变现等用途。相较于AI换脸,AI仿声侵权的隐蔽性更强,维权难度也更高。配音演员如何维护自身合法权益?相关乱象又该如何治理?对此,光明网网络强国·百人谈专栏推出“被AI‘偷走’的声音”系列观察。
【网络强国·百人谈——“被AI‘偷走’的声音”系列观察②】
随着人工智能语音合成技术的快速发展,声音模仿、复制及伪造的门槛大幅降低,对传统声音权益保护模式形成严峻挑战。未经授权采集配音演员声音用于AI训练,如何定性?侵犯了哪些权利?灰产的法律监管难点在哪?中国社会科学院大学互联网法治研究中心主任刘晓春认为,AI换声属于新事物,技术管控难以在短期内实现一步到位,需多方协同担责。其核心便是平衡产业发展与权益保护。

中国社会科学院大学互联网法治研究中心主任 刘晓春
AI换声易触碰多重法律红线
作为独特的生物特征,人的声音承载着身份认同与人格尊严的双重价值。刘晓春介绍,我国《民法典》已明确将声音纳入法律保护范围,并将其归为人格权益范畴。
“虽然我们没有明确规定声音权,但是声音的保护是适用肖像权保护的。”她表示,配音演员的声音属于《民法典》所保护的人格性权益,若未经配音演员同意,使用其声音进行合成,且合成后的声音与原配音演员声音高度相似或具有可识别性,即构成对其声音权益的侵害。
此外,AI换声还可能涉及个人信息侵害。刘晓春解释,声音与个人紧密相关,若将声音转化为数据或信息进行传播,其行为本身就构成对个人信息的侵害。甚至在特定场景下可能还会侵犯著作权。比如,AI换声使用了配音演员在影视剧中的声音,并且直接照搬原内容,就可能因影视剧本身具有版权,而构成对影视剧著作权的侵害。比如,画面、声音对应的台词被重复使用,就可能触发相关侵权风险。
规则缺失、溯源不易,法律监管难点尚存
随着AI换声的“灰色产业链”不断蔓延扩张,创作者维权也遇到了不少瓶颈。刘晓春表示,监管难点主要集中在两个方面。
一是在于法律规则的适用与完善。虽然从基本法律定性上可判定构成侵权,但具体判断侵权构成要件、损害程度,以及后续的赔偿、惩戒方式,这一套规则目前还不够清晰。在赔偿方面,过往此类侵权多以精神损害赔偿为主,但AI换声盗用涉及实实在在的经济利益损失,如何明确赔偿标准、完善救济途径,还需要通过司法实践甚至立法进一步建立健全相关规则。
二是在于侵权行为的取证与追溯。AI换声工具应用的“全民化”,使得侵权门槛大幅降低,侵权主体也变得十分分散,既有机构,也有匿名个人,部分个人还通过自媒体账号上传合成内容变现,给监管带来极大挑战。因此,要在法律上找到侵权者、完成取证,证明声音的合成者和传播者,难度很大。
她认为,有时传播环节与最初的生成主体脱节,后续传播者可能以“不知情”为由规避责任,致使追溯真正的侵权主体时面临诸多阻碍。而如何运用技术手段及时发现侵权行为、实现源头追溯,也正是当下AI换声监管治理的重要难点。
监管需平衡产业发展与权益保护
如何做好AI换声监管?刘晓春表示,需兼顾产业发展与个人权益保护,不能将所有压力和责任都集中在人工智能工具上。我们在通过技术手段治理新技术的同时,也要认识到人工智能产业尚处于初期,有快速发展、追赶提升的需求。
她建议,一方面,要通过AI大模型、传播平台等技术手段,保护和控制个人权益;另一方面,不宜将全部责任压给大模型工具,也不能要求平台实现全面审核。
她还提到,AI换声相关现象属于新事物,技术管控无法一步到位,难以在短期内全面部署,需多方协同、合理分担责任。因此,AI生成工具、平台需承担相应责任,并明确合理的责任标准,确保责任范围在可控成本和可接受范围内,避免给产业发展带来过重负担。权利人及用户也应主动分担部分责任,比如,权利人可及时、准确地通过举报、通知等方式维护自身权益,而非要求平台从一开始就对所有内容进行全面事前审核和禁止传播,“这在事实上和技术上都缺乏可行性。”刘晓春说。
光明网网络安全频道&数字化频道出品
监制:张宁 策划:李政葳 拍摄:曾震宇 田津金 制作:曾震宇 雷渺鑫 配音:赵鹏超

“网络强国·百人谈”
更多内容欢迎扫码关注专栏
相关链接
“被AI‘偷走’的声音”系列观察①从换脸到仿声,这样的“AI侵权”更隐蔽
配音演员集体发文抵制AI,这场版权风波背后折射了哪些焦虑?
