点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

编者按:近日,多位配音演员公开表态,反对在未获本人知情同意的情况下,擅自采集其声音素材,用于AI训练、音色合成及商业变现等用途。相较于AI换脸,AI仿声侵权的隐蔽性更强,维权难度也更高。配音演员如何维护自身合法权益?相关乱象又该如何治理?对此,光明网网络强国·百人谈专栏推出“被AI‘偷走’的声音”系列观察。
【网络强国·百人谈——被AI“偷走”的声音①】
随着人工智能技术的快速发展,AI换脸、AI仿声等技术应用日益普及,但由此引发的侵权问题与社会信任危机也备受关注。中国人民大学新闻学院教授、人工智能治理研究院研究员卢家银表示,声音作为一种深层次的人格与情感表达,往往更加不易被察觉,而其对社会信任体系的冲击却不容忽视。

中国人民大学新闻学院教授、人工智能治理研究院研究员 卢家银
AI仿声或导致信任危机加剧
“很多时候,声音被侵权所造成的伤害,人们并没有充分意识到,也没有产生像视觉传播那样的影响。”卢家银表示,人们常有一种“眼见为实,耳听为虚”的观念。视觉信息因其直观性容易引发质疑,而声音则更为隐蔽,是一种更深层的感知。
他表示,声音远不止是一个信息载体,更是一种人格与情感的表达。然而,随着AI仿生声音的出现,这种建立在声音之上的信任关系正面临挑战。这类技术应用既包括他人仿造,也涉及对声音权利的侵害,已成为当前社会治理与互联网治理中的一道难题。
“如今,很多人都不太愿意接听陌生人的电话。这说明,我们在这一层面上已经对他人、对社会产生了一种普遍怀疑。”卢家银认为,AI仿生声音的出现进一步加剧了这一困境。未来,或许在亲友紧急状况下的求助电话,人们也可能难以相信,从而加剧社会信任危机。
乱象危害:权益、行业、生态受损
卢家银认为,如果使用方已获得当事人的合法授权,则不构成侵权。这类产品既不会侵害当事人的合法权益,也不会对市场造成严重冲击。
“然而,真正对市场和行业构成威胁的,是那些侵权者与违法者。”卢家银坦言,他们往往滥用名人在电影、广播节目等公开场合中的片段,通过剪辑和AI素材提取与合成,以极快速度制作出所谓“致敬经典”的演绎作品,并进行快速传播。这类侵权作品,将对整个行业造成严重冲击。
这类行为的危害主要体现在三个方面:一是侵害从业者权益。这类行为会广泛侵犯以声音优势从事相关职业群体的合法权益,同时对其人格权造成伤害。
二是影响行业发展。侵权行为扰乱了正常的市场秩序,给行业的健康有序发展带来负面影响。
三是冲击内容生态。这些侵权内容对现有的内容生态构成破坏。
卢家银表示,保护每个人的声音权益,不仅是在维护公民个人的合法权益,更是在维护整个社会信任体系的稳定。
光明网网络安全频道&数字化频道出品
监制:张宁 策划:李政葳 拍摄:曾震宇 田津金 制作:曾震宇 赵鹏超 配音:赵鹏超

“网络强国·百人谈”
更多内容欢迎扫码关注专栏
