点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
近日,一些短视频平台涌现了大量某知名企业家吐槽的视频。在视频中,该企业家对堵车、调休、游戏等热门话题进行了调侃和锐评,甚至还有不雅词汇穿插其间,引发网友热议。事实上,那些吐槽视频并非该企业家本人在发声,而是由网友利用AI软件采集该企业家原音生成的配音,但逼真的效果让不少人信以为真。(10月28日《工人日报》)
声音看不着、摸不到,其权益属性很容易被忽视。从法理上看,声音权益具有人身专属性,是人格权的一部分。也就是说,声音和肖像一样,是识别个人身份的重要依据。任何自然人的声音都应受到法律的保护。然而,随着技术门槛降低,从AI“换声”到“偷声”,侵权问题正变得越来越复杂。现在,普通人仅用少量的样本数据,比如文本、音频,就能借助简便易用的深度合成技术,模糊真实信息和虚假信息的边界。
可怕的是,AI偷声会产生严重的“次生危害”。丑化、篡改公众人物的声音,并以营利为目的滥用其声音,不但会侵犯他人的名誉权,还会侵犯他人的财产权。如果犯罪分子利用偷来的声音伪装成他人的亲朋好友,在骗取信任后实施网络诈骗,后果更是不堪设想。当司法实践越来越深入,有一个共识愈加清晰:即使对录音制品予以授权,也不意味着对声音AI化的授权。而未经授权把他人的声音AI化,就可能侵犯他人的声音权。
事实证明,治理AI偷声,需要对监管“加大音量”。在第一道关口,AI语音应用工具的提供方不能置身事外。譬如,向用户定期公开声音信息使用情况,赋予权利人查阅、复制、更正与监督等权利。只有对源头素材及相关生成内容强化监管,精准溯源、精准预警才能落在实处。在第二道关口,平台运营方要通过完善责任清单、建立甄别和追踪机制,提升处置声音侵权行为的能力。在第三道关口,监管部门应完善技术监管措施,协同对短视频等声音侵权的重灾区实施动态监控。(杨博)