这几天,好些配音演员站出来说话了,反对那种没经过同意就把他们的声音拿去练AI、做合成,最后拿去赚钱的事儿。大家都说,现在AI偷声音已经搞出了一套黑产业链,就是先攒素材,然后做内容,最后变钱。而且跟那种换脸比起来,这个更难发现,维权起来也更麻烦。所以,咱们得弄明白他们的声音是怎么被偷走的,维权难在哪,又该咋破解。 咱们平时看电影电视剧,不管是《甜蜜蜜》里的黎小军还是《无间道》里的刘建明,这些经典形象都是配音演员叶清塑造的。前阵子网上有个AI短剧出来,弹幕里全是说这声音听着跟叶清一模一样。叶清自己也承认,那里面还原度确实很高。这种事在配音圈里其实挺常见的。 像李龙滨这样的导演和演员也经常中招。如果AI都能随便仿人家声音了,这对行业打击太大了。季冠霖给《甄嬛传》《疯狂动物城》都配过音,她觉得这种乱七八糟的AI仿声会破坏演员的表演水平和情感表达。有一次她听了个印度版的《甄嬛传》,里面用了她的声音,结果听着不像原来的角色了。 除了影响艺术水准,季冠霖还担心法律风险。中国政法大学人工智能法研究院的院长张凌寒说,这可能侵犯了演员的人格权和作品的著作权。不过也有专家觉得在实际操作中很难界定。 叶清觉得最难的地方是取证太难了。网络上的声音多是剪接过的碎片,很难找到源头。还有个鉴定难的问题。声音这东西摸不着也看不见,随便调个速度或者变个调就能做到很像。李龙滨说他们平时切换声线是常事,AI只要稍微微调一下就能高度相似。 张凌寒提到训练数据不透明,受害者很难证明数据是哪儿来的。所以追责很费劲。 那怎么才能让技术跟行业一起好好发展呢?叶清建议用户必须合法取得授权才行。 中国政法大学知识产权中心的赵占领也觉得平台得管管规则和自律才行。现在法律还不够完善,得靠实际办案积累经验。 没有明确政策的时候平台自己也可以限制用户别乱搞。大家还呼吁以后用加水印这种技术来追踪识别。张凌寒说加水印得有统一标准才行。 配音演员也可以给自己的声音备案留个底儿。等以后监管制度和取证制度都完善了,保护机制就能建起来了。 来源:中国之声 图:广州日报新花城记者王维宣 广州日报新花城编辑赵小满