2026-04-15 17:42
“我的声音被偷走了,应该怎么办?”当自己的声音在网络视频中“开口说话”,却并非出自本人之口,越来越多的配音演员感受到一种难以言说的失控感。
未经许可,自己的声音被悄悄复制、重组,甚至用于商业用途——随着AI语音合成技术门槛不断降低,这类侵权现象从个案走向批量,逐渐演变为亟待规范的现实问题。
从“名人受害”到“人人自危”,当声音可以被轻易复制,我们该如何守护每个人独一无二的“声音”?
现象:
“偷声”正肆无忌惮冲击配音业
对配音工作者“空落尽”来说,为有声书、游戏、短视频配音曾是他最主要的工作。最近,一位曾长期合作的客户,突然不再找他合作。起初他并未多想,一天,“空落尽”收到别人发来的一条视频链接,询问是否由他真人录制?“空落尽”点开视频,熟悉的声音传来,音色语气,几乎就是他自己,但他也确定自己并未录过这段内容。
“空落尽”意识到,曾经的客户将他以往的音频素材“喂”给了AI,通过剪辑软件的声音克隆功能,复制出了他的声音,并且直接用在了有声书中。
在“空落尽”察觉并提出抗议后,对方迫于压力道歉,并提出给予一笔赔偿,同时承诺今后不再将其声音用于AI训练和生成。“我担心这笔钱将来会被解释为授权费。”他告诉记者,出于这一顾虑,自己没有选择收下这笔补偿。
“空落尽”的遭遇,是当下较为典型的一类AI声音侵权。“一键生成同款音色”,让原本基于特定用途授权的声音素材,被大幅超范围使用,甚至被训练成可以无限复用的AI声音。在更多情况下,甚至连最初的授权都不存在,侵权者直接根据网上的声音素材将配音演员的声音AI化,并用在各种产品中。
“经常有听众私信我,说发现有人用我的声音做内容。”知名配音演员姜广涛告诉记者,类似的好心提醒近来明显增多,他无暇一一核实。
面对现状,配音从业者们不免感到焦虑。从“空落尽”个人感受来看,整个行业的工作量减少了约八成。“几年前,有声小说录制工作需求不断。这两年,随着AI技术逐渐成熟,大部分有声书直接用AI录制,只有少部分精品作品或有粉丝基础的作品还需要真人。”
肆无忌惮的“偷声”行为加剧了配音从业者的不安。近期,数十位配音演员陆续发布声明,抵制未经授权擅自采集声音用于人工智能合成,生成与本人高度相似的音频,并进行商业或非商业的二次创作。
“岩浆已经蔓延到脚边了,大家肯定要跳起来。”谈及现状,姜广涛这样形容。
“配音演员的声音情绪丰富,天然适合AI训练,且声音素材广泛存在于影视、有声书、游戏等作品中,即便带音效背景音乐,现有技术也能提取。”在姜广涛看来,配音演员们贡献的海量素材或许难以避免被用于训练AI,但未经许可被商用,性质就变得十分恶劣。
困境:
侵权易如反掌 维权举步维艰
未经授权使用名人声音的现象其实早已有之,但在早年,由于技术成本高,案件相对零星。近年来,AI技术的发展降低了获取他人声音并利用的门槛。
记者注意到,部分国产AI剪辑软件会要求用户在上传音频素材进行声音克隆时,对着手机录制一句话:“我承诺我所提供的音频内容来自我本人,且我会对创作内容负责”,以此来核验原音频是否是本人声音。不过,市面上很多工具并没有此类限制,随意上传音频,便可以随意克隆声音,并在此基础上生成各类用户需要的旁白。
侵权容易,维权却十分艰难,很多配音工作者对维权并不抱有乐观态度。首先,与图像、文字侵权相比,声音侵权更具隐蔽性。侵权内容散落在短视频、直播、广告等多个场景,权利人往往难以及时发现。“空落尽”告诉记者,“你不知道谁在偷偷用你的声音,只有等传播得足够广了,才有可能被粉丝发现并告知。”
要找到侵权对象,也成为一个难题。“很多时候,最开始放侵权作品的人已经销号跑路,侵权内容已经广泛传播了。”姜广涛有些无奈。
此外,维权的成本也非常高,即使打赢官司,赔偿数额也很难让配音从业者们感到满意。“有时候,赔偿数额连律师费都包不下来。”姜广涛无奈表示,很多时候,有些同行花费大量时间金钱成本,只图对方认错、赔礼道歉,但实际上的损失,却难以估量。
难点:
怎么证明“声音是我的”?鉴定标准还需完善
2024年,北京互联网法院审结“全国首例AI生成声音人格权侵权案”。原告殷女士在接受委托录制音频后,其声音素材被相关公司进行AI化处理,并制作成语音产品对外提供服务,随后被广泛传播使用。法院明确认定,在具备可识别性的前提下,自然人声音权益的保护范围可以延伸至AI生成声音。最终,殷女士获赔25万元。
“现在,这已经成为一种类型化案件了。”承办过多起此类案件的北京互联网法院法官颜君观察到,AI声音侵权案件正在从典型个案走向常规案件。
相比于盗用肖像的直观,让配音演员们普遍感到困惑的是,人声的识别更难,在他人拒绝承认的情况下,如何证明对方盗用了自己声音?
颜君法官解释,如果从一般公众的视角来看,显而易见就是原告的声音,法官可以直接根据听感作出认定。又或者,原告已经初步举证,通过证据证明存在高度可能性,被告又无法提出合理的来源解释,举证责任会相应转移。“此时,就需要被告进行合理解释,比如说,证明声音实际上是来源于另一个人,或者证明自己从头到尾使用的是AI生成声音。”
只有在争议较大时,才需要启动司法鉴定程序,通过技术手段结合主观听感综合判断。不过,目前声音鉴定在此类案件中的应用仍在探索阶段。“针对AI合成声音的鉴定,目前民事司法实践并不丰富,鉴定机构能不能做、怎么做,都还在摸索。”颜君告诉记者。
多位业内人士也直言,AI声音合成技术日新月异,但声纹鉴定标准和技术手段还需要进一步发展完善,目前或许很难对一份声音样本“是否由AI克隆”给出一个准确无误的答案。
追问:
不是百分百相似的“合成音”,还能维权吗?
围绕AI声音侵权,在如何确定赔偿金额、如何划定侵权边界等关键问题上,相关规则也在不断探索中。
针对很多从业者关心的赔偿金额问题,中国社会科学院大学互联网法治研究中心主任刘晓春介绍,声音权与肖像权一样,同属于人格权益,“声音的权利人可以通过举证声音被盗用后造成的机会损失、传播损失等,来主张相应赔偿。”
赔偿金额究竟定在什么水平,才能既弥补权利人的损失、又对侵权行为形成有效震慑?“我个人认为,不宜太低,也不宜死守传统精神损害赔偿的证明要件,否则赔偿额很难真正起到补偿和威慑作用。”刘晓春建议。
另一个让很多配音从业者感到困扰的问题是,AI工具对声音进行修改,或者将多个声音融合后,生成一个并不100%相似的声音。在此情况下,还能主张自己的权利吗?
根据现行法律,如果输出端的声音已经完全不像原告,通常不构成侵权。刘晓春介绍,法院目前普遍采用“可识别性”作为判断标准,即相关受众能否通过声音识别并联想到特定权利人。“如果有点像就给予保护,保护范围未免太宽,毕竟声音之间的相似是难以完全避免的。”刘晓春认为,“可识别性”的判断标准,也需要在司法实践中通过不同的案例进一步去完善。
而从输入端,也就是AI训练阶段来说,未经同意使用他人信息用于AI训练,仍然存在侵权风险。“肖像、声音均属于个人信息,未经同意将他人的个人信息用于训练数据,在现行法律下很可能构成侵权,因为目前法律上并没有明确规定人工智能训练可以得到豁免。”刘晓春建议,立法层面可以针对AI训练输入端设置若干例外情形。例如,出于公益目的、研究目的开展训练,且输出端不构成侵权性使用或传播的,可予以豁免。
建议:
搭建比对数据库 建立名人声音样本
如何应对AI技术伴生的声音侵权乱象,对各界来说依然是一个全新的课题。
刘晓春认为,AI大模型工具和平台自身可以通过技术手段保护权利人的合法权益,如平台搭建专项比对数据库,针对名人等侵权高发群体,提前建立声音样本库,对上传素材进行前置审核;针对普通人搭建便捷高效的投诉处理通道,快速响应侵权举报。
不过,为了平衡个人权益保护与创新之间的关系,也不宜将全部责任压给AI生成工具,也不能要求平台实现全面事前审核。“要合理明确AI生成工具、内容传播平台的责任标准,确保责任范围在可控成本和可接受范围内,避免给产业发展带来过重负担。”刘晓春建议。
“首先要有自我保护意识。”颜君法官也提醒声音权利人,在公开发布作品时,可以主动附上声明,“明确声音归属,并注明禁止用于AI化使用或数据训练”。在商业合作中,也要格外谨慎,“一定要仔细审查授权范围条款,避免在不知情的情况下,把AI化使用的权利一并让渡出去。”一旦发现侵权,她建议权利人尽快固定证据,第一时间要求平台下架,并及时主张权利。