学习时报:协同治理人工智能短剧“偷脸”乱象
学习时报

2026-05-02 06:55 语音播报

热点

人工智能技术的迅猛发展正深刻重塑视频内容的生产范式。在短剧领域,人工智能换脸、深度合成等技术大幅降低制作成本、缩短创作周期,为行业发展注入了新的活力。技术红利之下,“偷脸”不再是科幻电影中的桥段,而是现实中发生的侵权行为——有的人工智能短剧制作方在未经授权的情况下,擅自抓取、使用他人的面部生物识别信息,通过人工智能技术生成剧中角色,直接侵害公民肖像权、个人信息权乃至名誉权。对此,有必要厘清现行法律制度的堵点与盲区,从而系统性地回应人工智能短剧“偷脸”的现实困境。

人工智能短剧“偷脸”问题并非个案。例如,2025年4月上线的某短剧涉嫌通过人工智能换脸技术将他人肖像拼接至剧中角色面部,换脸片段长达90分钟;2026年3月,某汉服妆造博主的写真被人工智能短剧擅自复刻,该剧单平台播放量超过4000万,背后商业利益可观,却对他人造成了损害。更值得警惕的是,“偷脸”已催生出明码标价的“人脸”灰色交易市场。“人脸”版权报价从几十元到上千元不等,最高达5000元一张,使用期限从1年到15年不等。人脸图像被存入数据库后,未来数年只要剧情需要,就可能会被随意调用。此种看似“你情我愿”的合作模式,却蕴含着个人信息失控的风险。

面对人工智能短剧“偷脸”这一新兴侵权形态,近年来我国加快完善现行法律法规体系,《中华人民共和国民法典》《中华人民共和国个人信息保护法》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人脸识别技术应用安全管理办法》等,为此类侵权提供了一定的制度参照,但长远看我国现行法律框架仍存在一定局限。

“可识别性”标准在人工智能生成语境下面临适用困境。《中华人民共和国民法典》第一千零一十八条将肖像界定为“特定自然人可以被识别的外部形象”,第一千零一十九条虽明确规定禁止“利用信息技术手段伪造”他人肖像。然而,当人工智能生成的人物融合多人面部特征,或仅保留部分可识别特征时,缺乏专业取证能力的受害者将很难承受证明“可识别性”的举证负担,专业鉴定机构对此也可能束手无策。

个人信息保护框架对“偷脸”行为的规制存在滞后。人脸是典型的敏感个人信息,处理人脸信息需满足“特定目的+充分必要+单独同意”等三重门槛。然而,人工智能短剧制作方抓取人脸信息的行为通常隐蔽发生,例如从社交平台、网络图片库中爬取人脸图像。倘若受害者未及时发现,其遭受的损害与负面影响往往无法通过损害赔偿弥补。

深度合成服务提供者的平台责任有待厘清及强化。《互联网信息服务深度合成管理规定》要求服务提供者进行显著标识,但在人工智能短剧产业链中,涉及技术提供方、内容制作方、分发平台等多个主体,此间的责任划分尚不明确。实践中,因无法预先获取用户人脸信息,短剧平台事实上不可能在上线前完成对剧中所有肖像的侵权筛查。

侵权成本与维权成本严重不对等。人工智能短剧制作方使用真人拍摄的成本动辄十万元百万元,通过人工智能生成角色的成本仅为数千元甚至更低。无论是明星还是普通人,维权都需要投入大量的时间、精力和经济成本。但即便侵权成立,赔偿金额也可能无法覆盖权利人的实际损失与维权成本,难以形成有效威慑。成本结构失衡,会助长侵权者心存侥幸。

新近出台的部门规章在适用层级和执法力度上仍有提升空间。《人脸识别技术应用安全管理办法》明确了处理人脸信息的具体规则,但其适用对象主要针对主动应用人脸识别技术的场景,对于人工智能短剧制作中“被动爬取+事后生成”的行为模式是否完全覆盖,仍需进一步明确。此外,作为部门规章,其法律责任的约束力度亟待提升。

治理人工智能短剧“偷脸”乱象,需要立法、司法、执法、平台治理、行业自律与公众教育等协同发力,具体应从以下五个方面展开。

完善立法,构建层次分明的规制体系。在立法层面,应着力构建以民法刑法为重点、以专门性法规为补充的立体化法律规制体系。对此,首先需进一步明确人工智能深度合成技术应用的法律边界。建议在修订《互联网信息服务深度合成管理规定》等规范性文件时,增设针对未经授权使用他人人脸信息生成人工智能内容的专门条款,明确“未经肖像权人同意,不得以任何形式收集、使用、存储他人人脸生物识别信息用于人工智能内容生成”的具体规则。其次应完善人脸信息的全生命周期保护规则。虽然《人脸识别技术应用安全管理办法》已作出重要规定,但在人工智能短剧训练数据来源、人脸信息二次利用等环节,仍需明确人工智能模型训练中使用人脸信息的数据来源合法性标准,从源头上切断“偷脸”的素材供应。

发挥司法引领作用,细化裁判规则。在应对人工智能短剧“偷脸”问题上具有重要的规则引领功能。未来应明晰“可识别性标准”的适用细则,包括公众认知的一般标准、特定行业或圈层的识别标准、叠加其他特征后的综合识别标准等。此外,还需合理分配举证责任。考虑到“偷脸”行为隐蔽性强、受害者取证困难的特点,可在适当情形下减轻受害者的举证负担,由制作方就其使用人脸信息的合法性承担举证责任。

强化行政执法,加大监管和处罚力度。行政执法是遏制人工智能短剧“偷脸”乱象的重要力量。网信部门应加大对深度合成服务的监管力度,对于未按规定进行安全评估、未对人工智能生成内容进行标识、未经授权使用他人人脸信息的服务提供者,应依法予以处罚。与之相配合,公安机关应同时加大对非法获取、出售、提供公民人脸信息行为的刑事打击力度,构成犯罪的以侵犯公民个人信息罪追责。各监管主体间还应建立跨部门的协同执法机制,形成监管合力。

压实平台主体责任,构建内容审核与风险防控体系。一方面,平台应当建立和完善内容审核机制,通过技术手段进行前置筛查,拦截疑似未经授权使用他人肖像的视频内容。未来还可考虑探索建立人脸信息比对数据库,对于已获得肖像授权的演员或签约模特建立白名单机制。另一方面,平台应建立便捷高效的投诉举报和争议解决机制,降低权利人的维权成本,就侵权事实明确的或高度疑似侵权的短剧迅速采取下架、屏蔽等措施。

推进行业自律与公众教育,形成多元共治格局。在行业自律方面,建议短剧行业协会制定专门的行业规范和自律公约,明确人工智能短剧制作中涉及人脸信息使用的合规要求。中国广播电视社会组织联合会演员委员会已发布声明,呼吁关注利用人工智能技术侵害演艺从业人员权益的现象,为行业自律开了好头。在公众教育方面,应加强对社会公众的普法宣传,提高公民对自身人脸信息权益的保护意识,并为其提供便捷的法律咨询和维权指引。此外,检察机关应积极发挥在个人信息保护领域的公益诉讼作用。

总之,面对人工智能短剧“偷脸”乱象,法律必须及时回应新兴技术带来的挑战,既要为技术创新留出空间,更要守住保护公民人格权益和社会公共利益的底线。唯有立法完善、司法精细、执法有力、平台尽责、行业自律、公众觉醒,多方合力形成系统性的治理格局,才能让人脸回归其作为人格尊严载体的本真属性。

快讯

编辑:夏开晗

打开APP阅读全文
APP内打开