2025-03-12 17:26
近期,天坛“网红”徐大爷因被AI造谣而苦不堪言。有人盗用此前博主拍摄徐大爷锻炼的视频,经AI处理后,将其编排成90岁的患癌老人,还附带虚假广告。面对亲朋好友“这条狗血广告挣多少钱”的询问,徐大爷一遍遍解释得十分恼火。
说起来,过去AI造谣的目标主要都是明星艺人、专家大咖,而徐大爷的遭遇说明,每一个普通人也都有被AI被利用的风险。这不,最近“上海退休教授靠阳台核电池供电”的谣言传得沸沸扬扬,频频出现的“真人演绎”,不知又侵犯了哪位大爷的肖像权。
随着AI技术飞速迭代,其生成的谣言也迅速从文字到视频,从民生热点到公共安全,以近乎工业化生产的模式泛滥。今年年初,达沃斯世界经济论坛发布的《2025年全球风险报告》,将“错误和虚假信息”列为全球面临的五大风险之一,而AI正在成为制造和放大错误和虚假信息的重要一环,成为摆在所有国家面前的严峻挑战。更值得注意的是,由于AI本身具有“幻觉”缺陷——面对缺失信息,模型会自动编造看上去“合理”的细节填补。这进一步拉高了治理的难度系数。
从法律上看,盗用真人视频并利用AI技术合成广告的行为,侵犯了公民的肖像权和名誉权。揪住典型案例,亮明严肃态度非常重要。但名人明星被侵权想追责尚且困难,又何况素人?避免“一键造谣,累死辟谣”的尴尬,关键是将治理关口前移。2024年9月,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,办法明确,无论文本、音频、视频还是虚拟场景,都必须“在适当位置添加显著的提示标识”。这一规定切中时弊,但问题在于,AI生成的内容究竟能不能被第一时间识别出来?
就现阶段技术水平而论,AI视频在口型等细节上还有不自然之处,但随着技术进步,这些能被肉眼发现的部分也可能很快被改变。识别AI生成内容,最终还是需要技术把关。目前,已有多个平台上线AI检测工具,尝试精准识别AI生成的文本与图像内容。但对于海量生产的UGC内容而言,AI测假的能力还没能跟上需求,某些平台“先发后审”的滞后审核机制,更给了AI造假很大空间。这个意义上,平台的技术堤坝,很有必要进一步加固。