日前,西藏日喀则市定日县发生6.8级地震,牵动着许多网友的心。但与此同时,一些关于灾情的不实信息,也在网络上公然传播。近日,一张“小孩被压废墟下”的图片在网上引发广泛关注。实际上,这张图片由AI生成。
“小孩被压废墟下”系AI生成
当事人:有自媒体涉嫌
盗用AI生成素材
图片中,一名戴帽子的小男孩被压在废墟下。有不少网友被图片视频造成误导,并在留言区关注男孩的生命安全。
何先生创作这段AI图片和视频的起因,是看到加沙战争地区的孩子家园遭到破坏、流离失所,希望通过视频传递和平愿望。而他并没有想到,自己发布在短视频平台上的素材遭到他人盗用,并和此次西藏地震进行了关联。何先生在他的视频账号中也曾发布许多AI生成视频。
以“假图”关联真实事件传播
严重的或构成犯罪
何先生2024年11月发布的视频被人移花接木,将此次地震相关的信息肆意拼凑,这种用灾难博取流量的行为引发社会公众愤慨。
有法律人士表示,用“假图”关联真实事件的行为违背了社会公序良俗,有扰乱社会秩序之嫌,将面临法律处罚。
这些图片都是假的!
灾情期间传播混淆视听
此次地震中,还有此类造假图片、视频大量传播。画面中大多显示建筑物倒塌、儿童无家可归,废墟中妈妈用身体为孩子顶住压力等。相关部门已经辟谣,这些都来自AI生成、旧图片或视频拼接,请勿轻信传播!
软件30秒“编造”地震报道
未标注AI生成
2024年9月,国家互联网信息办公室发布关于《人工智能生成合成内容标识办法(征求意见稿)》公开征求意见,其中提到,在图片的适当位置添加显著的提示标识;在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识。
而在引发大量关注的“被压废墟下的小男孩”图片和视频中,创作者何先生表示,AI软件没有强制要求标注“AI生成”字样,是自己在视频上方添加了水印,但后来被盗用者删掉了水印。
在一款用户量庞大的剪辑软件中,使用其提供的AI视频生成功能,输入一句关于小女孩在地震中被救出的文字描述,不到30秒钟,软件就生成了一段20秒左右的视频,并提供画外音解说。视频中并未标注“AI生成”字样,软件也没有要求用户添加这样的标识。
专家:平台审核存在滞后性
未来要加强对突发信息的管控
除了AI生成软件和生成者要肩负起责任,专家指出,相关的立法、执法也需要加强,并在全社会加强相关人员的教育和科普工作,让公众的辨别力更高。
专家指出,目前,平台审核机制存在一定滞后性,未能及时有效识别AI虚构图片,对自媒体账号发布内容监管不力,特别是在涉及灾害等敏感话题时,更应加强审核力度。未来需要利用技术手段、人工审核等多种方式加强对地震等突发信息的管控。
中国人民大学新闻与社会发展中心研究员 曾持:在目前的技术情况下,平台只能事后惩罚,但是当下社会的传播速度很快,造成的影响太迅速,很难在源头上根治AI造谣的影响。
曾持还表示,未来AI技术要跟平台更紧密地联系在一起,平台要能根据AI新工具反向识别由AI拼造的假图片和假新闻。
如何甄别AI图片?
观察细节:许多AI生成的图片、视频中,可能存在人物表情僵硬、边缘模糊、光线阴影不自然、手指等细节数量异常或扭曲等。
查证来源:在一些平台和软件上,截图并“识别图片”,可以搜出是否来自发布过的旧图。
多方验证:不要仅仅依赖单一的信息来源,应从多个权威渠道获取信息进行对比。对于一些热点事件,可以检索官方媒体报道,验证信息的真实性。
保持警惕:仔细分析信息的逻辑性,若存在明显漏洞、矛盾或与常理不符的地方,很可能是虚假信息。
谨慎分享:在确定信息真实可靠之前,不要随意转发,以免无意中成为谣言传播的推手。