人工智能发展安全风险需防范
北京日报客户端

2025-03-07 16:54 语音播报

产经新闻

2025全国两会期间,人工智能成为热词。作为参会的代表或委员,多位业内人士十分关注如何更好地学习人工智能、适应人工智能,如何在各个产业领域利用人工智能,针对人工智能可能带来的风险提前进行防范等话题,尝试给人工智能如何平衡技术创新与安全风险这一重要课题提供解题思路。

从ChatGPT带来大模型的突破发展,到DeepSeek逐渐接入各行各业,生成式人工智能已经被大众广泛认可和运用。相关统计数据显示,我国生成式人工智能产品的用户规模已达2.49亿人。

大模型从“不可用”“凑合用”,发展到“能用、好用”的过程中,人工智能和大模型有时会生成“幻觉”——生成式人工智能偶尔会生成不合理、与事实不符的信息,随着深度推理模型的逻辑自洽性提升,生成的内容也出现真假难辨的情况。

“带有算法偏差的虚假信息会被新一代人工智能系统循环学习,形成恶性循环,影响公众信任和社会稳定。”科大讯飞董事长刘庆峰表示。

在预防大模型生成“幻觉”数据方面,刘庆峰认为,要从技术研发和管理机制上构建可信的信息环境。

因此,刘庆峰建议,一是构建安全可信数据标签体系,提升内容可靠性:建立安全可信、动态更新的信源和数据知识库,对不同类型数据的可信度和危害程度建立标签体系,降低人工智能“幻觉”出现概率,提升生成内容可靠性;二是研发生成式人工智能“幻觉”治理技术和平台,定期清理“幻觉”数据:研究“幻觉”自动分析的技术和软件平台,开展“幻觉”自动分析、生成式人工智能深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由中央网信办、国家数据局等部门定期清理“幻觉”数据,为公众提供生成式人工智能幻觉信息检测工具与服务。

除了“幻觉”以外,与人工智能发展伴生的还有安全风险问题。

奇安信科技集团董事长齐向东将人工智能发展面临的安全问题分为三类。第一类是人工智能大模型自身的安全问题。开发风险、数据风险、应用风险和基础环境风险这四大安全风险比较突出。

第二类是利用人工智能开展网络攻击的问题。“人工智能促进了网络攻击手段的更新迭代。”齐向东表示,“人工智能还提升了‘以假乱真’的能力,深度伪造、认知战、钓鱼等威胁加剧。攻击者可利用人工智能‘换脸变声’输出虚假信息,开展网络诈骗,或输出背离主流价值观的内容危害认知安全。”

对于这一类问题,很多业内人士有着同样的感受。关于人工智能的深度伪造,TCL创始人、董事长李东生认为,近年来,我国相关立法虽有关注这一议题,但已出台的规章制度尚不成体系,还不具备可操作的细则和明确的处罚标准。他从加快人工智能深度合成内容标识管理规章制度的出台、明确对人工智能深度合成服务商未履行标识义务的惩罚制度、加强深度合成内容标识技术标准和发布管理、加强国际合作四个角度提出建议。

而关于“换脸变声”,小米创办人兼董事长兼CEO雷军建议针对“AI换脸拟声”等某一代表性问题,探索推出人工智能单行法,提高立法位阶及其效力、分级分类的基础上进行务实治理,明确“AI换脸拟声”应用边界红线,完善侵权证据规则,加大对利用人工智能技术实施犯罪行为的刑事处罚力度。与时俱进探索新议题的细化监管措施,凝聚人工智能伦理规范共识。

同时,雷军建议支持平台企业开发可精准识别人工智能深度合成内容的技术能力,创新直接有效的治理工具供给;加大人力物力投入,优化升级通信软件和内容平台巡查审核机制、投诉举报机制、应急处理机制,确保及时阻断问题内容传播;鼓励通过行业自律公约、先进治理平台奖励表彰、拓展跨境合作机制等举措,培育行业自治动力和共治价值,推动形成可复制推广的有益经验。

此外,齐向东称,第三类安全问题是通过攻击人工智能引发的“网络攻击大爆炸”。未来人工智能会成为社会的基础设施,当大模型嵌入智慧城市、工控系统、智慧政务等关键领域时,一旦遭到攻击可能会牵一发而动全身。

针对这些安全问题,齐向东认为,第一,应建立适配大模型的纵深防御体系,筑牢人工智能的安全根基;第二,应制定大模型安全强制合规要求,夯实人工智能安全发展的制度保障;第三,应推广“人工智能+安全”创新成果落地,走好提升安全能力的必经之路。

“对于整个人工智能行业来说,平衡技术创新与安全风险必会成为重要课题。”齐向东表示,“创新是第一动力,安全是底线要求。只有筑牢安全防线、守住合规底线,创新才有可能行稳致远。”

校检:张萌 孙扬


编辑:李濛

打开APP阅读全文