AI安全新挑战如何破题?院士大咖热议责任与风险
北京日报客户端

2024-08-01 11:25 语音播报

经济

7月31日,ISC.AI 2024数字安全峰会在京开幕。峰会以“打造安全大模型,引领安全行业革命”为主题,呼吁行业以大模型重塑安全体系,守护数字经济稳健发展。大会汇聚了多位院士专家,以及360、华为、微软等国内外企业领袖,来自国内外的专家学者和企业精英深入剖析人工智能技术发展带来的安全挑战与解决方案,共同探索安全大模型驱动数字安全发展新路径。

人工智能技术的广泛应用正推动着各行各业转型升级,同时为安全行业的发展注入了强劲动力。中国工程院院士吴世忠在主题演讲中提出,由AI技术带来的新型安全问题已成为现实,安全行业将迅速迈进AI驱动的新时代。然而,大模型安全研究可以说刚刚开始。无论是安全研究还是安全产业,都必须紧跟科技进步和应用创新,才能服务好发展,保障好发展。

“当前,AI应用系统安全责任与风险严重失衡”,中国工程院院士,国家数字交换系统工程技术研究中心(NDSC)主任邬江兴在演讲中强调了当前AI系统面临的窘境。他提出,基于内生安全架构可发现或纠正AI应用系统安全问题,AI应用系统中必须包含必要多样性和相对正确公理的内生安全构造,在不可信的过程中找到相对可信的结果。智能时代需要选择正确的技术路径,实现更安全的AI应用系统。

随着人工智能技术的飞速发展,所有行业和产品都在被重塑,安全行业同样面临着一场革命。360集团创始人、ISC大会主席周鸿祎提出,用AI重塑安全的本质是让安全做到“自动驾驶”,360首推安全大模型并对购买其标准产品的用户免费提供大模型标准能力,实现大模型普惠。

随着生成式人工智能驱动AI发展进入新阶段,AI治理随之也变成了一个突出问题。先进计算与关键软件(信创)海河实验室主任,中国新一代人工智能发展战略研究院执行院长龚克在演讲中提出,AI治理应遵循有利发展、为人服务和基于伦理三点原则,要清楚认识到技术自身的不足,以及人对于AI技术的恶用、滥用、误用等风险。他强调,防止AI“作恶”要建立明确的伦理标准、提高透明度和问责制、完善法律法规、内置安全机制等。此外,要坚持开放创新,在信创基础上发展安全可控的AI生态。


编辑:孙奇茹

打开APP阅读全文