2025-11-06 10:10
中国信息通信研究院组织召开的“存力中国行”北京站活动11月4日举行,业界专家普遍认为,大模型行业的重心正从“造模型”转变为“用模型”。在这一转变中,“存力”从幕后走向台前,成为继算力之后制约推理效能、影响成本的关键因素。
随着大模型落地应用进入爆发期,以“Token”(token是大模型中可以理解和生成的最小意义的单位)为基本单位的推理经济正对存储系统提出前所未有的苛刻要求。
记者了解到,如果把大模型的开发、应用比作一家高级餐厅的运营,那么模型如同餐厅的完整菜谱和厨师团队,GPU等算力如同炉灶和厨师,数据如同食材,存储系统相当于从中央仓库到厨房备餐台的整个食材供应链和仓储系统。在这个过程中,当顾客点单(用户提出一项需求,模型进行推理),不能让“厨师”等待食材,存储系统必须以极高的速度将数据“喂”给GPU,才能保障整个系统的运行效率。在大模型能力像电力一样“按使用量(Token)计费”的推理经济时代,其核心挑战是如何用低成本稳定输出最有价值的AI运算结果。
中国信息通信研究院首席专家石友康说,随着当前AI规模化应用推进,推理环节的成本、效率、质量问题凸显,先进存力成为提升AI推理效能、控制成本的关键。
华为数据存储产品线战略与业务发展部总裁王旭东提出,在AI时代,IT基础设施能力面临三大挑战:“管不好” 的数据、“喂不饱” 的算力、“降不下”的成本。他提到,存储系统的带宽和每秒读写次数等性能不足会导致昂贵的GPU算力长期处于“空转”状态,出现“算力等数据”的尴尬局面,从而推高成本,阻碍AI应用落地。
面对挑战,产业链各方正在积极探索解决方案。中国移动云能力中心项目总师周宇介绍,移动云通过分层缓存调度、高速数据互联等技术提升带宽,并采用高密全闪存储、数据缩减等技术提高存储效能。周宇预测,未来存储将从被动存储转向智算协同,分阶段落地高密全闪存储、数据高速互联、存算一体等技术。
王旭东介绍,华为针对AI推理训练研发的UCM推理记忆数据管理技术正在行业落地中发挥作用,通过“集中高质数据、提速AI训练、优化推理效能”来实现AI推理加速。
石友康表示,当前国家高度重视先进存力发展,在《算力基础设施高质量发展行动计划》等政策中明确提出“加速存力技术研发应用”“持续提升存储产业能力”“推动存算网协同发展”等内容,为产业发展指明了方向。目前,信通院已联合产业链企业成立了“算力产业发展方阵先进存力AI推理工作组”。他建议,应鼓励前沿存储技术研发创新,推动存算运深度融合,加强存算协同产业生态建设,并呼吁业界同仁凝聚共识,共同推动我国存算协同发展。