从稳定到智能:AI驱动下银行业存储架构的范式跃迁
随着人工智能技术在金融行业的深度渗透,大模型应用正从辅助工具演变为业务流程的核心支撑。从智能问答、合规审查到信贷尽调与运维自动化,AI不仅提升了效率,也对底层基础设施尤其是存储系统,提出了全新要求。
在益企研究院与北京国家金融科技认证中心联合主办的“金融行业存力应用实践与存储技术创新研讨会”上,来自民生银行、农业银行、邮储银行、恒丰银行等各大银行的专家,与平头哥半导体、得瑞领新、星辰天合等厂商的技术专家,围绕AI负载下的存储架构、选型策略、能效优化及数据管理等议题展开深入研讨,系统梳理了金融行业AI规模化落地对存储的需求、挑战以及技术演进方向。
大语言模型广泛落地,银行业AI应用进入规模化部署期
随着大语言模型的普及,AI技术广泛渗透到银行内部的各业务流程中,为各部门的工作提供辅助,改善工作效率和质量。根据最新行业报告,2025年中国银行业大模型应用已从零星试验阶段迈入规模化部署期。工商银行、农业银行、邮储银行、招商银行等头部银行已全面启动大模型应用规划,形成了“一场景一应用、一岗一助手、一客一管家”的智能服务体系,覆盖投研、风控、客服、运营、合规等核心领域的数百个业务场景。更为关键的是,银行业正从“静态问答式AI”向“动态决策型AI智能体”演进。例如,信贷审批智能体可自动调用工商、税务、司法等外部系统完成尽调;客服智能体能跨渠道记忆用户偏好并主动推荐产品;多智能体协同系统甚至可模拟市场博弈进行压力测试。这些智能体不仅需要强大的推理能力,更依赖持续的记忆更新、工具调用和状态持久化,这意味着AI负载已从瞬时推理转变为长时间运行、高交互密度且数据密集的新模式。这一转变,对银行IT系统底层基础设施提出了新的挑战。
基础设施核心挑战:算力、容量与电力的三重约束
过去,银行IT系统以处理结构化交易数据为主,存储与计算需求相对稳定。而如今,AI驱动的智能服务大量依赖超长上下文对话、海量非结构化数据、高并发随机I/O,推升温热数据占比,使得基础设施瓶颈不再局限于传统性能指标,而是迅速传导至算力、存储容量与能源效率三个维度,形成制约规模化落地的三角约束。超长上下文带来的算力瓶颈
金融领域AI应用涉及的文档繁多,在对话过程中常常需要同时输入多个文件,例如合同、财报、舆情报告甚至音视频材料。以智能投顾为例,单次会话可能需加载数十页研报、历史持仓、实时新闻,使得Token长度轻松突破10万级。这不仅迅速耗尽GPU显存,还因KV Cache膨胀导致并发能力断崖式下降。在AI算力建设的过程中,算力不再仅看峰值FLOPS,更关注有效推理密度与上下文吞吐效率。将KV Cache等中间状态高效卸载至高带宽、低延迟的本地存储,已成为缓解显存压力、维持高并发推理的关键路径。非结构化数据引发的容量压力
根据IDC报告,到2025年全球非结构化数据占企业数据总量的80%以上,金融行业是非结构化数据增长最快的领域之一。当这些数据被用于AI训练或检索增强生成(RAG),需转化为向量存入向量数据库,由于向量维度高、索引结构冗余,原始1TB文档数据可膨胀为5–10TB向量数据。此外,AI智能体的记忆库需长期保存用户交互历史、任务状态、工具调用日志等温数据,这些数据虽不频繁写入,但需随时可读,且生命周期长达数月甚至数年。传统冷热分层存储难以高效管理此类温热数据。因此,银行亟需高密度、低成本、高耐久的存储方案。高密度集群推高电力挑战
随着智算集群的算力密度不断提升,传统机房的供电瓶颈难以满足新型AI服务器的部署需求。除此之外,存储系统的功耗挑战也加速显现。过去,SSD因单盘功耗低于机械硬盘而较少被关注,但随着SSD部署密度的增加,新型全闪节点的整机柜功耗已经不容忽视,传统机柜的供电能力正成为高密度高性能存储部署的现实瓶颈。银行在新建智算中心时,不仅要规划算力与容量,还需同步评估PUE、供电冗余与液冷可行性。未来,具备动态功耗管理、高能效的企业级SSD,将成为绿色AI基础设施的重要组成。
AI存储架构的范式转变:从稳定优先到能、效权衡
随着银行业AI应用的不断深入,底层存储架构正经历一场深刻的范式迁移——从传统以“高可用、小容量、强隔离”为核心的稳定优先模式,转向“高密度、高能效、软硬协同”的AI原生架构。从“单盘可靠”到“系统能效最优”
在传统银行IT系统中,服务器SSD单盘性能高,爆炸半径小(控制故障影响范围),容量长期徘徊在4–8TB量级,单节点SSD数量也很少超过10片。而AI场景下,服务器通常需要配置15–30TB量级的SSD,部分存储服务器还会部署更大(百TB以上)、更多(20块以上)的SSD。因此单盘容量和每GB/Watt能效比成为决定TCO的关键。平头哥镇岳510 SSD主控芯片能效比高达420K IOPS/W,显著优于主流PCIe 5.0 SSD,更是PCIe 4.0产品的2倍以上,这正是绿色智算中心所亟需的能力。推理不再“轻存储”,KV Cache卸载成新刚需
对于AI场景下的存储性能,典型的观点是训练集群需要配套高性能存储,以免昂贵的GPU需要等待数据或Checkpoint操作完成,而推理对存储系统的要求较低。但这种观点不能变成刻舟求剑,不论是训练还是推理,随着算力的增长,对存储系统的要求也在快速发展。尤其是在推理算力和效率需求同时增长的情况下,为推理服务优化的存储性能需求也不断提升,其中典型的是将KV Cache卸载到NAND正成为重要技术方向。这一趋势要求SSD具备高IOPS、低延迟、高吞吐能力,镇岳510是支持KV Cache高效卸载场景的PCIe 5.0主控芯片,其通过硬件加速的NVMe命令处理、端到端低延迟路径优化以及高达16通道的NAND并发控制,可实现3400K IOPS处理能力,具有业界领先的4微秒低时延,使SSD从数据载体升级为计算协同单元,真正实现“以存代算”。存储分层智能化,容量和成本的均衡
面对数据量的膨胀和温热数据的占比提升,银行存储系统对于数据分层管理的需求愈发明显。在面向AI场景的多层存储当中,除了高性能的TLC SSD,银行用户对QLC SSD的认可度也开始逐步提升,后者的高密度、高能效,以及较良好的读性能有助于以较低成本应对温热数据层的需求。当然,QLC在随机写入下寿命短、写放大严重的短板也是其规模应用的瓶颈。镇岳510主控芯片在开发时已充分考虑了对未来更新代次(如200层及300层以上)QLC NAND介质的支持能力,并且具有强大、高效的纠错能力,有利于保证数据可靠性,再结合其原生支持ZNS(分区命名空间),为QLC的普及提供了可行性方案。在3月27日的CFMS|MemoryS 2026闪存峰会上,平头哥将带来相关技术方案的分享,详情可关注平头哥微信公众号的报道。
结语
AI的规模化落地正推动银行业存储架构从“稳定优先”迈向“智能协同”。 面对超长上下文、温热数据激增与能效约束,存储系统不再是被动的数据容器,而是主动参与计算协同的智能基础设施。“以存代算”等技术思路驱动存储系统规划进入AI原生时代,如何通过软硬协同创新,在保障金融安全与合规的前提下,充分释放AI潜能,构建高效、有韧性、可持续的下一代智能金融基础设施是接下来的重点课题。