苏姿丰在答复分析师提问时指出,传统 AI 练习与推理集群平日采取“一颗 CPU 搭配四到八颗 GPU”的设备,CPU 更多扮演“宿主”角色,负责调剂并提议 GPU 计算义务。 而在 Agentic AI 模式下,大年夜量具备自治才能的智能体须要依托主机 CPU 持续进行状况更新、义务编排和协同,这正在根本性地改变算力节点的形态。
根据苏姿丰的说法,跟着智能体数量的快速增长,CPU 与 GPU 的比例正向 1:1 挨近。 她甚至提出,假如将来集群中运行“数量极其宏大年夜”的智能体,则完全可以想象单节点里 CPU 数量多于 GPU 的设备。 这意味着,以前几年由 GPU 主导的加快计算扩大海潮,正被一股由“智能体工作负载”驱动的 CPU 需求海潮所叠加。
所谓 Agentic AI,本质是在大年夜说话模型(LLM)之上运行多个自治“智能体”,由其主动完成复杂义务流程。 例如,在软件开辟场景中,智能体可以自行核阅代码、实施修改、等待编译完成,并在发明新 Bug 时持续修复,全流程几乎无需人工干涉。 然而,为了调和、调剂和编排这些并交运行的智能体义务,体系必须依附 CPU 供给持续的控制与治理才能。
在这类工作负载下,CPU 不再只是“启动 GPU 练习或推理”的副角,而是成为驱动全部 Agentic AI 体系运转的核心枢纽。 当越来越多义务被拆分并委派给智能体时,即便当前仍处于 GPU 加快计算快速扩大的时代,CPU 应用率依然被推高到极高程度。 报道援引 AMD 的表态称,公司今朝几乎“将所有能供给的 CPU 都卖给了 AI 实验室和超大年夜范围云办事商”,以知足这波由智能体义务带来的新增需求。

这也意味着,在将来 AI 基本举措措施的设计中,CPU 与 GPU 的关系可能会从“主从”走向更为对等甚至 CPU 加倍密集的形态。 对芯片供给商而言,Agentic AI 不仅持续拉动 GPU 需求,也有望在办事器 CPU 市场打开新一轮增长空间。

发表评论 取消回复