
在面向练习的 TPUv8ax 项目上,Google持续与博通合作,由博通定制设计团队负责从芯片到封装的一体化筹划,包含核心逻辑、电源与内存子体系以及配套硬件设计,为Google交付可直接安排于其大年夜范围数据中间的成品芯片。 经由过程这一模式,Google在保持高度定制化才能的同时,削减了自建完全芯片设计团队的投入,加快了新一代练习平台的落地节拍。
面向推理的 TPUv8x“Zebrafish”则引入了联发科作为合作方,不过角色加倍聚焦在封装与支撑芯片等环节。 报道称,Google在该项目中直接向晶圆厂和内存供给商采购晶圆与高带宽内存,由联发科协助完成部分周边芯片和封装设计,以弥补Google在封装工艺与相干支撑芯片设计上的经验短板,同时将核心架构设计更多控制在内部团队手中,从而在自研与外协之间取得均衡。
跟着算力供给才能加强,Google云 TPU 已成为多家前沿 AI 公司的重要基本举措措施之一。 Ilya Sutskever 创建的始创公司 Safe Superintelligence Inc.(SSI)被曝已与Google云合作,采取 TPUv7 作为其下一代模型的练习平台;与此同时,Anthropic 也在近期扩大年夜了对Google云 TPUv7 的应用范围,使部分 Claude 模型推理义务转移到“Ironwood”集群上履行。
今朝 TPUv8 系列的具体机能参数和内存容量尚未公开,但业内广泛预期,其机能将较前一代 TPUv7“Ironwood”实现新一轮跃升。 作为比较,TPUv7 在 FP8 精度下供给约 4614 TFLOPS 计算机能,并配备 192 GB HBM 内存,在同代专用 AI 加快器中处于高位水准,这也为新一代产品建立了明白的晋升基线。
外部需求的快速增长,使得Google内部评估认为,将来将向客户供给数量以百万计的 TPU 节点,这些设备被设计用于大年夜范围横向扩大,兼顾练习与推理机能以及总体拥有成本。 报道指出,Google最新一代 Gemini 3 模型已经完全在 TPU 平台上完成练习,并且仅安排在 TPU 集群上供给办事,不再依附英伟达或 AMD 的 GPU 加快器,这也被视为Google在自研 AI 基本举措措施计谋上的一个重要里程碑。

发表评论 取消回复