2025年12月12-13日,第八届GAIR全球人工智能与机械人大年夜会在深圳·博林天瑞喜来登酒店正式启幕。
作为AI产学研投界的标杆嘉会,GAIR自2016年创办以来,始终逝世守“传承+立异”内核,始终致力于连接技巧前沿与家当实践。
13日「AI 算力新十年」专场的“若何从‘算力基建’到‘价值闭环’?”圆桌对话中,数位业内资深专家展开出色对谈与深度商量,抛出诸多极具启发性的不雅点:
从技巧落地层面来看,算力基建往往面对算力适配性不足、调剂效力低、数据与算力脱节等问题。请问师博士,清程极智在推动算力与AI应用处景深度融应时,最核心的产品和技巧痛点是什么?您若何将高成本的算力转化为客户可感知、愿付费的产品价值?
李东东(主持人):三丰投资开创合股人
师天麾:清程极智结合开创人、产品副总裁
徐永昌:朗特智能AI事业部(朗擎数科)CIO
师天麾:正如前面讲到的,AI模型真正落地时,亟需极致的全链路优化。以客岁的合作案例为例:我们曾与清华系多模态大年夜模型企业生数科技(专注于图片、视频类模型及产品研发)联袂,针对其一款To C图片生成产品进行优化。该产品基于ComfyUI(图片生成工作流对象)开辟,当时单张图片生成耗时达30秒,这速度虽在图片生成范畴处于可接收范围,但明显影响用户体验,两边是以杀青结合优化共鸣。
“从帮客户省钱,到帮客户赚钱,是算力行业贸易闭环的关键。我们对贸易闭环的懂得是,国内很多算力卡的流畅效力是不高的,且机房空置率较高,所以我们投资了北京利旧科技公司,在算力卡收受接收营业上发力,核心是帮客户极致节俭采购成本、硬件成本,这也是一种撙节的方法。”——李东东
“2025年,AI推理市场已步入爆发前夕。上半年中国MaaS市场范围已实现4-5倍增长,部分大年夜厂治理层甚至预判来岁增速有望达到10倍。文本大年夜模型的后果已许久未出现冲破性的震动进展,但图片范畴几乎每几个月就有新的视频或图片生成模型激发社交平台热议,技巧迭代速度明显快于文本范畴,将来潜力值得存眷。”——师天麾
“AI眼镜等各类硬件产品若能快速推向市场,并在将来两三年内实现数亿副的普及范围,将激发Token消费的爆发式增长。届时每小我日均采集或消费的Token量,有望从当前的约1万晋升至十万甚至几十万量级。当数亿用户以日均几十万Token的范围消费时,整体Token消费范围或将实现百倍甚至更高倍数的增长。”——徐永昌
三位深耕行业的资深实践者,合营开启这场关于算力基建价值重构与将来趋势的深度对话。他们中,有人容身本钱视角洞察家当脉搏,有人扎根技巧前哨打磨产品落地,有人坐镇企业中枢兼顾算力资本,不合维度的经验碰撞,为算力行业的破局之路供给全新思虑。
而这些不雅点,恰好聚焦于算力基建狂飙突进背后的关键拷问:价值闭环该若何构建?被寄予厚望的推理需求,毕竟何时能迎来周全爆发,成为破解算力闲置的核心引擎?瞻望将来,算力家当还有哪些值得“押注”的核心偏向?作者经久存眷算力与芯片家当,迎接添加微信 YONGGANLL6662 交换更多信息。
李东东(主持人):各位嘉宾、同仁,下昼好!我是本场圆桌主持人李东东。三丰投资深耕股权投资十余年,本年重点构造算力与能源范畴,在AI算力范畴我们投资了智算通、利旧科技等项目。今天有幸主持论坛,与大年夜家商量大年夜范围算力基建的价值闭环实现路径。
当前算力赛道热度高涨,但痛点明显。信通院数据显示,不少智算中默算力平均应用率不足40%,算力消纳已成行业通病。尤其大年夜模型练习退潮后,增量需求转向推理侧,而推理场景分散零碎,若何破解这一困境,是行业核心议题。
今天我们有幸邀请到清程极智结合开创人师天麾、朗擎数科CIO徐永昌两位专家分享看法。起首,请两位嘉宾做毛遂自荐。
师天麾:大年夜家好,我是清程极智结合开创人兼产品副总裁师天麾。公司聚焦AI Infra软件层,客岁推出八卦炉练习体系,本年开源赤兔推理引擎,今朝正打造大年夜模型MaaS API一站式评测与调用平台AI Ping。
我们核心解决两大年夜问题:一是降低成本,公司液冷产品成本可控制在风冷程度;二是降低PUE至1.1。国度发改委、数据局明白请求新建智算中间PUE需低于1.3,而传统风冷智算中间PUE广泛约1.5,2026年刮风冷智算中间将慢慢转向液冷筹划。
今朝英伟达GB200及马斯克20万卡集群均采取冷板式液冷,不仅造价昂扬,GPU满载温度仍达85℃。我们采取浸没式液冷筹划,可将GPU满载温度从80-90℃降至50-60℃,明显降低设备故障率,降低维保成本。
设备故障率降低将大年夜幅晋升千卡、万卡集群的MFU。当前全球万卡集群平均MFU仅30%,采取我们的液冷筹划后,有望将这一数值晋升至50%以上,这是大年夜模型预练习对算力请求的核心指标,也是我们的核心技巧优势。
算力基建若何实现贸易闭环?
李东东(主持人):本年算力行业的成长可以说是走到了新的岑岭,当前行业内常说“算力是数字经济的核心临盆力”,结合两位各自的从业背景,你们认为今朝国内算力基建的成长走到了哪个阶段?
师天麾:当前算力扶植与以往核心差别在于,以前重扶植、轻消纳与应用;如今更强调性价比,核心是“建即用、用更好”。扶植前需明白用户与场景:是做MaaS模式下的PD分别、批量对外租赁,照样类似超算的Slurm分时复用。不合模式与场景,对硬件选型、组网及软件平台的功能、机能请求均不合。行业已转向实用导向,需从应用处景与客户需求倒推软件搭建与算力中间扶植,实现从“可用”到“好用、高性价比”的进级。
徐永昌:本年行业成长可分为两个阶段。上半年,DeepSeek-R1开源标记住其推理大年夜模型已追平OpenAI-o1。短短一年半实现OpenAI八年的成果,核心并非算力或算法,而是数据——DeepSeek团队以中文为核心Token,构建高质量数据集开展预练习与后练习。中文常用字仅数千个,远少于英文百万级单词量,但汉字天然具备强接洽关系性与可猜测性,英文需逐Token猜测,中文则可由首字同步猜测后续多字。这一特点为行业垂类模型带来机会:构建足量高质量数据,即可晋升模型垂类问题解决后果。
介入本次圆桌论坛的嘉宾包含:
下半年,对话机械人、Agent等垂类模型加快爆发。以华西第二病院(全国妇幼综合榜首)为例,院长日均接诊仅10余人次(每次30-40分钟)。我们将院长经验转化为高质量数据集与常识库,经由过程后练习打造AI分身,其在儿科呼吸范畴诊疗程度已达院长90%。患者就诊前先经AI大夫多轮预诊,归纳常见问题并汇总至院长工作看板,使单次问诊时长紧缩至5分钟,日接诊量晋升至30人。
徐永昌:大年夜家好,我是徐永昌。今朝结合朗特智能控股打造液冷算力产品,深耕分布式架构,熟悉AI全栈技巧栈。我已与英特尔、英伟达、华为海思、海光、阿里平头哥、百度昆仑芯、摩尔线程、沐曦、燧原、壁仞、天数智芯、灵汐科技、中兴通信、锐捷、星融元等国表里芯片、收集厂商深度沟通,慢慢推动浸没式液冷产品适配。
客户无需自建机房,仅需一台4090或5090办事器搭配我们1立方米的TANK箱,即可获得本地私有化算力解决筹划,实现软硬件一体化落地。下半年起,客户付费意愿明显晋升,核心是价值交换的杀青:芯片+模型+Agent的组合切实解决实际问题、创造价值。估计来岁,这类落地场景将迎来爆发。
李东东(主持人):徐总的不雅点我异常认同,全部AI新基建核心就是算力、算法和数据。我们在投具身智能项目时有一个不雅点,为什么要做“人形机械人”?核心原因就是人类世界有大年夜量的数据可以供机械人进修,这是人型相对其他形态的数据优势,中文世界也给中国反超世界AI,供给了很强的数据基本。
师天麾:算力作为基本举措措施,核心价值在于用户可否便捷、低门槛地应用。行业实现盈利的前提,是落地场景具备实际价值。杀手级应用是价值核心载体,而其出现需先实现应用“百花齐放”——唯有算力达到易用、低成本的标准,AIGC创作者才能充分发挥创造力,AI应用开辟者也能结合场景推动落地。综上,算力价值表如今“便利、易用、便宜”三大年夜核心点。
我们今天核心商量“从算力基建到价值闭环”,可否请两位分别定义一下:在你们的营业场景中,“算力价值闭环”的核心标记是什么?它须要知足哪些关键前提?
我特别存眷MaaS模式,它已根本解决算力可用性与易用性问题:用户无需存眷算力底座的芯片型号,也无需操心推理引擎的跨型号运行逻辑。芯片厂商可结合软件厂商,经由过程大年夜范围EP并行、PD分别等优化技巧,大年夜幅降低成本、晋升性价比,这是关键冲破口。
徐永昌:价值闭环的核心是AI筹划能在营业场景落地并实现盈利。以某年营业额数亿的房地产发卖公司为例,其核心营业是为楼盘供给对象支撑:初期经由过程MaaS模式接入豆包的多模态大年夜模型API,将客户与发卖的沟通语音转化为文字,经微调大年夜模型及时分析客户成交意向,助力晋升成交量,开辟商是以愿意付费。
另有一家AI应用公司,Token消费量从春节的10亿快速增长至5月的40亿,虽豆包MaaS团队提出可承接超50亿Token/日的需求,但该公司出于数据与策略的核心价值考量,提出私有化算力存储需求。最终朗擎为其供给浸没式一体机本地算力解决筹划。
用户付费意愿本质取决于两点:一是AI能帮其盈利,二是能解决数据安然、效力晋升及成本降低等核肉痛点。唯有切实破解对方问题、助力其实现盈利,才能形成真正的价值闭环。
李东东(主持人):从帮客户省钱,到帮客户赚钱。上半年,我们其实也有本身的谜底。3月份,我们跟北京爱收控股一路成立了合伙公司智算通,我们对贸易闭环的懂得是,国内很多算力卡的流畅效力是不高的,且机房空置率较高,所以我们这个被投企业在算力卡收受接收的营业上做了数亿元的营收,核心是帮客户极致节俭采购成本、硬件成本,这也是一种撙节的方法。
我们采取分阶段办事:场景验证阶段,1-2台办事器即可完成研发与AI后果评估;若需向多区域、多人员大年夜范围落地,我们将进一步供给硬件选型指导及针对硬件、范围与应用的结合优化,最大年夜化晋升性价比。
李东东(主持人):下一个问题就教一下徐总,从企业实践层面来看,朗擎数科作为数字化办事供给商,必定会接触到不合行业客户的算力需求。您做为企业的技巧决定计划者可否分享一下,企业在投入算力基建后若何衡量其投资回报率?以及最轻易陷入哪些“价值陷阱”?比如盲目寻求算力范围、忽视应用落地后果、缺乏可持续的贸易模型等,您认为背后的核心原因是什么?
徐永昌:算力行业的行业应用落地,核心前提是做好技巧选型,我接触的客户重要分为三类:第一类仅存眷办事器TFLOPS算力参数,这类选型方法隐患极大年夜;第二类会结合具体模型需求存眷算力+显存,比如为运行DeepSeek满血版,会针对性核算一体机所需的1.4T显存(或量化后700G显存);第三类以自有软件团队的客户为代表,需求更为精细,如华西第二病院会明白CPU核数、主频等细节,因纯真安排开源模型与结合行业数据做微调练习、强化进修的算力需求差别明显。
某院所不到一切切预算的项目,初期供给商推荐十几台4090,但PCIE协定不合适大年夜模型练习,后来又推荐H200筹划,而我介入项目后结合客户“科研类后练习及先辈验证”的核心需求,推荐了B200,来由有三:一是Blackwell架构支撑FP4精度,较H200Hopper架构以及4090只支撑FP8精度更具将来三年的实用性;二是性价比更高,同成本下B200推理算力(FP4下144P)远超H200(FP8下32P);三是浸没式液冷筹划改革费不跨越50万,与传统风冷相当,却能将GPU核心温度从90-100℃降至60-70℃,大年夜幅降低故障率、晋升MFU。
最后,AI全栈筹划的输出才能至关重要。以部分芯片公司为例,它们虽以GPU发卖为核心,但需构建完全的家当闭环:既要明白千卡集群的实际应用者,也要肯定办事器资产的承载主体或落实供给链金融筹划,还需对接办事器集成方完成芯片安排。所以AI家当链从业者与客户沟通时,需具备全栈思维,不是在每个环节都做到极致专业,但必须能精准覆盖各关键节点并清楚阐述。
面对底层硬件复杂、上层应用多元的情况,不合应用与模型适配各型号显卡的工作量极大年夜。为此,我们在中心层搭载推理引擎,可实现底层多型号显卡的便捷调用与上层多应用的顺畅运行。
另一案例是山东某年营收700亿的石油炼化企业,筹划投建3000P算力中间以获取当局电费补贴。我建议经由过程技巧优化将PUE降至1.1,摆脱对补贴的依附,硬件上无需强上国产GPU,直接选用B200即可知足练习+推理需求;同时提出将3000P拆分为10个300P项目,落地至不合区县——既契合区县智算中间的市场需求,又能结合多区县“十五五”AI+家当落地政策。总结而言,算力选型的核心是“由应用处景及模型倒推”,而非盲目采购办事器。
李东东(主持人):这种现象挺常见的,甲方客户的需求相对明白,然则甲方客户自身并没有很专业全栈解决筹划认知,所以前置咨询以及筹划的沟通异常重要。这也引入了我们下一个问题,影响价值转化的瓶颈,除了甲方对筹划的不懂得之外,还有没有其他的点?比如贸易模式、技巧落处所案或其他的场景?
师天麾:与过往市场逻辑不合,此前行业广泛采取先采购办事器再筹划后续营业的模式,市场竞争陷入同质化内卷,整体利润空间被严重挤压。而跟着MaaS的爆发,市场格局已产生很大年夜改变。
我之所以高度看好MaaS,除其具备低成本、易安排的核心优势外,更关键在于其清楚且短链路的盈利逻辑。MaaS模式正好打通了技巧与盈利的转化路径,中心无过多环节干扰,技巧实力的每一次晋升,都能直接带动利润率增长。是以,技巧是当前MaaS市场的核心竞争力,估计来岁该市场范围有望实现数倍甚至十倍的增长。
值得留意的是,尽管MaaS市场仍存在价格竞争,但与此前办事器市场的竞争逻辑已截然不合。过往办事器市场的竞争聚焦于硬件本身,企业多经由过程压低设备售价抢占份额;而在MaaS范畴,客户核心存眷点在于办事机能与综合报价,对底层硬件设备并无过多存眷。企业可借助软件技巧优化,在不依附高端硬件的前提下,实现办事机能与性价比的双重晋升,从而有效控制成本,保障充分的利润空间。综上,在MaaS这一云办事场景中,技巧已成为决定市场竞争力的关键要素。
徐永昌:异常认同师博士关于AI价值闭环痛点与瓶颈的不雅点,我将其划分为三大年夜核心层面。其一,核肉痛点聚焦于大年夜模型本身:基座大年夜模型的泛化才能、专业常识懂得才能仍有晋升空间;即便MoE架构的万亿参数模型已出现,但诸多场景中,当前小模型的基本才能实则被高估。不过大年夜说话模型成长存在明白规律,每半年阁下,上一代大年夜尺寸模型的核心才能便会迁徙至更小尺寸的模型中。
以实际案例来看,千问2.5具备满尺寸模型版本,而千问3的32B模型机能已比肩千问2.5的72B模型,这一才能迁徙过程具有弗成逆性。据此推想,半年后32B模型在多项核心才能上,或将达到岁首年代DeepSeek 671B满血版的基本程度。是以,基座大年夜模型才能的持续迭代是核心前提,无论是国外的OpenAI,照样国内的DeepSeek、MiniMax等企业,仍需构造GB200、GB300等先辈算力,持续推动基座大年夜模型的构建与优化。
其二,在基座模型成型后,行业模型后练习阶段面对的核心问题是若何构建高性价比的算力及综合解决筹划。当前最优路径指向超节点架构:类似英伟达GB200、GB300的筹划,经由过程Scale-up模式将数十个甚至数百个GPU借助高速光互联技巧整合,在逻辑上实现单办事器化运行。这种架构可支撑训推一体(日间用于推理、夜间开展后练习),大年夜幅降低单Token生成的综合成本。据英伟达案例显示,H200与GB200在单Token生成成本上存在数倍差距。估计2026年起,浩瀚企业将慢慢摒弃传统4U、8卡办事器,转向高速互联的数百卡Scale-up超节点,这种架构的普及将缩短行业模型练习周期、降低成本,加快价值转化过程。
其三,特定垂类场景的冲破,离不开高质量数据与行业专家资本对模型的持续优化。以华西病院为例,其坐拥全国最大年夜范围的100亿条真实电子病历库,且汇聚了国内很多顶级医学科学家,为医疗垂类模型优化供给了核心支撑。
唯有依托优质基座模型、适配垂类需求的超节点算力,叠加高质量行业数据与专家资本,才能推动AI Agent真正解决更多实际问题。这三大年夜层面的问题需体系性冲破,不然AI行业仍可能延续本年的近况,市场热度高涨,但具备实际应用价值的产品寥寥无几,这恰是我对当前AI价值闭环瓶颈的核心断定。
李东东(主持人):师博士,清程极智在AI产品研发与算力调剂优化方面有丰富经验,你们认为要实现算力的高效价值转化,在算力架构设计、算法与算力协同、数据治理等方面,有哪些关键技巧举措或关键指标能清楚表现算力投入给客户带来了真实的营业增长或效力革命?可否结合具体案例(比如某行业的AI应用落地)分享一下?
我们周全控制了该产品的底层硬件显卡范围、上层运行的图片大年夜模型架构及具体工作流逻辑。基于对全场景的深度懂得,我们在自有推理产品上为其供给定制化优化筹划,并联动其团队开展算法与体系的结合调优。最终,产品机能实现5-6倍的大年夜幅晋升。由此可见,将来AI模型落地过程中,这种覆盖硬件、中心件至上层算法应用的全链路打通及结合优化模式,将出现持续增长的趋势。
李东东(主持人):徐总,朗擎数科办事过浩瀚企业客户,你们在赞助客户搭建算力相干的解决筹划时,是若何筛选核心应用处景、优先落地高价值项目标?有没有一套可复制的“算力+应用”落处所法论?
徐永昌:我分享的算不上办法论,更多是实践积聚的经验。在与客户沟通时,无论是出资方,照样最终应用方,我们重要传递的是本轮AI海潮的核心,大年夜说话模型的根本特点,“算力、数据、算法模型”三要素,而非仅聚焦于所需的几百P算力这类单一指标。
其次,要明白客户的核心诉求:其引入模型根本上并非为了预练习,关键是厘清其需求是模型后练习照样纯真的推理应用,这两类需求对应的算力设备与解决筹划截然不合。当我们向客户完全出现本轮AI的家当全貌后,即便当下未杀青合作,将来其面对 AI 相干筹划或项目时,也会优先咨询我们。是以,与甲方沟通时需打破一些局限,展开更周全、更深刻的交换。
第三,必须对接营业专家。营业专家深谙完全营业流程,比如为客户搭建Agent体系时,需经由过程他们明白工作流中的优化节点,断定哪些环节合实用大年夜模型或多模态模型改革。仅与治理层沟通无法触及核心问题,唯有与营业专家深刻对接,精准采集需求与痛点,才能给出合理的评估与预期治理。预期治理尤为关键:既要避免客户对AI短期价值产生过高预期,也要赞助客户建立中经久信念,AI必将引领行业变革,若不构造,同业的摸索会使其陷入被动,短期与中经久预期的均衡能赞助客户建立合理认知。
总而言之,唯有以全栈视角、坦诚立场与客户展开全方位交换,当客户真正推动 AI 应用落地时,才会将我们作为重要合作选择。
推理尚处爆发前夕?多模态的「快速迭代」将改写家当增长节拍
师天麾:AI项目实际落地时,国央企客户多为自建算力,硬件涵盖英伟达新旧显卡及多款国产型号,需求也呈多元化特点。其诉求并非仅安排DeepSeek等单一模型,而是聚焦多模态智能体应用,需兼容OCR、VAL、语音及图文生成等多种模型。
李东东(主持人):行业内广泛将杀手级应用的出生、推理需求的爆发,视作破解算力闲置困局的关键抓手,也将其视为下一波算力需求增长的核心引擎。二位若何断定推理需求周全爆发的时光节点与演进节拍?
师天麾:本年AI推理市场已步入爆发前夕。正如我在演讲中说起,上半年中国MaaS市场范围已实现4-5倍增长,部分大年夜厂治理层甚至预判来岁增速有望达到10倍。但在我看来,真正的周全爆发仍依附大年夜模型才能的进一步冲破。
当前落地成效较好的场景,多集中于纯文本大年夜说话模型的应用,且多为前一两年可预感的范畴,例如智能客服、聊天机械人、文本生成与整顿等。但纯文本场景的覆盖面有限,AI的广泛渗入渗出更需依托视觉、图片、视频等多模态技巧的成熟。今朝多模态应用存在两大年夜核肉痛点:后果不稳定且成本过高。
我曾与一位专注动态漫创作的导演交换,其营业核心是将小说转化为漫画并实现动态化。我提出AI可覆盖其大年夜部分创作流程,但他表示可行性较低,核心原因在于AI应用成本过高,仅能小范围测验测验。事实上,AI具备完成这类义务的技巧潜力,但昂扬的成本形成了明显壁垒。以图片、视频生成的“抽卡”机制为例,单张生成成本已偏高,而因后果不肯定性,往往需生成4-10张才能筛选出相符需求的成果,这进一步加剧了成本包袱。
AI推理市场的周全爆发,重要前提是多模态应用后果的稳定化,这也是AI Infra范畴的核心发力点。当模型构造根本定型后,经由过程针对主流显卡、芯片的定向优化,可有效晋升运行效力、降低成本,为周全爆发奠定基本。是以,多模态技巧的进展至关重要。
今朝多模态范畴的成长值得等待。文本大年夜模型的后果已许久未出现冲破性的震动进展,但图片范畴几乎每几个月就有新的视频或图片生成模型激发社交平台热议,技巧迭代速度明显快于文本范畴,将来潜力值得存眷。
徐永昌:在我看来,2025年AI推理市场尚未进入周全爆发阶段。这一断定可从我们与头部主流大年夜模型企业的沟通中获得印证,其办事器采购、租赁订单的增长态势,直不雅反应出当前市场的增长节拍仍较为平缓。
不过,孙公理曾猜测,到2035年AI将渗入渗出全球5%的GDP,对应形成每年9万亿美元的宏大年夜市场范围。据此倒推,将来数年推理算力需求大年夜概率将保持每年十倍以上的高速增长。对在座各位而言,核心问题在于若何切入这一蓝海市场、抢占细分份额。
头部大年夜厂及大年夜模型企业凭借宏大年夜的用户基数,天然占据算力需求增长的重要赛道。但对行业内的中小企业而言,冲破口在于聚焦垂类场景与边沿侧算力办事。以我们自身为例,我们供给液冷办事器整体筹划,并结合垂类模型办事,为病院、工厂、科研机构等场景供给本地化安排支撑,这种模式能切实赞助AI应用企业晋升营业额。
比如我们与华西病院体系控股公司的合作:对方输出软件才能,我们供给硬件支撑,合营打造软硬件一体化筹划,并依托华西的品牌优势,在全国推广“AI 医联体”项目。该模式对全国大年夜量中小病院、平易近营病院具备极强的吸引力。这一案例或许能带来启发:中小企业要么融入成熟的垂类应用筹划生态,成为个中关键环节;要么主动对接行业链主企业,结合构建垂类AI Agent整体解决筹划。企业需主动策划经营成长,而非被动等待市场成熟。
李东东(主持人):这一趋势成为算力家当主流后,又将对当前的算力基建构造、技巧路径选择及贸易模式带来哪些影响?
师天麾:临盆力成长必定伴随转型阵痛,正如汽车普及导致黄包车夫掉业,却催生了司机这一新职业。AI对各行业的重塑亦是如斯,在其周全爆发前,可能会出现出诸多不曾预感的杀手级应用与全新弄法。这就像互联网爆发初期,没人能预感如今刷短视频、看短剧会成为日常,也没人想到最初为进修、看时政消息而应用的抖音,最终走向了多元娱乐场景。人类不可思议不曾接触过的事物,但可以肯定的是,AI将深刻改变各行业临盆方法:部分行业与职业会逐渐消掉,同时也会催生大年夜批新职业、新赛道。这些新赛道的具体形态虽难以精准预判,但值得高度等待。
徐永昌:AI的广泛普及,重要前提是成本实现一个数量级的降低,每百万Token的价格需再降低10倍以上。而这一目标的实现,核心在于全体系优化:机房层面可经由过程风冷改液冷晋升效力;硬件端采取超节点架构,性价比远高于传统4U、8卡办事器;模型层面可依托大年夜模型才能优化,削减小模型运行对算力与显存的占用,从而天然紧缩成本。估计将来半年至一年,每百万Token价格再降10倍具备较高可行性。这也从侧面反应出算力行业的激烈竞争:每6-12个月,相干价格便可能腰斩甚至出现更大年夜幅度下调。这种竞争对终端用户、通俗平易近众及AI应用开辟企业而言实为利好,将倒逼所有AI Infra企业深耕技巧、优化办事。
算力、算法、数据「齐驱」,百倍Token调用增长将成为实际
李东东(主持人):2025年算力市场出现了政策支撑、国产芯片冲破、算力互联落地等关键事宜,这些动态正深刻影响行业走向。想请两位嘉宾结合本年的家当实践,聊聊哪些事宜最具里程碑意义,以及它们将若何塑造2026年算力家当的成长格局?
师天麾:在我看来,DeepSeek的爆火是本年AI范畴最关键的事宜,它彻底重塑了大年夜众与行业对AI的认知。我印象尤为深刻的是,本年事首年代我母亲也曾应用DeepSeek,借助其生成藏头诗用于向亲朋、同事发送新春祝福,还称赞其后果极佳。事实上,前一两年的模型也具备类似才能,并非如今的模型机能有了颠覆性晋升,核心差别在于此前大年夜众对AI的存眷度不足、未形成应用意识。
DeepSeek的崛起,推动AI从行业层面走向全平易近应用:无论是通俗平易近众、小我用户,照样国度与当局层面,都开端高度看重AI技巧并主动实践。同时,它也带动了AI Infra范畴的爆发。其在海外的走红,核心原因在于海外市场不测发明,DeepSeek仅用少量硬件设备、以较低成本就练习出了高机能模型,这背后既得益于模型架构的优化,更离不开AI Infra软件的支撑。本年春节后,行业内甚至出现了“DeepSeek开源周”,其开源了大年夜量Infra练习与推理相干软件,让业界广泛意识到Infra软件的核心价值。
比较客岁,我们还需向投资人科普AI Infra的定义;而本年,投资人已主动洞察到其重要性,纷纷寻求合作与投资机会。此外,国产化过程的推动(如摩尔线程上市)、超节点技巧的成长,也让MaaS大年夜范围并行优化的价值愈发凸显。经由过程这类大年夜范围优化,AI应用成本得以大年夜幅降低,这些都是本年AI范畴的关键冲破。
徐永昌:我认同师博士刚才说起的几个行业里程碑,我归纳为三大年夜核心维度。
第一是模型范畴,DeepSeek-R1的开源不仅引领了全球AI开源格局,更果断了国表里各大年夜模型企业加大年夜基座模型研发的决心。我们与MiniMax、智谱等企业交换后懂得到,其治理层认为无需过度纠结于用户获取成本,若基座模型足够优良,如DeepSeek-R1,有望在短时光内实现数亿用户的冲破。这给行业同业带来关键启发:基座模型的核心才能是大年夜模型企业的立品之本。
第二是算力范畴的冲破。以前,国内算力范畴经久跟随英伟达的技巧路线,从A100、H100到GB200均是如斯。令人欣喜的是,本年光光阴为、阿里、百度、曙光等企业纷纷推出国产化超节点筹划,标记住国内涵超节点范畴已慢慢追平国际程度。值得存眷的是,英伟达GB200采取冷板式液冷筹划,GPU满载温度达85℃,而国产GPU若与全新浸没式液冷筹划结合,可将GPU温度从85℃降至65℃,故障率也随之从全年3%降至1%以下。这种软硬件的协同优化,有望使国内超节点在算力维度实现冲破,甚至在来岁英伟达Rubin架构超节点推出时具备反超潜力。
第三是数据范畴的里程碑。本年多款AI眼镜产品陆续宣布,涵盖单目绿色AR屏、双目全彩等多种形态,小米、阿里等大年夜厂的入局更将催生数据维度的爆发。此前,经由过程手机移动采集实际世界数据存在诸多局限,如续航不足、操作不便等,而低功耗可全天佩带的AI眼镜,可以或许及时抓取物理世界数据,这将极大年夜加快世界模型的练习过程。
综上,AI“三驾马车”(模型、算力、数据)各自出生了标记性的里程碑事宜。值得存眷的是,当前AI眼镜虽仍存在诸多技巧瓶颈,但已有冲破性进展值得等待:国内有家创业企业,其开创人是Google Glass第一代创造人,该企业正研发订价千元以内的双目全彩AI眼镜。这款产品可适配近视人群,能以不足千元的成本供给带近视功能的双目全彩AR眼镜筹划。
徐永昌:若用一个词总结2025年的AI行业,我认为是“推理”。无论是梁文锋团队推出的DeepSeek-R1推理大年夜模型,照样行业对AI推理应用的广泛摸索,都印证了这一核心趋势。
若该产品或同类产品能快速推向市场,并在将来两三年内实现数亿副的普及范围,将激发Token消费的爆发式增长,届时每小我日均采集或消费的Token量,有望从当前的约1万晋升至十万甚至几十万量级。当数亿用户以日均几十万Token的范围消费时,结合现有Token消费基数,整体范围或将实现百倍甚至更高倍数的增长。让我们合营等待2026年这一行业图景的实现!
李东东(主持人):最后请两位嘉宾分别用一句话来总结一下2025年的算力市场,并用一句话或一个关键词对2026年做一个瞻望或猜测。
师天麾:2025年,国内AI从练习走向推理有异常明显的改变,并且催生了MaaS市场进展敏捷。来岁,推理市场以及国产化的进一步增长趋势是势弗成挡的。
站在小我视角,我断定2026年将聚焦两大年夜关键词。其一为“国产”:2026年更多大年夜厂及央国企将加快转向国产芯片。其二为“液冷”:发改委明白请求新建智算中间PUE需低于1.3,而当前多半国产芯片采取风冷筹划的PUE高达1.5,液冷技巧成为必定选择。是以,2026年或将成为国产芯片与液冷技巧爆发的元年。
以下是圆桌对话的出色内容,雷峰网("大众,"号:雷峰网)作了不改变原意的整顿与编辑:
雷峰网原创文章,未经授权禁止转载。详情见转载须知。

发表评论 取消回复