过去一年,如果你关注通信行业的新闻,大概很难躲过“AI-RAN”这个词。英伟达和软银牵头成立的AI-RAN联盟,T-Mobile西雅图的实验室测试,Indosat在印尼完成的AI通话演示——一连串的动态似乎在传递一个信号:GPU即将大规模进入基站,AI正在从“网络上层”下沉到“无线底层”。

但如果你有机会和运营商的朋友聊一聊,会发现他们的态度远没有发布会舞台上那么激动。兴奋是有的,但更多的是审慎、观望,甚至是一丝不易察觉的疑虑:基站里真的需要塞进一块GPU吗?这笔账到底怎么算?AI-RAN究竟是一场技术革命,还是又一轮由芯片厂商主导的“竞赛”?

01

基站里的“聪明”与“不聪明”

要理解AI-RAN到底想做什么,得先回到无线接入网这个老问题上。

通信行业一直有一个心照不宣的事实:在整个移动网络里,无线接入网(RAN)是最“不聪明”的那一段。核心网早就虚拟化、云化了,各种开源平台和通用服务器跑得风生水起。但走到基站这一层,情况完全不同——专用芯片、封闭接口、定制化硬件,像一个黑盒子,外面的人进不去,里面的数据出不来。

这听起来像个技术问题,但归根结底是个经济问题。基站部署量太大了,一个中等规模的运营商可能拥有几十万个站点。在这个量级上,任何一点成本波动都会被放大到惊人的数字。专用芯片虽然不够灵活,但它的功耗、成本、稳定性经过了几十年的极致优化,是运营商能够接受的“最优解”。

但问题也随之而来。当AI开始渗透到网络的每一个角落,当运营商希望通过智能化来优化覆盖、提升容量、降低能耗时,RAN成了那个最难下手的环节。你可以在核心网里随便部署AI服务器,可以给运维中心配上一堆GPU来做网络优化,但走到基站门口,路就断了。

AI-RAN的野心,就是想打通这最后一公里。但需要厘清的是,AI与RAN的关系其实是双向的。业界通常用两个词来定义这种关系:一个是“AI for RAN”,即用AI来优化无线接入网的性能——信道估计、波束管理、负载均衡,这些都是AI赋能网络的典型场景;另一个是“RAN for AI”,即把基站本身变成AI算力的提供者,让遍布各地的站点成为分布式推理的基础设施。英伟达的逻辑很简单:与其让AI在基站外面转悠,不如直接把它请进去,让基站自己变聪明。

听起来很美好。但基站真的需要那么聪明吗?

02

GPU进基站,谁在买单

这就要算一笔账了。

先看成本。一块适合基站的GPU,价格不是小数。功耗也不是小数。如果要在几十万个基站里全部部署,那将是一笔天文数字的资本开支。而运营商现在的日子并不好过,流量增长但收入不增,是过去十年全球电信行业的普遍困境。在这种背景下,让运营商掏钱给每个基站升级GPU,难度可想而知。

三星电子美国公司网络事业部战略与营销副总裁Alok Shah表示:“业界正在谨慎评估与在基站中引入GPU相关的总拥有成本模型和商业案例。迄今为止,在站点层面全面转向GPU计算在资本支出和运营成本上都面临挑战,但该领域的创新很活跃。我们可能会发现,在未来几年内,会有一部分站点的部署在经济账上是可行的。”换句话说,账还没算清楚,谁也不敢轻易拍板。

再看必要性。基站真的需要GPU吗?还是说,现有的CPU已经够用了?这其实是一个被忽略的问题。新一代的x86 CPU,性能早已不可同日而语。很多AI推理任务,尤其是轻量级的、对时延要求不高的任务,CPU完全能应付。如果CPU能解决,为什么要多花一笔钱去买GPU?

一位国内运营商的专家说得更直白:如果说算力一定要放到基站里,而且一定要放GPU,我打个问号。成本太高,运营商根本接受不了。而且,把算力锁定在基站里,反而限制了对算力的灵活调度——边缘节点、汇聚机房、中心云,算力应该是一个可以动态调配的资源池,而不是固化在每一个站点。但也有不同观点认为,按演示数据推算,单站闲置算力若按云计算市场价的70%出租,五年内就能收回30%的基站建设成本。

这些话背后,折射出一个更本质的分歧:AI-RAN究竟应该怎么部署,是“全量升级”还是“按需引入”?英伟达作为芯片厂商,当然希望GPU铺得越广越好。但运营商要考虑的是,到底哪些场景真正需要基站级别的AI能力。

03

哪些场景“非AI不可”

如果说5G时代,AI还算是个“加分项”,那么到了6G,情况可能会发生变化。通信行业普遍认为,6G网络将面临一个根本性的挑战:网络的复杂程度将达到“超越人类规模”的阈值,人脑已经无法实时管理。届时,AI不再是可选项,而是必选项。

这不是危言耸听。5G时代,基站已经有了大规模MIMO天线,波束赋形的参数配置已经复杂到需要算法辅助。到了6G,频段更高、天线更多、业务更杂,靠人工脚本和预设策略去管理,几乎不可能。换句话说,未来的网络必须是“自智”的——自己感知、自己决策、自己优化。

这就把问题倒过来了:不是“基站里为什么要放AI”,而是“不放AI的基站还能不能跑得动”。

具体到场景,有几个方向已经比较清晰。

一个是信道估计。无线信号在空中传播,受到干扰、衰落、遮挡的影响,基站需要实时估计信道状态,才能决定用什么样的参数发送数据。传统算法有局限,而AI可以通过学习历史数据,更准确地预测信道变化。富士通旗下的一个团队给出的数据是:用AI改善信道估计,可以把上行链路性能提升20%,某些场景下甚至能达到50%。

另一个是波束管理。大规模MIMO基站可以生成多个窄波束,覆盖不同方向的用户。但用户是移动的,波束需要跟着人走。如果波束切换不及时,就会掉线。AI可以预测用户的移动轨迹,提前把波束切过去,让用户的体验更流畅。

还有频谱共享。传统做法是,如果某个频段受到干扰,系统干脆把整个频段关掉。但AI可以做得更精细——识别出干扰源,只屏蔽受影响的频率,其他部分照常使用。MITRE在2025年展示的一个应用,做的就是这件事。

这些场景的共同点是:需要实时响应、需要本地决策、无法把所有数据都传回中心处理。这正是基站级AI的意义所在。

04

基站“夜间兼职”

如果说“AI for RAN”是为了让网络跑得更顺,那么“RAN for AI”则是在探索另一种可能性:基站能不能不只是花钱的基础设施,还能成为赚钱的资产?

软银和诺基亚最近做了一个很有意思的试验。他们在日本搭建了一套基于英伟达GPU的AI-RAN平台,白天,基站的算力优先保障5G通信——处理用户的语音、视频、数据请求;到了夜间,当网络流量大幅下降,这些原本闲置的GPU算力并没有空转,而是通过软银的AITRAS编排器自动切换成“算力供应商”模式,为第三方客户运行AI推理任务。

换句话说,同一个基站,白天是通信基站,晚上变成了边缘AI服务器。诺基亚首席技术兼AI官Pallavi Mahajan对此评价:“随着全球AI处理需求加速增长,这个项目展示了如何利用分布式网络资源来提供可扩展、高效且可持续的AI服务。”

软银先进技术研究所副总裁Ryuji Wakikawa则说得更直接:“在AI-RAN中,最大化计算资源的价值非常重要。我们增强了AITRAS编排器,使其能够将资源分配给外部AI工作负载,从而将这些资源作为新的收入来源加以利用。”

这种“基站夜间兼职”的模式,触及了一个更深层的变革:基站正在从单纯的“成本中心”向可能的“利润中心”演进。当然,这还只是试验。客户画像还不清晰——是卖给互联网公司做边缘推理?还是给工业企业做机器视觉?商业模式还在探索中。但它至少打开了一个想象空间:如果全城的基站都能在夜间贡献算力,那将是一张多么庞大的分布式计算网络。

05

两条腿走路:GPU与CPU的长期共存

回到最初的问题:基站里到底需不需要GPU?

最可能的答案是:部分需要,部分不需要。就像今天的网络设备,有的用专用芯片,有的用通用CPU,有的用FPGA,各取所需。未来的基站也不会是单一形态,而是根据场景和成本,灵活选择计算架构。

对于城市热点、高流量区域,基站可能确实需要GPU来支撑复杂的AI任务;对于偏远地区、低负载站点,CPU就够用了,没必要多花钱。还有一种可能是,GPU不是部署在每一个基站,而是部署在边缘节点,覆盖一片区域内的多个基站,兼顾算力供给和成本控制。

英伟达自己也意识到了这一点。它的AI Aerial平台,核心卖点之一就是“资源共享”——同一块GPU,可以动态分配给RAN任务和AI任务,忙时做通信,闲时做推理,提高利用率,摊薄成本。这其实是在回应运营商的成本顾虑:你可以不用为AI专门买一块GPU,它可以和RAN共用一块。

软银在日本做的试验,就是这个思路。他们用一套系统同时跑5G和第三方AI应用,证明了两者可以共存,且互不干扰。对于运营商来说,这提供了一种新的可能性:基站不再只是成本中心,还可以变成算力服务的输出节点,创造新的收入来源。

当然,这还只是试验。从试验到规模化商用,还有很长的路。标准怎么定、接口怎么统一、业务模式怎么设计,都是待解的难题。业内人士的回答是:“客户画像还不清晰,是卖给互联网公司做边缘推理?还是给工业企业做机器视觉?商业模式还在探索中。”

06

结语

站在2026年回望,AI-RAN的讨论已经从“要不要做”转向了“怎么做”。英伟达用两年时间,把一个概念做成了一个产业联盟,从T-Mobile到软银,从诺基亚到思科,越来越多的大玩家加入其中。这本身就说明,方向是对的。

但“方向对”不等于“落地快”。电信行业有其自身的节奏,几亿用户的网络不能随便折腾,稳定可靠永远是第一位的。“AI-RAN架构能否实现规模化商用,关键取决于其性能表现、成本控制与运行稳定性。今年MWC上的各类演示显示,相关技术基础正持续成熟,云计算、人工智能与通信基础设施的融合,已从概念构想逐步进入可控验证落地阶段。”

“AI进基站,不会是颠覆式的推倒重来,而是渐进式的渗透融合。”这个过程可能需要五年、十年,但一旦完成,网络将不再是今天的网络。

到那时,基站不仅是收发信号的铁塔,还是感知世界的节点;网络不仅是传输数据的管道,还是承载智能的基础设施。而这一切的起点,正是今天这些充满争议、有待验证的试验和讨论。