
坦白说,第一次听到"波基计算"(Wave-based Computing)这个词时,很多工程师的第一反应可能是:这不是在开历史倒车吗?
{jz:field.toptypename/}在通信行业,我们将"模拟信号数字化"视为至高无上的进步法则。现在 John Cioffi(DSL之父)这帮老牌泰斗却告诉我们:要把计算任务从数字域扔回模拟域?
但当你盯着 5G 基站那张令人焦虑的电费单,或者看到 Massive MIMO 背后那一排排滚烫的 DSP 芯片时,你可能会像我一样开始动摇:也许我们真的在一条死胡同里跑得太快了。
暴力计算的"虚无"
我们现在的解题思路,太像一个"暴力搬运工"了。
想象一下,电磁波好不容易携带信息飞到了天线,基站做的第一件事却是"毁灭"它的物理特性。
展开剩余74%ADC(模数转换器)像个强迫症一样,疯狂地把连续的波形切成 0 和 1 的碎片。然后,高功耗的数字芯片接手,开始进行天文数字般的矩阵运算——仅仅是为了还原这个波形原本在空间中就有的样子。
为了喝一杯水,我们先把水冻成冰,运到目的地,再费力融化成水。
这就是摩尔定律撞上热力学墙的声音。随着天线越来越多,这种"先冻再化"的能耗不再是线性的,它是指数级爆炸。以128天线的Massive MIMO基站为例,ADC+DSP的功耗可占总功耗的40%以上🟡(基于产业估算,具体数值因厂商而异)。即使是制程最先进的芯片,也快扛不住这种毫无必要的折腾了。
换个脑子:让物理定律自己"动"
波基计算的核心逻辑,其实就是一句大实话:既然电磁波本身就遵循麦克斯韦方程组,为什么非要用硅片去模拟它?
这听起来有点抽象,我们换个不太严谨但直观的视角:修图软件 vs 光学镜头。
现在的做法(PS修图):你拍一张全清晰的照片,然后让 CPU 疯狂运转,识别像素、计算景深、涂抹背景。你需要强大的算力,你会得到发热的机身,甚至还有延迟。
波基的做法(大光圈):你换个 f/1.2 的镜头。光线穿过镜片的一瞬间,物理定律自动帮你完成了"背景虚化"。
注意到了吗?后者几乎没有能耗,光速完成,而且不需要写一行代码。
Cioffi 的主张就是如此:不要把信道看作一个需要对抗的黑盒,而是一个天然的模拟计算机。想做加法?用波的叠加。想做傅里叶变换?一个透镜结构(或等效电路)就能搞定。
这种"复古"真的可行吗?(Reality Check)
看到这里,你可能已经在心里嘀咕了:如果模拟计算这么好,为什么几十年前我们抛弃了它?
这正是波基计算必须面对的"工程脏区"。
模拟计算并非全是鲜花。它最大的软肋是精度和噪声累积。数字计算可以做到 0 就是 0,1 就是 1,错一位都能纠回来;但模拟波形在传播过程中,每一次"计算"都伴随着精度的衰减。
而且,模拟电路的制造一致性控制远比数字电路困难——这意味着良品率可能成为隐藏的成本杀手🟡。
这就是为什么我不认为它能完全取代数字芯片。
真正的未来,可能不是非黑即白的替代,而是一种"肮脏的妥协":
把那些极度消耗算力、但对精度要求不那么变态的任务(比如大规模波束赋形的前端处理),扔给物理定律去"大概算一下";剩下的精细活,再交给 DSP 芯片来兜底。
结语
算力的尽头,终究是物理学。
这听起来像是某种宿命论,但在这个摩尔定律失效的黄昏,John Cioffi 指出的这条"反数字化"歧路,或许正是通向 6G/7G 真正的捷径。
毕竟,上帝(物理定律)是免费的程序员,不用白不用。
发布于:北京市