你有没有想过,刷个AI画作其实挺费电的。
一张图,看着几秒钟就出来了。
但背后耗的电,能让5瓦的灯泡亮两个小时。
这事我以前真没注意。
直到去年我表弟在浙大读研,有次来我家吃饭,聊起他们实验室做的一个项目。
他说现在AI画画,靠的是GPU拼命算,手机一跑这玩意儿,后盖马上就烫得能煎蛋。
传统模型太吃电了。
像DeepSeek-R170B这种大块头,出一张复杂图,碳排放差不多等于4.8克二氧化碳。
听着不多是吧。
可全球每天生成上百万张AI图呢。
加起来就是一座小电厂的量。
更离谱的是,推理模型比普通模型费电4到6倍。
为啥。
因为它要反复算,动不动几百万次迭代。
数据中心一半以上的电,就这么悄无声息地烧掉了。
但现在有个新玩意儿,可能要改写这一切。
加州大学洛杉矶分校的shiqi Chen,他本科在浙大上的,博士也是那儿读的。
他带着团队在《自然》发了篇论文,搞了个几乎不耗电的图像生成系统。
不用芯片狂算。
用光来画画。
听起来玄乎吧。
但他们真做出来了。
系统分两步。
第一步,用一点点电,生成一个“噪声图案”,就像小时候那种魔法画板,先打个底。
然后这个图案输进第一块屏幕,叫空间光调制器。
你可以把它想成一块能控制光线走向的液晶屏。
它把图案“刻”到激光上。
这束带图案的激光穿过第二块解码屏。
奇迹来了。
乱糟糟的光斑,突然变成了一幅清晰的图。
可能是蝴蝶,也可能是梵高风的油画。
最狠的是能耗。
传统AI生成图,GPU呼呼转,发热系统呢。
主要耗电的就是那两块液晶屏。
比你手机亮着还省电。
测试结果吓人。
同样质量的图,新系统只用传统方法百分之一的电。
几乎可以忽略不计。
南昌大学也在搞类似的东西。
他们弄了个光电GAN,把光学和电子计算结合起来。
修一张破图,误差低到0.018,能耗直接降了一个数量级。
这说明啥。
未来的AI,可能不再拼谁的芯片多猛。
而是看谁能用光代替电。
为什么光这么省事。
因为电子在芯片里跑,有电阻,会发热,一次只能处理一个信号。
光不一样。
激光能同时传一堆信息,穿过材料几乎不损耗。
就像送水。
电线像水管,一根一根接。
光路像河流,哗啦一下全过去。
在加州大学的系统里,所有像素是同时处理的。
不像传统电脑,一点一点扫。
这技术一旦落地,最先受益的就是我们天天摸的设备。
现在的手机,用AI画画,半小时掉20%电很正常。
要是换成光学系统。
同样的电量,搞上百次都够。
AR眼镜更要命。
现在多数撑不过两小时,就因为渲染太费电。
电池大得像个砖头。
如果用激光生成图像。
续航能干到一整天。
眼镜还能做薄,戴起来不压鼻梁。
杭州有家公司叫纳境科技。
老板是浙大教授,他们搞微纳光学。
去年拿到了全球第一个超表面光学的千万级量产订单。
他们告诉我,从实验室到工厂,大概五年。
成本能砍掉一半以上。
这意味着什么。
2030年前,我们手里的手机、眼镜,很可能就用上这技术了。
当然现在还有坎。
比如图像生成速度还不够快,视频会有延迟。
那两块调制器也工艺造。
所以目前只在实验室跑得通。
但他们下一步目标很明确。
一是做动态视频,二是把设备做小,塞进手机里。
市场也看好这方向。
美国Luxresearch说,未来超表面市场可能冲过500亿美元。
新思界保守点,估2028年做到90亿。
不管哪个准。
这赛道是有肉吃的。
过去几年,AI都在卷参数。
模型越大越牛。
结果能耗飙得没法看。
DeepSeek-R170B准确率是高,78.9%。
可碳排放是小模型几十倍。
这条路走不通了。
尤其对移动设备来说。
光学计算给了新活法。
不是算得更快。
是换个方式玩。
我想像过以后的场景。
戴着轻巧的AR眼镜去博物馆。
展品一扫,3D解说直接浮在眼前。
一整天都不用充电。
手机拍照,一秒变油画风格。
手机不烫,电也不掉。
连智能手表都能画复杂图表。
这些不是梦。
而且来得可能比你想的快。
因为光学技术的产业化,正在加速。
我觉得。
AI的未来不只是更聪明。
更要学会省着用。
当激光成了AI的笔。
电流退居二线。
我们才真正进入移动智能的时代。
那些曾经因为耗电被放弃的功能。
终于能活过来。
这不再是科幻。
是我表弟在实验室亲眼见过的东西。
我相信。
再过几年。
你手里的设备。
会安静。
会凉。
会特别能扛。