
上海交通大学陈一彤课题组在《科学》杂志上发表的LightGen全光计算芯片,生成一张1024×1024像素的高清图像仅需0.3毫秒,比传统顶尖电子芯片快100倍。若搭配前沿设备,理论算力提升可达1000万倍,能耗却只有传统芯片的亿分之一。
我们手中的手机、电脑,乃至运行ChatGPT的庞大服务器集群,其核心都依赖电子芯片。这些芯片本质上是“电子加工厂”,依靠电子在晶体管间流动传递“0”和“1”的信号。但生成式AI的迅猛发展让这座“工厂”不堪重负。
电子在电路中的速度极限约为每秒几百公里,而生成高分辨率图像需瞬间完成上亿次运算。
这好比让一个人在早高峰的北京地铁站内冲刺送信,即便再快也难免拥堵。同时,电子流动会因电阻产生大量热量,这就是电脑运行AI时风扇狂转的根源。
训练一个视频生成大模型的耗电量,可能相当于一个普通家庭20年的用电量。晶体管尺寸已逼近物理极限。当制程工艺缩小到纳米级别,电子会发生“量子隧穿”效应,像穿墙而过一般导致计算错误。
面对这些瓶颈,科学家将目光投向了光。光每秒30万公里的速度,让电子望尘莫及。光子传播几乎不产生热量,能耗极低。
光还可通过不同波长同时携带多路信号并行计算,如同将单车道乡间小路升级为双向八车道高速公路。
然而,将理论优势转化为实用芯片困难重重。此前,光计算大多局限于图像分类等简单任务。
一旦面临生成式AI所需的复杂维度变换和海量数据处理,往往需要光电转换辅助,反而拖慢了速度。如何让光芯片独立运行复杂生成模型,成为全球智能计算领域公认的难题。
陈一彤团队设计的LightGen芯片,在指甲盖大小的空间内同时攻克了三大技术瓶颈。首先是规模突破。LightGen通过纳米光刻技术,在136.5平方毫米的芯片上集成了超过210万个光学神经元。
此前的光芯片通常仅能集成数千个神经元。这相当于将计算单元从“手工作坊”升级为“现代化智能工厂”,为处理高分辨率图像和视频提供了坚实基础。
核心创新在于“光学隐空间”技术。它实现了全光维度转换,能将文字语义等指令直接翻译成光信号物理参数的变化。这意味着光能够“理解”指令含义,并在纯光领域内完成从“理解”到“生成”的全过程,无需电子介入转换。
最颠覆性的突破是“贝叶斯无真值训练算法”。传统AI训练依赖大量标注数据作为“标准答案”,而生成式AI的核心是创造不存在的内容。
新算法让光芯片能通过分析数据概率分布自学成才,如同一位画家通过观摩大量作品后,无需参照实物就能创作出新风格画作。
在严格的实测中,即便使用性能滞后的输入设备,LightGen的算力和能效也比英伟达A100等顶尖数字芯片高出两个数量级(100倍)。
生成一张512×512像素的高清图像,传统芯片需要数秒,而LightGen仅需0.3毫秒,快到几乎感觉不到延迟。
这款芯片并非单一功能的设计。它能够完成高分辨率图像语义生成、3D模型构建、高清视频生成与语义调控,同时支持图像去噪、风格迁移等复杂任务。
研究人员演示了输入“一只熊猫在月球上弹吉他”的指令后,芯片直接输成了符合语义的4K图像。在医疗领域,CT扫描后生成3D器官模型的时间可从几十分钟缩短至秒级,为急诊争取宝贵时间。
尽管LightGen展示了巨大潜力,但从实验室到广泛应用仍面临挑战。光芯片的制造工艺复杂,当前成本高昂,良率和稳定性仍需提升。
关键的是软件生态,英伟达的CUDA生态历经十余年才建成,而光计算需要全新的编程模型、编译器和发展框架。现有AI软件几乎都针对电子芯片设计,适配光芯片需全行业共同努力。
光计算技术本身也有多种技术路径并存。自由空间光学、光子芯片、光纤系统等各有优劣,产业化道路仍在探索中。
例如,某些系统关键功能仍依赖电子设备,需频繁进行光电转换,导致速度损失。精度与稳定性是另一大挑战,光学系统易受元件错位、温度波动等因素干扰。
当算力提升1000万倍成为可能,当AI生成内容变得像呼吸一样自然,我们是否真的准备好了迎接一个零等待的实时创作时代?
如果每个人都能瞬间将想法变为高清视频配资开户网,职业设计师、影视制作行业的存在形式会被如何重构?当算力不再是稀缺资源,制约人工智能发展的下一个瓶颈又会是什么?
信誉证券提示:文章来自网络,不代表本站观点。