

markdown 微软研究院的一项突破性研究成果,近日在 Nature 杂志上发表,引发了科技界的广泛关注。该研究团队成功研发出一种
传统芯片的计算速度和能耗正面临瓶颈。微软的研究团队另辟蹊径,利用光来执行计算任务。AOC的核心在于其独特的运行方式——固定点搜索。通过光学和模拟电子电路的协同工作,AOC能够高效地完成矩阵-向量乘法和非线性运算,并在迭代过程中找到问题的最优解。这种方法不仅避免了传统混合架构中数模转换带来的高能耗,还具备天然的抗噪声优势,从而在能效方面实现了显著提升。
在实验中,AOC展现出惊人的潜力。在 MNIST 和 Fashion-MNIST 分类任务中,AOC 的表现与数字孪生(AOC-DT)的结果几乎完全一致;在非线性回归任务中,AOC 同样表现稳定。更令人振奋的是,研究人员通过时间复用技术,将硬件扩展到等效 4096 权重的规模,证明了其具备进一步放大的潜力。据估算,成熟版本的AOC有望达到500 TOPS/W的能效,远超当前最先进的GPU,这意味着在未来的大模型推理任务中,AOC 有望成为更高效、更节能的解决方案。
微软团队并未止步于实验室研究,而是积极探索AOC在实际场景中的应用。在金融领域,他们与巴克莱银行合作,将清算所的结算问题转化为优化问题,并在AOC上进行了测试。结果显示,AOC 仅需 7 次迭代即可找到最优解,这为金融机构带来了更高的效率。在医疗领域,团队将 MRI 压缩感知成像重写为AOC可处理的优化问题,并成功重建了脑部 MRI 图像。未来,AOC 甚至有望与 Azure 云服务结合,实现 MRI 数据的实时处理和分析,从而大大缩短扫描时间,提升医疗效率。
研究团队最兴奋的突破在于人工智能领域。AOC 的固定点搜索机制与平衡模型(如深度平衡网络 DEQ、现代 Hopfield 网络)天然契合,为 AI 模型的运行提供了新的思路。AOC 在处理需要反复迭代、最终收敛到平衡状态的模型时,展现出巨大的优势。这为大语言模型推理提供了新的可能性。如果复杂的推理过程不再依赖耗能巨大的GPU,而是交由光学计算机完成,所需能耗可能会降低两个数量级。 这将对整个AI基础设施产生深远影响。
AOC 仍然处于原型阶段,但其展现出的潜力令人期待。研究团队已经规划了扩展路线图,通过模块化扩展,有望将整体规模推至数十亿权重级别。这场由光子驱动的算力革命,或许将重塑整个行业格局。微软的目标是让 AOC 成为未来AI基础设施的一部分。这项研究成果不仅在技术上具有突破性意义,也为我们带来了对未来算力发展方向的全新思考。你认为,在AI算力领域,下一个颠覆性的技术创新会是什么?