当我们观察手机摄像头时,你能清楚的看到玻璃保护层下的那组小镜头,没了它手机就拍不了照。但是,如果把镜头拿掉,就剩一块光秃秃的芯片,它还能成像吗?

近日,美国康涅狄格大学的郑国安教授团队造出了一台完全没有镜头的相机,只用九块小芯片拼在一起,就能实现在厘米级工作距离下分辨亚微米的特征,而且成像视场比芯片本身大十几倍。

这台成像系统叫 MASI,全称是多尺度孔径合成成像仪。


(来源:https://www.nature.com/articles/s41467-025-65661-8)

郑国安告诉 DeepTech:“从分辨率角度讲,我们实现了使用多个传感器来突破单个传感器的物理极限。我们用九个传感器合成之后,在 2.2 厘米的工作距离上分辨出了 780 纳米线宽。这在常见光学成像方案中非常难做到,要分辨这么小的细节,通常得把物体放得非常靠近光学系统或显微镜。”

有了这项技术,在工业检测上能在远距离分辨微米级瑕疵;若进一步小型化,有望用于手术器械,穿过狭小通道看到体腔深处。

他们团队用 MASI 拍了一个人的指纹,单个传感器的尺寸只有 4.6 乘以 3.4 毫米,只能拍到指纹的一小部分。但是,他们通过计算场扩展的方法,把芯片捕捉到的光波信息往四周数字外推,再反向传播回物体平面,由原本单个芯片采集到的一小部分信息,最终扩展出了一张 16.6 乘 15.4 毫米的完整指纹图,成像面积扩大了 16 倍,指纹上的脊线和汗孔都看得一清二楚。


(来源:https://www.nature.com/articles/s41467-025-65661-8)

他们团队还用 MASI 拍了一块小鼠脑组织切片,九块芯片各自只拍到一小块区域,通过计算场扩展的方法拼起来之后整个脑切片的神经纤维走向一览无余,连从脑室向外放射的髓鞘轴突束都清晰可见。


(来源:https://www.nature.com/articles/s41467-025-65661-8)

在反射模式下,他们用这套系统拍了一张标准分辨率测试卡,工作距离拉到 2.2 厘米,单块芯片只能看清 2.19 微米的线条,而九块芯片同步后能看清 780 纳米的线条,要知道这已经达到了亚微米尺度的特征分辨能力。传统光学显微镜要达到这个分辨率,通常需要把镜头怼到样品一毫米以内,MASI 却在两厘米开外就做到了。


(来源:https://www.nature.com/articles/s41467-025-65661-8)

MASI 还能用来做 3D 成像。他们拍了乐高积木上的凸起字母、硬币上的浮雕花纹、电池表面的细微纹理,全都能变成 3D 图像。值得一提的是,他们把一个子弹壳放在光路里,MASI 拍下光波后,计算机在数字空间里把波面一层一层往后推,每一层都能算出哪部分最清晰,最后合出一张 3D 高度图。子弹壳上撞针留下的凹坑和精细的表面纹路,照样被完整还原出来。


(来源:https://www.nature.com/articles/s41467-025-65661-8)

郑国安告诉 DeepTech:“子弹发射时撞针会在弹壳上留下一个凹槽,根据这个凹槽可以追踪子弹和枪支的关系。我们精确重构出了这个凹槽,这对法医学应用很有价值。也可以用在工业检测上,比如测量发动机外表面的精确三维结构。”

MASI 的原理说起来有点反常识:光从物体表面弹出来之后在空中自由传播,本来应该越散越开、越变越模糊。但 MASI 恰恰利用了这种扩散,散开的光波里藏着物体的完整信息,只要有足够的算力把它还原回来,模糊反而成了优势。九块小芯片各自捕捉一小部分散开的光,经过计算相位同步后,将各个芯片恢复的复波场在物平面相干叠加,得到高分辨率重建。

研究中,他们用了一个叫计算相位同步的方法来拼图,每块芯片在记录光的时候会有一个随机的相位偏移,就像几个人用不同的手表对时间,每只表快慢都不一样。

MASI 先指定一块芯片当基准,然后让计算机自动算出其他八块芯片应该调整多少相位差,才能让所有光波在重建时步调一致地叠加起来。这个过程不需要任何重叠的拍摄区域,也不需要参考光,纯粹靠算法把九路信号对齐。

郑国安团队的这项技术,其实是在模仿射电望远镜的做法。2019 年拍下第一张黑洞照片的事件视界望远镜,就是用分布在全球各地的射电望远镜同步接收信号,再通过算法合成一张大图。

郑国安告诉 DeepTech:“黑洞那张照片其实不是用望远镜拍出来的,而是把分布在地球各地的好几台射电望远镜连在一起,相当于造了一台地球那么大的虚拟望远镜。这个技术叫合成孔径技术,简单说就是让很多个小镜头合作起来,做到只有大镜头才能做到的事。”

而 MASI 把同样的思路搬到了光波段,只不过射电望远镜用的是原子钟来同步时间,MASI 用的是计算机来同步相位。

MASI 的妙处在于,它把最难的硬件问题变成了软件问题,不需要精密的光学元件,不需要复杂的干涉仪,不需要严格对齐的镜片,只需要一块普通图像传感器加上一层预先刻好的编码表面,再用计算机把九块芯片的数据拼起来,就能突破单块芯片的物理极限。

普通的图像传感器只能探测到光的强度,就是每个像素上打了多少光子,探测不到光的相位,也探测不到光是从哪个方向来的。

“我们在图像传感器表面添加了一层特殊设计的编码图案,有了这层图案,就可以从单纯的亮度信息里把相位和方向信息反推出来。这就是为什么我们能同时重构强度和相位,也是为什么能用来做合成孔径成像,因为合成孔径成像必须用到相位信息。”郑国安说。

如前所述,由于分布式传感器阵列对安装对准的要求更低,这种技术能用在很多地方,未来可探索在复杂形状表面部署。

他们还在论文里提到一个有意思的应用,因为传感器尺寸很小,而最终成像区域远大于传感器本身,所以可以把保密信息藏在传感器的视野之外,从原始数据里根本看不出这些信息存在,只有知道正确计算参数的人才能把它还原出来,这相当于一种物理层面的加密。


图 | 郑国安教授(来源:受访者)

谈及商业化事宜,郑国安表示:“我们的技术已经授权给了一家公司,他们负责创业和商业化。我主要精力还是放在从零到一的研究上,我和团队的后续计划主要放在远距离合成孔径上。这个项目的思路最初来自事件视界望远镜,现在做出了这样一套无透镜成像系统,未来也是想把它用回到天文观测上,合成一个大的孔径去看那些遥远的星体。”

参考资料:

https://www.nature.com/articles/s41467-025-65661-8

排版:胡莉花