隔着厚厚的雾霾,能够看多远?我们的答案是 45 公里。
为了证明我们真的能清楚地看到 45 公里开外的目标,2018 年 8 月我们团队在上海搭建了一个单光子相机系统,然后把它搬到了崇明岛上。实验的目标是对 45 公里外的浦东民航大厦进行拍照。为了完成这个实验,我们在崇明岛租了一个宾馆,把系统搬到了宾馆 20 层,因为站得高才能望得远。在使用单光子相机系统拍摄前,我们先做了一个对比实验,选用的是市面上能买到的最好的商用天文望远镜,同时结合一台佳能相机,对浦东民航大厦进行拍摄。
当时的雾霾非常严重,所以即便是用了最好的天文望远镜和佳能相机,也只能拍到一个非常模糊的图像。而用单光子相机拍摄,是可以很清楚地看到一个大楼的轮廓的。这是我们所做的两个关键实验之一:45 公里实验。
另一项关键实验叫做 “22 公里实验”。
在这个实验中,我们选的另一个目标也是在上海:购物中心 K11。我们在 22 公里外对 K11 进行拍摄,同样我们用最好的天文望远镜和相机进行比对拍摄,即使是 22 公里,由于雾霾的影响,我们也基本上什么都看不到。然后用我们的单光子相机,拍摄结果见上图中间插图。
从这两项实验为出发点,我希望能够为大家介绍我们团队研究的 “单光子相机”。
对比一下 K11 真实的图像,可见单光子相机很清楚地呈现出 K11 的整体面貌。值得注意的是,单光子相机不仅能拍出图像,而且这幅图像还是三维的:图中所呈现出的不同的颜色,其实是告诉我们这个东西距离拍摄者有多远。比如红色就是相对较远一些的,而蓝色则距离拍摄者相对较近一些。所以单光子相机不仅能够实现 “雾里看花”,同时也能够实现多一个维度的成像,我们将其称作 “三维成像”。
那么这样的效果是怎么做到的呢?一个核心技术就是我们团队研发的远距离单光子相机。远距离单光子相机的核心是激光成像雷达技术,以及在量子信息里发展出的高精度单光子探测技术。
激光雷达又是原理?它可以这么理解:我们主动发一束光,打到建筑物上——任何的建筑物,最简单的就是用激光笔打到墙上。经过漫反射过程,必然有光子被反射回来,我们通过探测器来接收反射回来的光子。如果发射了很多个脉冲,就会收到相应数量的反射回来的光子。
最终对于每一个点,我们收到一个这样的柱状图。
你会看到图中出现了一个小峰,由这个小峰的时间和发射时间存在时间差,就能由此得出光的飞行时间。通过光的飞行时间,就可以计算出建筑物某一点与发射点之间的距离有多远。而通过收集到的光子数量,就能知道这个建筑物是黑色的还是白色的。收集到光子后对其进行逐点扫描,一个点一个点扫下去,最终将会得到一个目标物体的三维图像。这就是传统激光雷达的工作过程。
传统的激光雷达也存在一定的局限性。由于传统的激光雷达用的是传统的探测器,常见的应用可见于手机、相机使用的传统的光电探测器,这些探测器的灵敏度是很有限的,每一个点至少要探测 1nW 这样的光强,或者说换算成光子,大概 10^9 个光子,才能够成一个点的信息。一幅图如果一万个像素点,就需要 1 万乘以 10^9 这么多光子,才能够得到一个清晰的图像。
若要满足日常需求,传统的激光雷达的问题不大,但如果目标距离很远,就会带来很大问题。因为光的漫反射过程离得越远,返回来的光子数就变得越少,跟距离的平方成反比,当目标很远时,设备就大概只能够探测到一两个光子,这会导致探测到的信号出现严重失真的情况。如果用这样的信号,一个个点扫下来,就会得到一个非常失真的图像,整个图像过于模糊,无法分辨。
我们团队的研究目标就是实现远距离成像,同时需要满足即使在雾霾这样的日常生活中会出现的不良观测条件下,也能实现对远距离目标的拍摄。那么能不能用每个像素只探测一个光子来实现清晰的图像拍摄?于是我们将研究的方向聚焦于单光子相机。一句话来概括,单光子相机就是每个像素只探测一个光子。
光的基本单元就是光量子,我们可以叫它光子、单光子。如果能做到每个像素只探测一个光子,那么就能在灵敏度上就实现一个巨大的飞跃——10^9 到 1 的巨大飞跃。这样,就给探测距离和灵敏度带来一个新的高度,这是我们想做的事情。
为了完成这件事情,我们遇到了很多难题,主要的难点是有二。第一,如何去捕获并且探测到一个回来的光子?这就需要十分高精尖的 “单光子探测技术”,或者叫 “量子探测技术”。第二,因为回来的只有一个光子,这个光子可能来自目标反射回来的光子,当然也有可能来自太阳光的光子,要如何才能准确地区分这些光子?并且每个像素只有一个光子,怎么进行图像重构?我们面临这两个难点可以概括为:一个探测问题,一个重构问题。
针对探测问题,团队发展出了一套高精尖的单光子相机系统。这是我们在 2018 年搭建的,文章开头讲到的那个 “雾里看楼”实验,也是基于这套光学系统。
它有几个特点。首先,我们选用的波段不同于普通相机,采用的是近红外波段,也就是 1550 纳米,比可见光波段稍微高一点点,是人眼看不到的。所以这套系统可以实现人眼安全,并且在大气的传输过程中,它的损耗也是很低的。
其次,我们的单光子相机系统发展了很高的耦合效率。如此一来,返回来的光子就能够很好地收集到我们系统里,并且还能通过技术手段降低它的噪音。
此外,光子收集进来之后,要进行探测环节。这是我们团队发展的一个基于铟镓砷材料的高精度单光子探测器。最后,这套系统集成度很高,还实现了高精度的扫描。
系统的真实图片,左边是光学望远镜系统,右边是电子学控制系统,包括单光子探测系统。
解决重构问题需要引入单光子相机算法。在算法方面,团队在 2016 年做了一个实验,让每个像素点只探测一个光子,看看在这种情况下,能不能实现图像重构。
在只采用传统的图像算法时,得到了一个非常失真的图像(左图),而采用单光子相机算法就会得到一个非常清晰的图像(右图)。
有了单光子相机,有了具体的算法,就可以去做实验了。我们研究团队的实验都在上海开展,选取了很多不同的目标来验证这一系统和算法。接下来给大家分享两个例子。
第一个例子是一个 8 公里的系统。实验的目标是对 8 公里外一个人的模型进行识别,看看能不能探测出来。用传统的相机进行拍摄,即使在 8 公里的尺度,还是有雾霾等各方面的影响,基本上你只能看到楼,但是里面什么样你是看不出来的。用我们的单光子相机拍摄,很清晰地看到,这个人把手举起来了。
我们还做了各种各样的人的姿态的模拟和识别。同样,用传统的相机,基本上人的姿态你是识别不出来的。而用我们的相机,很清晰的可以看到,这是两个手举起来,那是一个手举起来。跟真实的图像对比,很清晰地看到,我们的识别是非常准确的。这是我们在近距离对人体的姿态的识别实验。
第二个例子是我们不久前刚发表的工作,实现了一个远距离的实验:在 45 公里外,我们对浦东民航大厦进行拍摄。团队发展的新算法在这项试验中得到了一个最优的结果:每个像素点大概只用两个光子就能完成任务。
未来人类社会对远距离拍摄和低能耗会有更大量级、更高水平的要求,包括我们所说的无人车导航用的激光雷达,都需要用到相关的技术。所以这个领域内的研究团队很多,很多国内外的研究组都在做这个方向的研究,包括麻省理工,斯坦福等等。不过目前从成像距离、灵敏度两个方面来看,我们已经实现了国际领先。希望对量子技术感兴趣,或者对成像技术感兴趣的年轻学子们,在物理、数学、计算机,还有英语等几门学科多下苦功,这样才能够发展更新的相机,更新的人工智能算法,从而造福人类。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。