|
 【产通社,1月13日讯】北京大学(Peking University)官网消息,王兴军教授-舒浩文研究员团队、香港城市大学王骋教授团队及上海交通大学周林杰教授团队在Nature Communications在线发表题为“Integrated bionic LiDAR for adaptive 4D machine vision”的研究论文。研究团队提出并验证了一种受人眼视觉机制启发的集成仿生FMCW激光雷达新架构,首次在芯片尺度上实现具备“凝视”能力的自适应并行4D成像系统,并进一步通过与相机协同感知实现4D-plus机器视觉表达,为“高分辨率、低功耗、高灵活性”的下一代智能感知提供了新路径。 激光雷达作为主动式光学传感器,其性能上限与系统代价的矛盾日益突出。激光雷达的工作本质可以视作对连续物理世界的数字采样,采样点密度以及可获取的信息维度(如距离、速度、反射率等)决定了感知精度与信息表达能力。然而,传统架构提升分辨率往往依赖全视场“堆更多通道、堆更高采样点频”的粗放式扩展,导致光电器件数量、后端高速电子学的带宽与采样处理需求同步攀升,从而在成本、功耗与复杂度上快速逼近工程边界。本质上,这是一条依赖空间维度高密度通道堆叠来提升角分辨率的扩展路径,其边际效益逐步递减而代价持续提升。 对于FMCW激光雷达而言,上述矛盾更为突出。FMCW具备高精度测距、强抗干扰能力,并可同步获取距离与速度等多维信息,但相干链路对光源线宽、调频线性度与相位稳定性提出更严格要求,使单通道链路复杂度与实现成本显著高于非相干方案。也正因如此,行业中常见的“通过空间维度高密度堆叠通道来提升角分辨率”的扩展路径在FMCW体系下更难直接复制,其边际代价更早显现,系统在器件规模、封装堆叠与热管理等方面的工程负担也更难持续承受。相比之下,人眼之所以能够在有限能耗下实现高视敏度,关键在于其并不追求全视场均匀的最高分辨率,而是通过“外围视野+凝视焦点”的机制,将高采样密度按需集中到最重要的区域,以更高的资源利用效率获得更优的感知收益。因此,如何在有限通道预算下构建类似人眼“凝视”的自适应资源分配机制,在提升采样效率的同时获得更高有效分辨率,构成了可扩展高分辨率相干感知的关键科学问题。 为此,研究团队提出“微并行”新架构,并在此基础上研制并验证了具备动态凝视能力的并行FMCW激光雷达原型系统,验证了高分辨率成像不必再单纯依赖空间维度的高密度通道堆叠,而可以通过波长/频域的可重构资源调度实现更高效的分辨率扩展。实验结果表明,系统在局部感兴趣区域内实现0.012°的角分辨率,并在同一系统中兼顾大视场覆盖与高精细成像需求。更为关键的是,薄膜铌酸锂电光频梳与可宽谱调谐外腔激光器的结合,使系统在架构层面实现了“视场覆盖能力”与“局部分辨率需求”的解耦:外腔激光器提供大范围视点移动以保证全局覆盖,电光频梳则在目标区域按需提升采样密度,从而实现“看得广”与“看得清”的协同优化。 在此基础上,研究团队进一步演示了首个基于集成光梳的实时并行4D成像系统。在获取三维几何信息的同时,系统可同步解析目标速度与反射率信息,并与可见光相机开展多模态融合,实现点云上色,从而补足激光雷达难以直接获取的颜色外观信息,提升场景可解释性与语义表达能力,形成面向智能体任务的4D-plus场景表征。上述验证表明,该架构通过“凝视”资源分配提升有效采样效率,并将芯片级可重构并行通道作为核心能力支撑,为相干激光雷达走向可扩展、小型化、低功耗的集成化系统方案提供了系统级路径。 查询进一步信息,请访问官方网站 http://news.pku.edu.cn/jxky。(Robin Zhang,产通数造) (完)
|