HOIL框架提升激光雷达识别精度 自动驾驶有望更准确预判行人复杂动作

当前,汽车智能化发展的一大难点,是在复杂交通场景中准确识别行人行为;行人推车、撑伞或骑行时,传统感知系统容易因遮挡或环境干扰出现误判,这种情况在夜间以及雨雪等低能见度环境中更为明显。问题的关键在于激光雷达点云数据的解析能力仍有限。作为自动驾驶的重要三维感知传感器,激光雷达能够较准确地构建环境模型,但当人体与携带物体(如自行车、婴儿车)在点云中相互叠加形成混合数据时,系统往往难以有效区分。行业数据显示,此类场景的误判曾引发约17%的非必要紧急制动。 针对此痛点,科研团队提出的HOIL框架实现两项改进:一是通过空间解耦算法分离人体与附属物体的三维坐标;二是引入动态权重机制,优化不同类别目标的识别优先级。测试结果显示,即便在雨伞遮挡手臂等极端情况下,系统仍能保持98.3%的关键点定位精度,比传统方法提升23个百分点。 有关进展正在推动行业安全标准升级。国际自动驾驶企业Waymo的实测报告显示,采用新系统后,行人意图预判时间提前了1.2秒,相当于车辆以60公里时速行驶时可减少约20米制动距离。国内头部车企已启动技术对接,预计2024年第三季度完成首批车型适配。 展望未来,激光雷达仍有更提升空间。专家认为,与可见光摄像头的多模态融合,以及面向极端天气的波形优化,将成为下一阶段重点方向。交通运输部智能网联技术专家组组长李明表示:“此次突破标志着自动驾驶感知系统从‘看得见’向‘看得懂’迈进,但要实现全场景可靠识别,仍需要产业链协同创新。”

自动驾驶的安全能力,往往取决于对“最不规则交通参与者”的理解水平。围绕行人动作识别该关键环节的突破,反映出行业正在从提升感知精度走向更深入的行为理解。随着算法、传感器与工程化能力持续迭代,车辆对复杂场景的提前预判将更稳定,安全冗余也会更充分。对公众而言,这些看似细微的识别改进,最终会体现在更少的误刹、更平顺的避让,以及更可预期的出行体验中。