目标对象的定位方法、装置、电子设备及计算机可读存储介质
合作区域: 国内
拟投入总金额: 220.0万元
所属地域: 高新区
技术领域: 计算机通信理论与系统
技术交易金额: 万元
截止日期: 2026-11-22
登录后查看。
信息描述
研发背景:

目标对象定位技术作为计算机视觉与空间感知领域的核心技术之一,是实现“环境感知-决策控制-执行反馈”闭环系统的关键支撑,已深度融入智能机器人、自动驾驶、智慧安防、精准医疗、无人机巡检等众多战略新兴产业。随着各行业向智能化、精细化方向升级,对目标定位的精度、实时性、环境适应性及鲁棒性提出了更为严苛的要求,传统技术已难以满足复杂场景下的应用需求。
当前,目标定位技术面临诸多行业痛点:在动态复杂场景中,如城市交通路口,车辆、行人、非机动车的快速移动及相互遮挡,导致传统基于视觉的定位方法易出现坐标偏移,定位误差常超过50cm,无法满足自动驾驶的安全决策需求;在弱感知环境下,如矿井、隧道等缺乏光照与GPS信号的场景,现有定位系统易出现“定位丢失”,中断作业流程;在多源数据融合场景中,激光雷达、摄像头、毫米波雷达等多设备数据存在时空异步、精度差异问题,数据融合后定位结果稳定性不足。此外,消费级与工业级应用对设备成本的敏感程度不同,高端定位方案依赖昂贵硬件,难以普及至中低端场景,而低成本方案又存在精度短板。

主要内容:

1. 动态干扰下的定位精度稳定性难题:动态场景中目标的高速运动(如时速120km/h的车辆)、姿态突变(如行人突然转向)及环境干扰(如暴雨、大雾导致的视觉模糊),会导致定位特征点快速变化或丢失。传统特征匹配算法(如ORB、SIFT)在特征点稀疏或重复区域易出现误匹配,使得定位结果出现跳变,动态场景下定位误差波动幅度超过30%,难以保证连续稳定的定位输出。
2. 弱感知环境下的定位连续性难题:在无GPS/北斗信号的室内、地下空间,或光照不足、粉尘遮挡的工业场景中,单一感知设备(如摄像头、激光雷达)的有效数据采集范围大幅缩小。现有定位技术多依赖单一数据源,缺乏多模态数据的互补与冗余设计,当主数据源失效时,无法快速切换至备用感知通道,导致定位中断时间超过1s,严重影响设备作业连续性。
3. 多源异构数据的协同融合难题:激光雷达的距离精度高但缺乏语义信息,摄像头的语义识别能力强但易受光照影响,毫米波雷达抗干扰性好但分辨率低,三种设备数据存在“时空不同步”(数据采集时间差达10-50ms)与“精度不匹配”(激光雷达误差±2cm,摄像头像素误差±5cm)问题。现有融合算法多采用简单加权方式,未充分挖掘数据间的关联特征,导致融合后定位精度未达1+1>2的效果,甚至出现数据冲突导致定位失效。

前期研究开发基础:

1. 核心技术积累:团队深耕目标定位与多源数据融合领域10年,完成“基于激光-视觉融合的自主导航定位技术”“动态目标实时跟踪算法”等4项省部级科研课题,自主研发出“时空校准多模态融合模型”与“动态特征自适应匹配算法”两大核心技术模块。其中,动态特征匹配算法在KITTI自动驾驶数据集、MOT17多目标跟踪数据集上验证,动态目标定位精度提升25%,定位延迟降低至20ms以内,相关成果发表SCI/EI论文6篇。
2. 专利与成果储备:已申请“一种激光-视觉数据时空同步方法”(专利号:CN202310987654.3)“动态目标特征匹配优化算法”等发明专利4项,其中2项已获得授权,形成初步的知识产权保护体系。同时,构建了包含12万帧多场景数据的专用数据集,涵盖动态交通、地下矿井、室内仓储等典型场景,标注了目标坐标、运动轨迹、环境参数等多维度信息,为算法训练与优化提供充足数据支撑。
3. 团队与产学研支撑:研发团队由1名博士生导师、4名博士及6名资深工程师组成,核心成员曾参与百度Apollo自动驾驶定位模块研发、中科院沈阳自动化所智能机器人项目,在算法设计、硬件集成、工程化落地方面经验丰富。与某理工大学机器人学院建立长期产学研合作关系,共建“智能定位技术联合实验室”,依托高校的理论研究优势解决技术瓶颈,同时吸纳高校人才补充研发力量。

现有的生产和研发的设备:
1. 研发与计算设备:配备高性能计算服务器10台(配置:Intel Xeon Platinum 8375C处理器,2TB内存,NVIDIA H100 GPU 4块),构建分布式计算集群,用于多模态数据处理、深度学习模型训练与优化;配备嵌入式开发平台30台,涵盖ARM Cortex-A78、x86、RISC-V等主流架构,支持不同硬件平台的算法适配与轻量化开发。 2. 多源感知与定位测试设备:配备多型号传感器套件,包括64线激光雷达2台、16线激光雷达5台、高分辨率工业相机(2000万像素)8台、毫米波雷达4台、IMU惯性测量单元10个,可搭建多源数据采集系统;购置高精度定位基准设备(如GNSS RTK定位系统,定位精度±1cm)3套,用于定位结果的精度校准与验证。
攻关目标:

1. 核心技术指标目标:①定位精度:动态场景(目标时速≤120km/h)下定位误差≤8cm,静态场景误差≤3cm,较传统方案提升65%以上;②实时性:单帧多源数据处理时间≤15ms,定位结果更新频率≥50Hz;③环境适应性:在无GPS、光照强度≤5lux、粉尘浓度≤100mg/m³的场景下,连续定位时间≥2小时,定位中断率为0;④成本控制:基于16线激光雷达+单目摄像头的方案,硬件成本控制在1.5万元以内,较同精度方案降低60%。
2. 专利与成果目标:①完善核心专利CN202411774144.2的保护布局,完成实质审查并授权;②新增“一种多源数据时空同步方法”“动态目标定位鲁棒优化算法”等发明专利3-4项、实用新型专利4项;③形成1套跨场景目标定位算法SDK,支持二次开发与多平台适配;发表高水平学术论文3篇。
3. 应用落地目标:完成3类典型场景的产品开发与验证——智能仓储机器人定位模块、自动驾驶L2+级定位系统、矿井巡检无人机定位装置;与3-5家行业企业达成合作协议,实现产品小批量供货,年销售额突破500万元;建立2个行业示范应用基地,推广技术成果。

成果形式:

1. 核心技术成果:①形成“多源异构数据协同融合定位算法”1套,包含数据时空校准、动态特征提取、鲁棒性优化、定位结果输出四大核心模块,提供完整的API接口与开发文档;②开发“跨场景定位模型自适应优化工具”1套,支持根据场景特征自动调整算法参数,降低多场景适配成本。
2.  产品与原型成果:①研发智能仓储机器人定位模块1款,定位精度≤5cm,适配主流AGV机器人,支持室内动态避障;②开发自动驾驶L2+级定位系统1套,集成多传感器融合功能,满足城市道路与高速路场景需求;③推出矿井巡检无人机定位装置1台,支持无GPS环境下连续定位,适应恶劣工业环境。