人工智能新图景:这里比想象更“无限”
分布式智能感知系统、跨模态智能情报服务、多智能体博弈训练、自主无人系统、“电科芯云”微系统协同设计平台……近日,中国电子科技集团公司信息科学研究院(以下简称“智能院”)公布了一批国际一流的创新成果,其中,以深度伪造视频识别技术、仿生机器鱼智能探测系统、虚拟智能机器人等为代表的研究应用成果,可广泛用于政府决策服务、市民衣食住行、城市综合治理等诸多领域,呈现出人工智能的新图景。
“我们正在全面转向人工智能研究,重点突破人工智能关键核心技术,构建智能网信体系。”智能院院长万谦告诉记者,围绕中国电科“军工电子主力军”“网信事业国家队”“国家战略科技力量”的三大定位,成立不到10年的智能院全面转向人工智能研究,将促进人工智能技术与国家治理、社会民生等领域的深度融合、广泛应用,在促进经济高质量发展的同时惠及百姓生活、服务社会公众,支撑引领我国人工智能技术的跨越式发展。
视觉SLAM技术:机器人有了自己的眼睛
有人曾打比方,若是手机离开了WiFi和数据网络,就像机器人离开了SLAM一样。
机器人自主执行任务的前提是知道自身的位置,而定位信息是由卫星导航定位系统提供的。如果将机器人投放在城市楼宇间、立交桥下、室内、深山密林这样的环境中,由于遮挡导致卫星信号微弱或者消失,容易导致机器人不能及时准确获取自身位置信息,无法执行精确任务。
“机器人主动感知技术能够让机器人具有自主定位和感知周围环境的能力。”智能院认知与智能实验室副主任张峰告诉记者,利用视觉SLAM(Simultaneous Localization and Mapping,意为“即时定位与地图构建”)算法不但可以实现机器人的自主定位,还可以实时构建包括环境几何结构、颜色、纹理等特征信息的三维地图。有了“眼睛”的机器人,能够看到周围环境,摆脱对卫星导航定位系统的依赖,为自主完成既定任务提供了关键保障。
危险复杂环境机器人如何探索救援?“机器人的‘眼睛’是能够在黑暗中能看清环境的。”张峰介绍,通过集成红外传感器,机器人可以在地下、洞穴这样的黑暗环境中执行探测任务,结合自身定位和目标检测识别信息,对视野范围内的指定目标进行探测、识别、跟踪以及目标定位,感知周围有什么物体以及它们的位置,可用于危险复杂环境下的探索救援等任务。
除了用于探索救援,视觉SLAM技术还可以应用在服务机器人领域。比较简单的,像命令机器人去拿取某个物品,“机器人知道物体的位置和环境地图后,通过SLAM技术构建家庭环境地图,然后规划出没有障碍的行进路径,这样就可以顺利拿到指定物品了。”张峰说。
当今科技发展速度飞快,想让用户在AR/VR、无人机、无人驾驶领域体验加强,离不开视觉SLAM技术的支持。
“AR技术就是将虚拟的信息呈现到真实世界,通过SLAM技术的实时定位,将虚拟的物体实时地叠加在真实的环境进行显示,随着显示介质移动,虚拟的物体也保持跟随真实环境。”张峰告诉记者,使用AR技术进行室内导览,可以将虚拟的物体叠加在真实的房间中进行显示。当观察者携带显示介质移动时,虚拟的物体看起来保持在真实房间的固定位置。实际上,通过SLAM技术的实时定位,虚拟的物体是随着观察者的视角变化实时地更新位置进行显示的,这样就使观察者看到的就像是真实房间里的物体一样,可以从不同角度去观看。
“海雀”芯片:AI能力快速赋能无人设备
随着人工智能技术的不断发展,数据、算法和算力作为人工智能的三个基本要素,其发展趋势也在不断变化。对于整个AI行业而言,海量数据获取和处理难度在下降,算法也在深度学习模型的基础上不断优化,而负责将数据和深度算法统一协调的芯片能否获得大的飞跃,成为业内关注的焦点。
“我们面向边缘智能计算多元化、高效化的需求,以打造能用、好用、易用的‘编译-处理’一体化智能计算生态为目标,开展自主可控边缘认知处理器与编译器研究。”张峰告诉记者,在处理器中,智能院构建了研发周期短、资源需求度低、模型适用性强的加速器IP核及硬件工具链,性能相较于通用CPU提高20倍以上,功耗降低5倍以上;在编译器中,智能院实现了神经网络模型统一表示、压缩优化及代码自动生成算法,能够快速地将神经网络模型植入硬件,实现AI能力快速赋能无人设备。
具体到智能应用,图像和语音是两大重要领域。“我们研制基于AI指令集的可重构、可配置卷积神经网络加速器,支持大多数常用目标检测网络及其变种,可以应用于无人机、无人车等无人设备对实时图像的低功耗、高精度目标检测。”张峰表示,相关技术已用于无人机编队海上搜救、无人车洞穴探索等任务,提升了无人装备的目标发现能力。
智能语音技术是无人装备的耳朵。“在语音智能应用领域,我们基于国产自主可控平台,研制高噪声语音环境的车辆操控设备,连续语音识别准确率超过93%,具备声纹识别和语音降噪能力。”该院负责硬件和算法研发的王子玮博士告诉记者,自主可控边缘认知处理器与编译器相关技术的应用,提升了图像、语音领域智能算法到计算资源及功耗受限多元异构硬件平台的快速部署能力,提升了高复杂度、高实时性场景下无人系统精确、高效的边缘感知能力。
多雷达协同探测的智能感知系统:实现“1+1>2”
雷达是探测空中目标的主要传感器,可以穿云透雾、不受天气影响、全天24小时稳定工作。但目前雷达探测感知以“单打独斗”探测为主,面对无人机等低慢小目标时,存在“看不远、跟不上、识不准”等问题。
智能院智能协同装备中心主任张德介绍,通过联合集团内14所、38所等骨干研究所以及清华大学、北京理工大学、西北工业大学等高校,智能院打造了一支敢闯敢拼的创新攻关团队,联合开展技术攻关,先后攻克了检测、跟踪、定位、资源管控等一系列关键技术,成功构建了国内第一套多雷达协同探测的智能感知系统。
“系统采用多个低成本雷达+4G/5G或有线宽带通信网络+大数据云平台的智能感知系统架构,基于不同的探测任务,动态控制前端雷达,并自适应智能重构后端处理算法,按需生成满足任务需求的产品。”张德介绍,通过使用新技术,能够有效挖掘原有设备潜力,实现系统整体能力的提升。
系统可以从多个角度同时协同观测目标,极大的提升系统能力,实现“看得远、跟得上、识得准”的群体智能感知能力,促进由单装探测向体系协同探测的跨代发展,“采用大数据、人工智能等技术后,系统的能力可以像人一样不断进化。”张德告诉记者,经过针对性学习,该技术也可应用于新一代气象雷达中,实现全空域无盲区覆盖、精确预测气象的运动状态等新的能力。
技术成果的推广应用,还可催生一种传感器陆海空天广域泛在分布、自由互联、深度协同、透彻认知的智能感知系统新形态,打造全球感知“一张网”,大幅度提升对全球环境和目标的感知与认知能力,满足各类应用需求。“这项工作应用前景广阔,但技术上还存在许多需求攻克的难关,还要加倍努力。”张德说。
分布式智能“大脑”:无人系统也能不断学习进化
随着无人技术的发展,无人车、无人机、机器人等无人系统被应用于搜索、跟踪、救援。但如何实现无人系统的自主协同作业,有效规避风险,提高工作效率还是业内公认的难题。
“我们研制的无人系统分布式智能‘大脑',可有效解决集中式集群控制的安全性、健壮性问题。”张德介绍,智能“大脑”分为综合信息处理区、认知决策规划区、行为协同控制区和学习训练进化区四个核心区域,“综合信息处理区”将无人系统“眼睛”“耳朵”等传感器收集的信息进行综合处理;“认知决策规划区”则基于综合信息处理结果进行判断,形成决策规划方案;“行为协同控制区”基于决策规划结果对无人系统行为动作进行协同控制;“学习训练进化区”利用数字孪生技术将虚拟模型与物理实体紧密相连,通过线上线下协同学习与训练,不断提升无人系统协同认知决策与控制能力,以及对复杂、未知作业环境的适应能力。
目前,智能“大脑”已成功应用于空中无人集群区域索搜、空地协同要地防护、水下资源协同探测等场景。张德告诉记者,智能大脑能够适配不同形态的无人装备,天上飞的、地上跑的、水里游的都可以作为无人系统的一部分。
“分布式智能大脑是由智能院研究团队由2016年开始研制的。从最初在仿真环境下试验,到半实物测试,一直到如今应用到实际系统,花了近5年的时间。”张德告诉记者,在实际运用中攻克了两大难点,一是人工智能算法如何向硬件设备的迁移,因为人工智能算法的运算逻辑与传统算法是完全不同的;二是智能“大脑”在实际装备应用时,由于无人平台体积能耗的限制,需要基于微系统等技术使智能“大脑”质量变轻、体积变小、能耗变低。
“这些核心关键技术全部由我们自主研发。下一步将继续研发鲁棒性更强、智能性更高的无人集群智能’大脑‘产品,使其能够应对更多任务、适配更多场景、服务更多行业。”张德说。
(记者 崔兴毅)
(责任编辑:陈冬梅)