快速发布采购 管理采购信息

aiCTX发布全球首款动态视觉专用AI处理器DynapCNN

时间:2019-4-13, 来源:互联网, 资讯类别:行业动态

近日,瑞⼠⾼科技类脑芯⽚公司 aiCTX 发布了全球⾸款纯基于事件驱动运算的动态视觉AI处理器 DynapCNN,⽤于超低功耗,always-on 的实时动态视觉信息处理。 aiCTX⾼级研发⼯程师Sadique Sheik博⼠表示,DynapCNN⽀持视觉物联⽹传感器诸多场景的超低功耗边缘计算,是⼀种⾼效经济的解决⽅案,并且可实现对⽤户隐私的保护。

DynapCNN是一款纯异步、高可配置性、可拓展性的神经形态处理器。芯片面积12mm2,采用GF22nm工艺设计,单芯片集成超过100万脉冲神经元和400万可编程参数,支持多种CNN架构,其芯片架构所具有的可拓展性适合于实现大规模脉冲卷积神经网络。DynapCNN是全球首款将机器学习的高性能和事件驱动型神经拟态计算的高能效完美融合的专用AI芯片。作为全新一代动态视觉处理器,DynapCNN的动态视觉解决方案在将运算能效提高100-1000倍的同时,将实时AI视觉处理现存方案的识别响应处理延迟缩短10倍以上。

基于纯异步数字电路设计,DynapCNN是全球首款完全基于事件触发运算的AI处理器。随着物联网及移动终端对超低功耗本地实时智能处理的需求日益强烈,适用于边缘计算、无需连接到云端的DynapCNN将拥有越来越广泛的应用场景。DynapCNN的高灵活性和可重新配置性也为开发和实现一系列AI模型提供了无限可能性,同时基于动态视觉的事件触发运算机制使得芯片达到亚mW级的功率。DynapCNN处理器集成专用接口电路,可直连绝大多数动态摄像头,进行脸部识别、手势识别、高速移动物体追踪、归类、行为识别等。

DynapCNN的超低能耗智能视觉处理得益于其事件驱动的特性及aiCTX 多个独特IP在芯片级的整合。“对于实时视觉处理,目前几乎所有的应用场景都基于对移动目标的识别,例如手势识别、面部识别、移动物体的跟踪与定位等。而传统的图像处理系统是逐帧对视频数据进行处理的,即使摄像机前的物体没有发生任何变化,处理器也会对每一帧的画面进行处理和计算。与传统的方法不同,DynapCNN是由事件驱动的,因此,如果传感器前端的物体没有发生变化,我们的系统可以将实时视觉处理的功耗降低到几乎为零。此外,芯片使用稀疏计算对场景中的物体移动进行处理,进一步降低了芯片的动态功耗。”aiCTX首席执行官乔宁博士解释道。“DynapCNN的节能性意味着视觉AI运算可以始终打开,并且可以在终端设备上实现mW级超低功耗本地实时数据处理”,乔宁博士补充道,“这是传统的DL 视觉加速器芯片无法实现的。”

基于纯异步数字电路的事件驱动运算机制,DynapCNN处理器不使用高速时钟,而是由视觉场景中的变化触发,移动对象产生的任何像素变化都将被处理器实时处理。由于打破了传统视觉处理帧的限制,DynapCNN可以对像素动态数据流进行连续计算,对移动物体实时识别可实现低于5ms的超低延迟。相较于已有的DL实时视觉处理方案,DynapCNN所提供的超低延时动态视觉解决方案将识别响应延时缩短了10倍以上,为车载及高速飞行器等高速视觉场景提供完美解决方案。

“应用本地 AI处理器为物联网设备提供算力支持,可以避免将大量传感器数据上传到云端所消耗的功率和成本。”aiCTX高级研发工程师Sadique Sheik博士向记者解释,“DynapCNN支持视觉物联网传感器诸多场景的超低功耗边缘计算,是一种高效经济的解决方案,并且是对用户隐私的一种保护。“目前,几乎所有的视觉处理都是在云端完成的。而aiCTX的芯片可以在本地进行所有处理,无需从设备向云端发送视频,这是为终端用户提供隐私和数据保护的强大举措。”

DynapCNN相应的开发套件将于2019年第三季度上市。


资讯分类
相关新闻
会员资讯