当前位置:首页 > 智能网联 > 正文

Humanising Autonomy筹资530万美金用于AI系统 帮助自动驾驶汽车注意行人

2019-06-27 07:00:00 罗珊 盖世汽车

自动驾驶,Humanising Autonomy,人工智能,自动驾驶,道路安全,机器学习

(图片来源:Humanising Autonomy官网)

盖世汽车讯 制造自动驾驶汽车最困难的部分是确保车辆知道行人在做什么,以及他们将要做什么。Humanising Autonomy具有该领域的专长,并希望成为全球以人为中心的计算机视觉系统的一部分。据外媒报道,该公司凭借其AI系统优势,筹集了530万美元种子资金。该公司表示其AI系统表现优于人类,几乎可以处理所有的汽车摄像头图像。

Humanising Autonomy的技术是一套机器学习模块,用来识别不同的行人行为,例如行人是否准备走到街上、他们是否注意到了汽车、是否与司机有眼神交流,以及是否正在打电话等。该公司将其模型的优势归功于两点。首先,是其数据源的多样性。该公司联合创始人兼首席执行官Maya Pindeus表示,“最初,我们就从各种来源收集数据,包括CCTV摄像头、各种分辨率的车载摄像头,以及自动驾驶汽车传感器。我们还建立了数据伙伴关系,与不同的机构合作。因此我们能够在不同的城市建立强大的数据集,包括不同的摄像头类型、不同的分辨率等等。这对系统非常有益,所以系统适用于夜间环境,以及密歇根州多雨的情况等。”此外,Humanising Autonomy还获取并分析意外事故影像,因为这些都是有用的例子,说明自动驾驶系统或人类司机未能读取行人的意图。

其次是该公司的模型具有模块化特性。它们并不是单一的模型,而是一组模型,可以根据自动驾驶主体或硬件需求,单独选择和调整这些模型。Pindeus解释说,“例如,如果要知道行人在过马路时是否分心,人类会采取很多行动进行判断。我们有所有不同的模块,可以一起预测一个人是否分心、是否面临危险等。这使得我们可以根据不同的环境对其进行调整,例如伦敦和东京,人们在不同的环境里会有不同的行为。”Pindeus还表示,“另外是处理需求,自动驾驶汽车对GPU的要求非常高,我们的模块能适应不同的处理需求。模块与4级或5级自动驾驶车辆集成时,软件在标准的GPU上运行。与售后市场合作改造应用程序时,我们的模型仍然可以运行。因此我们的系统能满足多个自动驾驶级别。”

专注激光雷达和RGB摄像头的全栈传感公司需要完成几十项或几百项任务,包括对象特征识别与追踪、注意标识、监测附近和远处的汽车等。对于这些公司和制造商而言,Humanising Autonomy的功能性和高度特定解决方案可能更简单,而不是构建自己系统的或依赖更通用的对象跟踪。Pindeus指出,“与自动驾驶汽车毗邻的行业也可以使用该系统。”仓库和制造设施使用机器人和其他自动机器,如果它们知道周围的工人在做什么,工作效率将会更高。Humanising Autonomy系统只对需要重新训练的部分进行再训练,这比从头构建一个新系统所需的工作量更少。

目前,该公司正与欧洲、美国以及日本的出行供应商合作,包括戴姆勒旗下的奔驰和空客。该公司正在进行一些案例研究,展示其系统如何在各种情况下提供帮助,包括在人行横道上提醒车辆和行人注意对方,以及改进自动驾驶汽车路径规划。该系统还可以查看大量以往的视频,根据行人的数量和行为,对某个区域或一天中的某个时间段进行风险评估。Pindeus表示,这500万美元种子基金主要用于该产品的商业化。


 

*特别声明:本文为盖世汽车原创技术文章,版权归盖世汽车所有,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:http://tw578.com/News/2019/06/270711281128I70112723C601.shtml

文章标签: 自动驾驶

 


关于盖世汽车| 联系电话:021-39197980 | 联系邮箱:info@gasgoo.com| 客服QQ:2569524782

盖世汽车旗下网站:中文站|国际站|中文汽车资讯|英文汽车资讯|盖世汽车社区

盖世汽车 版权所有2011|未经授权禁止复制或建立镜像,否则将追究法律责任。

增值电信业务经营许可证 沪B2-2007118沪ICP备07023350号