ADAS:识别技术的主要趋势

发表于2019年9月。



图片



从通用汽车生产线下线的克鲁斯的测试车配备传感器(红色标记)。



汽车行业仍在寻找可在所有条件下工作的可靠识别技术-夜,雾,雨,雪,冰等。



上周AutoSens 2019的收获是,不乏技术创新。技术开发人员,Tier-1和OEM仍在追求创建“可靠”的识别技术的目标,该技术可在所有道路条件下工作,包括夜间,雾天,雨天,雪中,冰天,有溢油的道路。等等



尽管汽车市场上仍然没有能够立即解决所有问题的灵丹妙药,但许多公司还是展示了他们的识别技术和新产品概念。



今年在布鲁塞尔举行的AutoSens车展将重点放在驾驶员辅助系统(ADAS)上,而不是自动驾驶汽车上。



工程界已达成一定共识。许多人认识到,今天的可能性与不需要人工驾驶的具有人工智能的商用自动驾驶汽车的前景之间存在很大差距。



明确地说,没有人说无人驾驶汽车是不可能的。但是,VSI Labs的创始人兼总监Phil Magney认为,“第4级自动驾驶汽车将在极为有限的运营设计(ODD)区域中运行。这些机器的设计将在全面和详细的安全要求的基础上进行开发。“



马尼(Magny)明确表示,“限制区域”是指对道路和车道选择,运行时间,天气状况,时刻,出口和停车点等方面的限制。进一步。



康奈尔大学(Cornell University)计算机专业教授AI的巴特·塞尔曼(Bart Selman)被问到,人工智能驱动的汽车是否有可能以“常识”进行推理(了解驾驶过程并了解环境)?塞尔曼在会议闭幕时回答:“我们至少会在10年……甚至20-30年内实现这一目标。”



同时,ADAS系统和高度自动化的车辆的开发人员正在竞争开发车辆的视觉系统。



Edge Case Research的CTO和卡内基梅隆大学的教授Fung Kupopman认为,任何高度自动化的车辆的基础都是“传感”系统,它可以确定车辆周围各种物体的位置。他澄清说,无人驾驶车辆的弱点在于无法预测-无法理解背景以及预测该或那个被捕获物体可能在何处移动。



推广智能系统



会议上出现的一个新趋势是许多智能系统的出现。许多制造商通过将AI系统集成到其传感器组合中来为其产品添加AI系统(RGB摄像机+ NIR; RGB + SWIR; RGB +激光雷达; RGB +雷达)。



但是,行业参与者之间在达成行业目标方面尚未达成共识。一些人认为成功的途径是通过传感器组合,而其他人(例如Waymo)则倾向于在中央处理器上处理传感器数据。



AutoSens还将开发一系列新的监控系统,以满足欧洲NCAP,驾驶员监控系统的一系列要求以及2020年的主要安全标准。特别是,我们所讨论的不仅是监视驾驶员的系统,而且还监视乘客和车内其他物体的系统。



一个例子就是安森美半导体的新型RGB-IR传感器,该传感器配备了Ambarella的RGB-IR视频处理芯片和Eyeris场景识别软件。



近红外与短波红外



在黑暗中(车辆内部和外部)都需要看清楚,这表明需要红外灯。



在安森美半导体的RGB-IR图像传感器可处理近红外(NIR)辐射的同时,也参加了此次展会的Trieye推出了SWIR(短波红外)相机,使它进一步发展。 )。



图片



SWIR摄像机的优点之一是能够在任何天气/光照条件下看到物体。更重要的是,SWIR可以根据每种材料的化学和物理特性检测独特的光谱响应,从而主动识别道路危险(例如冰)。



但是,由于此技术中使用的砷化铟镓(InGaAs)的成本很高,因此SWIR摄像机的使用仅限于军事,科学和航空航天应用。Trieye声称找到了一种使用CMOS技术创建SWIR摄像机的方法。“我们取得了突破。Trieye首席执行官兼联合创始人Avi Bakal说:“像半导体一样,从早期开始,我们就一直在使用CMOS来大批量生产SWIR摄像机。Bakal说,与8,000美元的砷化镓传感器不同,Trieye相机的价格为“数十美元”。



图片



缺少标签数据



人工智能的最大挑战之一是缺乏用于训练样本的数据。更准确地说,是“标记的训练数据”。 “模型仅与数据及其收集方式一样好。当然,训练数据必须用元数据标记,并且标记过程需要很长时间。”



AutoSens上对生成对抗神经网络(GAN)进行了热烈讨论。 Magny说,在GAN中,两个神经网络竞争创建新数据。收到训练样本作为输入后,对这些模型进行训练以生成新数据,其统计指标将与原始数据一致。



例如,Drive.ai使用深度学习来改善数据标记的自动化,从而加快繁琐的标记过程。



在AutoSens的一次演讲中,Koopman还谈到了准确注释数据的问题。他怀疑大部分数据仍未标记,因为只有大公司才能负担得起。



确实,展会上的AI初创公司承认,对第三方数据的付费注释对他们造成了很大的伤害。



解决此问题的一种方法是GAN。 Edge Case Research提供了另一种无需标记数据即可加速安全识别软件开发的方法。该公司最近发布了Hologram,这是一种用于压力测试感知系统和风险分析的工具。根据Koopman的说法,无需标记PB级数据,您只需运行两次即可-全息图将提供有关数据集可疑部分的信息,并告诉您最佳方法-扩展训练集或重新训练模型。



会议上还讨论了标记数据集的问题-如果汽车OEM替换用于训练和数据处理的摄像头和传感器,该怎么办?



Algolux营销和战略合作伙伴关系副总裁David Tokich告诉《 EE Times》,从事ADAS和自动驾驶汽车的工程师担心两件事:1)各种条件下识别系统的可靠性; 2)开发精确,可扩展的解决方案以解决问题。计算机视觉任务



ADAS和无人驾驶车辆中使用摄像头系统可能会有很大的不同。它们都具有不同的参数,具体取决于镜头(不同的镜头提供不同的视角),传感器和信号处理技术。一家技术公司选择其中一个摄像头系统,收集大型数据集,对其进行标记,然后训练其模型以供特定系统使用。



但是,当OEM更换用于特定数据集的相机时会发生什么?这种变化可能会影响感知准确性,因为调整为特定相机的机器学习模型现在必须处理一组新的原始数据。



这是否要求OEM在新数据集上一遍又一遍地训练他们的模型?



图片



特斯拉,Waymo,通用汽车/克鲁斯在其自动驾驶汽车中使用各种摄像头。



当被问及更换图像传感器的可能性时,VSI Labs的Magny说:“除非规格保持不变,否则我认为这不会奏效。”他还补充说:“在VSI,我们训练了一个神经网络以与FLIR热像仪配合使用,并且训练集中的图像特征与训练了该神经网络的照相机的特征相匹配。后来我们更换了传感器,但是技术规格保持不变。”



然而,Algolux认为,用于翻译先前创建的数据集的新技术应在“几天之内”可用。根据Tokić的说法,Atlas相机优化套件通过获取“基线数据”(相机和传感器特性)并将其应用于识别层来解决此问题。Tokić说:“我们的挑战是使OEM的相机选择民主化”。



AI硬件



在过去的几年中,许多初创公司如雨后春笋般出现在AI处理器领域。这创造了动力,促使一些人宣布硬件市场复苏。许多为AI开发芯片的初创公司将自动驾驶汽车和ADAS市场作为目标市场。



尤其是Ceva,在AutoSens大会上揭开了AI和“ Invite API”的新核心-针对智能系统加速器市场的产品。



奇怪的是,新一代多功能汽车尚未引入先进的AI芯片-Nvidia和Intel / Mobileye的芯片以及特斯拉内部使用的全自动驾驶仪芯片除外。



另一方面,安森美半导体在AutoSens会议上宣布,其团队(和Eyeris团队)将使用Ambarella的片上系统作为AI处理器来监视车辆中的各种指标。



Eyeris首席执行官Modar Alawi表示:“我们找不到能够处理10个神经网络,功耗不到5瓦,并使用内部最多6个摄像头以每秒30帧的速度捕获视频的单个AI芯片。汽车”。



Allawi承认Ambarella不是AI芯片的知名制造商(他们以生产用于视频压缩和计算机视觉的芯片而闻名。他说,但是,Ambarella的CV2AQ系统可以满足他们的所有要求,其性能优于所有其他加速器。



阿拉维希望他的公司的AI软件将被移植到2020年1月在拉斯维加斯举行的消费电子展上使用的其他三个硬件平台上。



图片



在Semi上,Ambarella和Eyeris展示了一种使用三台RGB-IR摄像机的新型驾驶室内监控系统。



同时,On Semi强调,驾驶员和乘客监控系统要求“具有在从直射阳光到黑暗的各种光照条件下捕获图像的能力”。该公司声称,由于其良好的近红外响应时间,“ CMOS图像传感器中的RGB-IR技术使用3.0微米的3曝光HDR和背光(BSI)提供了全高清1080p图像输出。” 对RGB和IR照明敏感的传感器可以捕获日光下的彩色图像和具有照明近红外光谱的单色IR图像。



超越驾驶员监控系统



Allawi对Eyeris AI软件可以执行全面的身体和面部分析,乘客活动监控和物体检测感到自豪。他补充说,除了观察驾驶员外,“我们正在监视车内的所有事物,包括座椅和方向盘的表面。”他强调,这家初创公司已经投入了更多的精力,而不是“在视频流中搜索汽车”。



Seeing Machines欧洲客户解决方案主管Laurent Emmerich恳求不要就此止步。他说:“超越观察驾驶员并跟踪许多物体是自然而然的事情。” “我们也在寻求扩展。”



他补充说,与初创企业相比,Seeing Machines的优势在于“在过去20年中获得了坚实的计算机视觉和AI经验基础。”该公司的驾驶员监控系统目前由“六家汽车制造商使用,并细分为九家” “



此外,Seeing Machines指出,它还开发了自己的用于监控驾驶员的芯片-。Fovio询问该芯片是否还可以为未来的汽车监控系统提供服务,Emmerich解释说,他们的芯片将用于可配置的硬件平台中。 ...



保留



组合不同的传感器并将其安装在汽车中不仅是提高感知度的必要,而且是增加安全性所急需的冗余的必要条件。



图片



AutoSens上具有前视框。



由前Whitings首席执行官塞德里克·哈钦斯(Cedric Hutchings)共同创立的初创公司Outsight将在AutoSens展示一种新型的高度集成的多传感器系统。他解释说,Outsight传感器单元的设计目的是“通过对环境(包括道路上的雪,冰和油)的了解,对物体进行有意义的识别和定位。”他还补充说:“我们甚至可以使用主动式高光谱传感技术对道路上的材料进行分类。”



当被问及在“展望箱”中使用了哪些传感器时,他没有发表评论。 “由于我们仍在研究规格和应用,因此我们目前尚未宣布我们的主要合作伙伴。”



EE Times向Trieye表示,Outsight将使用Trieye SWIR摄像机。 Outsight正在推广其传感器模块,该传感器模块将于2020年第一季度发布进行测试。 Hutchings解释说,Outsight Box旨在作为一个互补的自治系统,提供“与其他传感器无关”的数据,以确保安全性和“真正的冗余”。



Outsight Box不使用机器学习技术,因此其工作结果是可预测的,并且系统本身可以被“认证”



针对无人机和ADAS市场,Aeye还开发了iDAR,这是一种固态MEMS激光雷达和高清摄像头。 AEye产品管理副总裁Aravind Ratnam说,通过将两个传感器和嵌入式AI相结合,实时系统可以“解决许多边缘问题”。



iDAR系统旨在结合2D摄像机“像素”(RGB)和3D激光雷达数据“体素”(XYZ)实时生成新型数据。该公司解释说,这种新的数据类型应提供更高的准确性,范围,并且对于无人驾驶车辆中使用的路由系统,数据本身应该更易于理解。



图片



AEye AE110的产品功能与行业基准和功能的比较。



Ratnam在演讲中说,AEye正在探索各种应用。 “我们研究了300种场景,选择了56种合适的场景并将其缩小到20种,”摄像机,激光雷达和人工智能的融合才有意义。



拉特南(Ratnam)展示了一个场景,在这个场景中,一个不知名的小孩正开车将球撞向街道-就在汽车前面。激光雷达摄像头系统的工作速度更快,从而减少了车辆的响应时间。 Ratnam评论说:“我们的iDAR平台可以提供非常高速的计算。”



当被问及组合传感器的好处时,一位Waymo工程师在会议上告诉EE Times,他不确定这会带来很大的改变。他问:“差异会是微秒吗?我不确定”。



AEye对其iDAR可以带来的好处充满信心。 AEye的Ratnam指出与Hella和LG的密切合作,并强调:“我们已经能够降低iDAR的成本。我们现在以ADAS价格提供3D激光雷达。”



在接下来的3到6个月内,AEye将完成结合RGB,激光雷达和AI算法的汽车级系统的工作。 Ratnam声称他们的解决方案将花费不到1000美元。



图片



汽车行业激光雷达系统的销售(来源:IHS Markit)



IHS Markit汽车半导体和传感器高级分析师Chen Dexin对与会人员说,激光雷达供应商“领先于市场,并且承诺太多。” 他指出,未来,激光雷达的物理特性(这是激光雷达的优势)可能会影响市场,但激光雷达的商业化将决定一切。市场迫切需要“标准化,联盟和合作伙伴关系,以及供应链管理和AI合作伙伴关系”。



订阅频道:

@TeslaHackers-俄罗斯Tesla黑客社区,Tesla的出租和漂移培训

@AutomotiveRu-汽车行业新闻,硬件和驾驶心理







图片



关于ITELMA
- automotive . 2500 , 650 .



, , . ( 30, ), -, -, - (DSP-) .



, . , , , . , automotive. , , .


阅读更多有用的文章:






All Articles