苹果Vision Pro的架构很大程度上归功于自动驾驶
如果说有一种设备类别可能取代智能手机成为消费者的主要设备,那就是增强现实(AR)头显。如今,这是一个利基市场,苹果进入了这个市场,其他公司也会紧随其后。无论第一代Vision Pro是否成功,它的出现都将重振这一品类。
高级驾驶辅助系统(ADAS)和AR头显之间有很多共同点。高通是增强现实领域的市场领导者,其Snapdragon Ride 平台面向ADAS市场。之前一直致力于自动驾驶汽车项目的苹果向市场推出了一款带有先进sensor hub的头显。苹果在R1处理器的竞争中取得了飞跃,解决了这两款设备共同面临的挑战——处理来自一系列传感器的大量数据。
其他AR厂商将寻求复制苹果Vision Pro的先进技术。然而,这并不是真正的创新——至少对汽车厂商来说不是。
拥有先进ADAS功能的车辆和AR头显依靠多个传感器收集周围世界的数据。HD摄像头和雷达的结合是汽车传感器技术的首选。雷达模块通常又大又贵,因此AR设备转而依赖激光雷达传感器或结构光的组合来获得深度感知和HD相机数据。
无论设备或传感器,典型的第一步是将数据流输入数字信号处理器(DSP)。从70年代开始,DSP已经走过了漫长的道路,当时它被开发用于德州仪器的Speak & Spell(知名拼写玩具)中将数字录制的语音转换为模拟声波。如今,DSP通常作为片上系统(SoC)上的知识产权(IP)模块存在。
ADAS系统的整体架构决定了在何时何地发生的事情,以及最终将什么信息输入电子控制单元(ECU)。一个系统可能有多个传感器,将原始数据传递给sensor hub,然后sensor hub将单个数据流传入ADAS ECU。部分或全部预处理可能在传感器内置的DSP或其他IP中进行。有时没有预处理,只有ECU接收原始数据。
图1:ADAS架构
图1显示了典型的ADAS架构。高通的Flex Ride和NVIDIA Thor产品是集中式ADAS架构的例子。而AMD的Versal AI Edge XA自适应SoC是一个sensor hub。在任何一种ADAS架构中,图像预处理都可能发生在边缘,例如恩智浦的SAF或德州仪器的AWR2544。
发表新评论
您还未登录!登录后可以发表回复
文章评论 0人参与