华为ADS5.0投资100亿,引望迟林春:明年有80多款合作车型上市


[汽车之家 行业]10月21日~24日,第三十二届中国汽车工程学会年会暨展览会(SAECCE 2025)在中国重庆·科学会堂召开。SAECCE 2025通过汇聚行业智慧、展示前沿技术、搭建合作桥梁,并携手全球汽车科技力量,服务全球汽车科技发展,共创世界级汽车科技创新平台。

在SAECCE 2025于10月22日下午召开的“开幕式暨全体大会”上,深圳引望智能技术有限公司副总裁迟林春以《以智能重塑未来出行》为主题进行了演讲。他在演讲中指出,从智能技术、通信与网络、感知与交互以、存储与计算,以及新能源,在2030年到2040年阶段可能会形成规模化的突破,这个突破技术的结合之后形成一个基点,走向一个超级智能体。

迟林春介绍,华为在整个智能驾驶领域的投资非常大,目前上车的是华为ADS4.0,在研的是ADS5.0,光这一个版本的投资大概100亿元,这个可能是一个非常巨额的投入。截至目前,华为已经合作了33款车型,2026年约有80多款车型会上市。

汽车之家

以下为演讲实录:

各位领导、各位朋友:大家下午好!引望其实也是华为智能解决方案BU,现在可以说是两套牌子一套人马,但是我们的引望要逐渐往外推出,所以用的是引望。

现在人类社会智能化时代加速进展,我们可以看到,在当前五大技术向前推进,从智能技术、通信与网络、感知与交互以及存储与计算还有新能源,在2030年到2040年这个阶段可能会形成规模化的突破,这个突破技术的结合之后形成一个基点,走向一个超级智能体。具身智能可能是超级智能体的一个典型代表。

智能技术是走向世界模型,通信网络走向6G,无线的6G或者过往的6G或者超6G,感知与交互就是引导科技全息,存储计算走的像量子计算,存储甚至拟人化的这种存储,新能源当然是刚才我看也谈到了固态电池以及可控的核聚变。

随着智能化对各行各业的赋能,智能驾驶也在飞速前进,我们基本上用十年把自动化渗透率达到50%,智能化这个领域基本上用了五年就达到50%,所以说这个速度是非常快。这里面叫智能驾驶或者叫智能驾驶辅助领域,可能未来面临关键问题第一个端到端的网络,第二个是世界模型。

华为乾崑我们是聚焦到在做整个车上的智能这么一家公司,我们一共有五个解决方案,从智能驾驶、智能座舱、智能车控、智能车云、智能车灯,这五大解决方案,乾崑,华为讲“向上捅破天”,什么意思呢?用智能化来赋能五个解决方案,给客户带来好的体验。“向下扎到根”是什么意思?我们在数学领域、物理领域、材料领域,甚至在芯片领域、操作系统领域深耕,不断去超越,为了我们的解决方案构筑的核心竞争力。我们的slogan是把智能化代入到每一辆车,让出行更安全,让生活更美好。其实我们整个引望公司五大解决方案全部来自于华为传统ICT基础上的一些根的技术。

截止到10月份,现在的智能驾驶也好,或者是智能座舱也好,我们的上车量已经双双超过了一百万,整个智能驾驶里程也达到了50亿公里,避免了大概是300万次的碰撞。刚才张兴海董事长也谈到了避免智能碰撞,他讲的是问界的车辆。我们整个泊车辅助也达到了3亿多次,可以说乾崑智驾以及鸿蒙座舱已经成为了我们智能化的第一品牌。

下面简单把我们几个解决方案里面的智能化的东西给各位汇报一下,看整个智能驾驶,我们现在是叫WEWA架构,WE是World Engine,主要是在云端侧,我们用扩散的模型,通过AI来教AI,现实生活当中可能只有一个,但是在云端可能生成成千上万个,24小时不断来进行训练。

同时用强化学习,可能你在现实生活当中是你突破不了的,但是云端可以不断通过强化训练,把我们的模型不断进行迭代,我们现在在云端基本上两天就可以迭代一次,云端算力也达到45亿Flops,在整个智能驾驶领域应该排在前面的。

在车端我们叫WA,World Action Model,看左侧,我们把车上所能感知到的视觉、触觉或者是听觉,因为现在车内车外还有麦克风听觉,这些信号输入进来之后做了一下token化,输入到原生的记忆模型进行处理,处理之后给两个方向,一个是给人用的,我对车有什么意图来告诉乘客,同时还给到车一些行驶轨迹。

智驾刚才讲到的WEWA架构是我们的软件,这边是我们的硬件,我们其实引望来讲是强调多传感器融合的,我们通过这张图看左侧的雷达图,有人探讨讲纯视觉,我们看一下视觉,它其实在角分辨率和环境要素方面是比较突出的,角分辨率是什么意思?前面100米有两个小的物体左右挨着,它的视觉可能看着比较清晰,环境要素是他对于交通信号、车道线,可能理解是比较透的。

但是我们再看一些激光雷达,距离分辨率,比如说同样150米还有后面有145米在这么近的情况下,两个物体的分辨,其实视觉是看不太清楚,因为视觉远近是有缺陷的,激光雷达可以看得很清楚。

另外,在强光也好、测速也好,它都有纯视觉所不可替代的优势,包括毫米波雷达。因为首发了高精度的固态雷达以及结合分布式毫米波雷达,我们可以实现全维的安全。全维什么意思?比如说我们以前倒车,后面有障碍物,有障碍物可以检测到,肯定撞不上去,但是经常有这种场景,后面可能是一个沟,也没有障碍物,但是这种负向距离看不到沟的话,可能就到了沟里面,所以我们加了融合传感之后像这种负向距离也能检测到,这是举一个例子,整个我们还是推崇融合传感。在全时速、全目标、全场景、全天候、全方向实现多维安全。刚才朱华荣董事长也谈到了安全是高质量的代名词,我也是非常认同。

我们再看一下智能车控,这里面整个电子电器架构,我们叫通信与计算架构,从传统领域来讲,我们把这些原子服务抽下来之后,帮助车厂能够把新的车型快速推向市场,以尚界H5(参数|询价)为例,可能研发周期从15个月缩短了9个月,大大的提高了开发的速度,这是对于传统造车上的优势。

智能化赋能是什么意思?刚才右侧是尊界的车型,比如过小的坑,如履平地,包括120公里的高负舵多力和低负舵力这两个双向车道爆胎的制态维持,这里面其实都是用了智能车控这些技术把底盘整合到一起,把智能驾驶的一些传感器所感知到的东西融合到一起形成好的体验。

我们再看一下鸿蒙座舱,刚才杨冬生院长也谈到了agent,其实大家伙可能走的路都是一样的路,左侧其实是以鸿蒙为中心,向上是北向的这种APP来打通,南向硬件这种外设的打通,中间是整个鸿蒙座舱的架构叫MoLA架构混合大模型agent,横向来讲,这个agent是基于场景的,比如导航的场景、新闻的场景、娱乐的场景,多agent架构,实现了好的体验。

同时我们在音响这方面也推出了智能音响,我们有大柏林、BOSS,他们每个音响都有不同的特性,智能化对引望来讲是我们的一个标签,我们现在从声学设计也好、音响硬件也好,包括智能化算法也好,还有大批的调校也好,全链条把这个打通,提供了非常好的音响体验。

我们看到今年上半年配置21扬声器的车辆增加了35%以上,另外我们首创了叫独立的音区,这是什么概念呢?独立音区的实现可以比如妈妈坐在前排,他要听歌,后排坐的小朋友要看动画片,他们相互之间各自看各自的,相互不影响,这种声障的处理。

车载光这边最主要第一个就是HUD产品,还有车灯模组产品,HUD产品其实对于智驾来讲它的帮助是在哪儿呢?我们刚开智驾的时候,你对这个车的能力边界是不太清楚的,你不知道天黑的时候它到底发没发现突然间串成了一个人,在HUD可以非常明显标注出来看到红色的标签说我已经看到了,其实你在用智驾的时候让人也变得更加安心。在人开的时候,现在假设车没有智能驾驶辅助,你在开的时候,深圳有路口是多路口的,五个车道,到底是往左面那个还是左二、左三不知道,HUD因为拟合的特别好,你就很清楚知道你应该走哪条路,你就不会走错了。

右侧是车灯模组,比如说ADB的功能,打远光给前方挡到了行人的眼睛,针对这个地方把它扣出来,变成一个黑的地方,让行人更加安全。

智能交互是未来整个智能驾驶越来越普遍,在有的地方甚至做了一些所谓的L3或者L4的试点,车上可能是没有人的,我们在做试点的时候,但是如果车灯在路上能打出一个标准说我正在智能驾驶或者请你先行,那么就带来很大的价值。

华为在车载光还有一个是什么呢?我们整个座舱以前在舱内,把智能赋予车载灯之后,其实把娱乐从车内搬到了车外,比如现在搞彩色的投影,在外面可以看足球、唱歌,包括迎宾的模式,带来更多的情绪的价值。

车云传统来讲都是被动服务,比如我们打一个400电话,我们现在能够做到马上就能看到车可能有什么样的问题,不需要让车组来重复那个问题,我们就知道有哪些问题,这个是基于我们100多万辆上车每天行驶当中的一些问题、需求和故障我们整理出来了一些技能。

AI主动关怀是什么意思?比如我们在定时的时候会对车进行一个主动的巡检,我们在通讯网络的时候都经常有主动巡检,对车也是一样,比如车曾经有案例,一台问界M9开在路上,可能油箱没有拧紧,这时候车其实已经发现了,能告诉车主说你这个油盖没拧紧。从对车主的服务、对用户的服务从被动的服务走向主动关怀。

截至目前,我们已经合作了33款车型,明年大概有80多款车型会上市,所以我们这里面讲买车就要买带智能驾驶辅助的车,买智能驾驶辅助的车,就要买带乾崑智驾的车。

最后一句话,因为我今天的演讲是智能,智能不是万能的,但是没有智能,在现在这个时代,是万万不能的。



Source link

赞(0)
未经允许不得转载:程序员中文网 » 华为ADS5.0投资100亿,引望迟林春:明年有80多款合作车型上市
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的