将AI PC装进汽车,英特尔押注智能座舱

时间:2024-08-16 14:25:21编辑:奇闻君

日前,英特尔在深圳高调了举行一场发布会,展现了其进军AI智能座舱的决心。

会上,英特尔副总裁Jack Weast高高举起公司首款锐炫车载独立显卡(ARC A760-A)。

据悉,该显卡提供了229TOPS的平台算力,搭配了16G的DDR6显存。“显卡会在2025年会实现量产,正紧锣密鼓地针对车内不同的应用场景进行测试。”Jack Weast在接受包括在内多家媒体采访时透露。

英特尔是PC时代的芯片霸主,在智能座舱芯片领域,头把交椅则是高通,AMD、瑞萨、英特尔、三星等芯片大厂位列其后。

高通旗下的骁龙8155芯片受到几乎所有车企的追捧,高通的8295芯片也已得到诸如零跑、蔚来、极氪、小米和奔驰等多家车企的力捧。

“主流的主机厂一款车的研发周期从立项一直到最后的SOP,差不多是18-24个月。在AI时代,没有人说得清楚18月-24月之后,AI会如何发展,哪些杀手级应用出现,英特尔将需要的算力预埋进去,通过可扩展形式为未来打下基础。”英特尔专家Cloud Li表示。

据悉,新款显卡聚焦AI座舱,可以运行超大模型14B以上。英特尔能否拿到AI座舱的入场券,甚至撼动高通的地位,锐炫车载独立显卡或成翻盘关键。

端云结合实现更多场景

当前,汽车行业正在从嵌入式的微控制器的思维模式向软件定义转型,软件定义汽车又可分为智能驾驶和人机交互(智能座舱)。

“2025年,中国将有80%的智能座舱渗透率,AI将成为智能座舱最显著的特征。”Jack Weast表示。

尽管AI最大的大脑在云端,但在实际场景当中,端侧AI必不可少,端侧AI要充分发挥芯片的功能,便需要和芯片厂商密切合作。

英特尔中国区技术部总经理高宇谈到,“我们不是否定云端,而是希望看到云和端的算力合理分布。”

高宇认为,第一,端侧部署算力减少了网络的依赖。第二,本地算力可以保证极低的时延。第三,出于成本考虑,端到端的成本会更低。第四,保护隐私和安全。随着车内外摄像头广泛配置,数据存储在本地可有效规避信息泄露风险。第五,借助大模型的能力,进行更加人性化的部署。

这便要求芯片充分发挥出多个核功能,在不同的场景、不同的算法当中调用不同的核,这种异构的AI计算是端侧发展的必然趋势。

算力是运行大模型中始终绕不开的一环。高宇谈到,“市场上号称车机芯片有30、40TOPS就能跑大模型的,基本上只能做Demo展示。如果将6B-7B的大模型压到30-40TOPS的NPU,first token的响应时间基本上是3秒以上,这是用户不能接受的。”

在发布会上,智谱AI首席运营官张帆称,英特尔最新芯片解码速度跑到88个Token,相当于每秒100多字,得以实现某些此前无法在端侧实现的场景。

在高宇看来,未来的AI一定是复杂的多模型协同,好的用户交互需要多模型并发。即使展示的Demo也需要四个模型并发,30-60TOPS的NPU基本无法满足需求。

AI PC能否移植到汽车?

今年以来,英特尔业绩有所下滑,以至于英特尔首席执行官帕特·基辛格称,第二季度财报“令人失望”。

财报显示,英特尔第二季度营收为128亿美元,同比下降1%,环比基本持平;GAAP(通用会计准则)下,净利润亏损16亿美元。

在业务不景气的情况下,英特尔尝试利用在PC端多年的积累,将PC生态平移到汽车座舱中。

其中,极氪成为首家采用英特尔软件定义汽车SoC系列的整车厂,东软及()搭载英特尔芯片,打造智能座舱平台。

英特尔公司副总裁李映表示,车载和PC、数据中心还是有很多不同,从软件架构来看,车底层的系统级别是更像数据中心,云阶段更像数据中心的架构。在AI的应用场景又和PC非常相近。

在业界看来,生成式AI时代中的应用和传统应用是有区别的,今天的应用只是冰山一角,未来会井喷式发展,成为AI座舱的主流。

值得注意的是,不仅仅是芯片厂商的较量,AI智能座舱已经成为各大车企拼杀的另一大主战场。

蔚来近期发布了基于AI核心底层能力打造的全新“Banyan 3 智能系统”,理想、小鹏、小米、长城、一汽等主机厂推动AI大模型在智能座舱的应用。

据悉,目前AI智能座舱上车仍存在难题,包括对算力的高需求、数据传输难点、用户数据获取和数据安全等。

李映认为,AI座舱发展的不仅仅局限于某个技术或产品,而是构建完善的生态体验,包括硬件提供商、软件开发商、内容提供商等参与方共同推进AI创新和发展。

上一篇:宝马在美国召回超10万辆汽车:起动电机存在火灾隐患

下一篇:小米汽车二期工厂挖出古墓?小米王化:假的 系正常勘查