伴随着数字化技术的发展,汽车也不会再成为一个个信息化的孤岛。车与车之间的数据互联互通,将会促进自动驾驶、智慧出行、智慧物流等技术的飞速发展。然而,车联网不是简单给汽车插上网线,在互联这个智能汽车最基本的需求中,包括各种各样的交互、升级,下载新的APP实现新的服务等。这些功能都是需要有联网的设备跟云端或者跟其它的车辆通信才能够实现。据统计,2018年售出大概3800万互联车辆,每个小时产生4TB数据,这个数据量非常巨大。恩智浦预测,2025年时,互联车辆渗透率将从2018年的40%增长到73%。
为了应对日益增长的车联网数据传输需求,在近期举办的恩智浦新产品媒体沟通会上,恩智浦大中华区资深市场经理余军苗向我们介绍了与汽车智能化、互联化相关的S32G处理器。
今年3月份,恩智浦量产了隶属于S32G系列的S32G2。从2020年1月,恩智浦在CES期间正式发布该产品到今天,这个产品已经非常成熟,并已经进入到量产阶段,明年开始,在市场上也会陆续遇见搭载这款处理器的新车型。
接下来余军苗就S32G2处理器产品特点向我们进行了介绍:
第一、S32G2处理器是一个汽车网络处理器,具备着更强、更高算力的处理器内核,包括高带宽的通信。所以,S32G可以释放车内的数据的全部潜力。
第二、S32G2处理器可以做一个服务型网关,在车辆的生命周期之内,可以部署各种各样的新服务和OTA的升级。
第三、S32G2处理器能非常好地满足中央网关或者中央计算单元内中央ECU芯片特性的功能。它的处理能力、算力以及网络通信能力都比以前提高了10倍以上,它的特点是借助具有硬件加速功能的多核架构,降低软件开发的复杂性。
第四、恩智浦在汽车电子领域耕耘多年,一代又一代的产品在汽车电子里扮演了非常重要的或者说不可或缺的角色。功能安全和信息安全一直是恩智浦的强项,S32G也继承了恩智浦这方面的优势。
随后,余军苗又将S32G的应用特性向我们进行了介绍:
以前网关或者网络通信的CPU都是一颗MCU,但是S32G除了MCU还放置了MPU,即A53,并且添加了通信加速器。正是这些新加入的部分令S32G能够实现新的应用或者新的功能。例如,当我们将A核和通信加速器放进入后,它可以满足此前传统的车辆网络通信,比如CAN网络、LIN网络。而S32G所具备的高算力和高带宽的通信则能够带来新业务,比如在A核上跑一个新的APP,从而实现一些未来的新业务。又如保险、OTA升级、车队管理等等,还有一些与安全相关的任务,比如与云端数据通信,将车内数据经过边缘计算大数据的分析和提炼得到结果。此外,还可以将你的使用习惯存到云端和OEM进行进一步相对应服务,这些在车联网的推广会越来越高。
总结来看,第一是车联网在未来几年内的推广力度会越来越高,第二是恩智浦S32G契合了当前的时代潮流,其新增特性能够满足服务型网关的要求,提供各种各样的新服务。
由此可知,S32G网络处理器是一款中央服务型网关处理器,能够快速部署各种新服务,用来做车辆的信息收集,做OTA升级等各种各样新应用;主要用于做服务型网关、域控制器和ECU的整合;提供ASIL D的功能安全处理,可以应用在自动驾驶的安全处理器。
目前S32G芯片所有的资料都已经在NXP官网公开出来,能够方便大众市场的客户下载恩智浦文档和软件包。此外,S32G芯片已经量产,也欢迎大家去找恩智浦的代理商去订购相应的样品的开发板进行试用。
好文章,需要你的鼓励
这项来自麻省理工和滑铁卢大学的研究质疑了在AI文本排序中"思考过程"的必要性。研究者比较了三种文章重排模型:直接判断的StandardRR、先推理再判断的ReasonRR,以及禁用推理功能的ReasonRR-NoReason。实验结果表明,不仅推理过程没有提高排序质量,有时甚至会降低效果。主要原因是推理导致模型倾向于极端判断,难以表达"部分相关"这种微妙关系。即使应用"自洽性"等改进技术,简单直接的判断方式仍然更为高效有效。研究为信息检索系统设计提供了新视角:有时,少即是多。
TAGS是一种创新的医学问答框架,结合了泛医和专医两种视角,通过层次化检索和不确定性验证机制提升医学AI回答的准确性。该框架由穆罕默德·本·扎耶德人工智能大学等机构的研究团队开发,无需任何模型微调即可显著提升包括GPT-4o和DeepSeek-R1在内的大型语言模型在九个医学问答基准测试上的表现。TAGS通过模拟医疗专家协作、结构化知识检索和质量控制,解决了现有方法在复杂医学推理中的短板,为构建更可靠的医学AI系统提供了新思路。
这篇研究提出了时间抽象值学习(OTA)方法,解决离线目标条件强化学习中的长期规划问题。研究团队发现现有分层方法失败的关键在于高层策略无法生成合适子目标,原因是价值函数在长期规划中估计不准确。OTA通过"选项"概念实现时间抽象,有效缩短规划视野,使价值函数能提供更准确的优势信号。在复杂迷宫导航和视觉机器人操作任务中,OTA显著优于现有方法,证明了该方法在处理长期任务时的有效性。
这项研究探索了大语言模型内部可解释特征的形成过程,分析了它们在训练过程中(时间)、模型层级间(空间)和不同规模模型(尺度)的行为变化。研究团队使用稀疏自编码器技术,成功识别出特定语义概念在神经激活中出现的时间点和位置。研究结果显示,不同领域的知识概念在模型训练和规模扩展中存在明确的激活阈值,且在空间分析中发现了早期层特征会在后期层重新激活的现象,这挑战了对变换器模型表示动态的传统认知。