思博伦通信与Cohda Wireless公司宣布,双方扩大既有的伙伴关系,为WAVE-DSRC V2X设备的测试提供更广泛的支持。
基于在欧洲V2X标准ITS-G5方面的长期成功合作,Cohda Wireless与思博伦通信将携力为美国交通运输部的WAVE-DSRC标准提供类似的测试,该标准执行IEEE1609.x和SAE J2945/1的相关标准内容。
思博伦与Cohda Wireless将于5月7日至11日参加在密歇根州Plymouth市举办的OmniAir Motor City Plugfest大会。思博伦在其中的5个测试站提供WAVE-DSRC V2X一致性测试,使V2X厂商能够为OmniAir认证做好准备,并不断提高其产品质量。在此次大会上,思博伦将侧重点放在SAE J2945/1和IEEE1609.2标准所定义的功能和性能要求上,涵盖各类安全和移动性特性,而它们正是部分互操作性和安全问题的潜在来源。
Cohda公司负责业务拓展的副总裁Bernd Lübben指出:“在为OmniAir认证做准备期间,思博伦的测试解决方案帮助我们验证了MK5设备在WAVE-DSRC标准下的一致性。思博伦的WAVE-DSRC V2X一致性测试解决方案是一种非常直观的工具,可以支持极高的自动化水平,并使我们能够将使用性和性能结合在一起,充分满足项目测试目标。MrLübben还表示:“Cohda非常高兴能与思博伦合作,朝着实现V2X栈的全面一致性共同努力。思博伦与我们开展密切的合作,双方共同探讨各类测试例,还为Cohda提供了多个早期版本,它们在提高我们的软件性能方面具备无可估量的价值。”
思博伦通信车联网研发总监Stephan Pietsch表示:“我们很荣幸能为Cohda公司的MK5 V2X设备一致性测试活动提供支持,而此项测试的目标正是成功完成OmniAir的认证计划。我们将全身心地致力于继续扩展此类合作,而这正是我们为V2X的部署提供后续支持的重要组成部分。”
V2X是多种应用实现普及的基础,这些应用将对驾驶者和车载嵌入式系统发出各类警告,涉及道路施工、车道关闭、交通信号计时,甚至包括潜在碰撞风险,从而大幅提高道路的安全性。V2X技术将为优化安全交通做出巨大贡献,最终实现完全自主的车辆行驶,使这些使用合作式智能交通系统(C-ITS)的车辆能够在道路上安全运行。
不同制造商的车辆通信设备和相关软件之间的互操作性是V2X技术取得成功的关键环节。为确保这种互操作性,OmniAir联合会已经制订一项严格的联网车辆认证计划,目的就是验证与现行标准和法规的一致性。美国交通运输部(USDOT)已经强制规定制造商的设备必须通过OmniAir联合会的认证后,方可参加在美国的试运行部署。
作为联网汽车和汽车以太网测试解决方案领域的全球领导者,思博伦通信最近发布了新版的TTsuite WAVE-DSRC测试解决方案,并已从OmniAir获得资质成为符合资质的测试设备,参与了世界上第一个对V2X标准和法规一致性进行认证的计划。
Cohda Wireless公司是V2X设备领域的关键解决方案供应商,其MK5设备可支持ITS-G5和WAVE-DSRC标准。测试领域领导厂商与V2X栈和应用领域领导厂商之间的伙伴关系,将使公众市场有能力获得同级最佳的V2X技术。此外,Cohda公司正在为其客户开发一种测试接口,能够大幅加快设备认证过程中的测试自动化。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。