近日,在北京举办的2017边缘计算产业峰会上,边缘计算产业联盟(ECC)与车载信息服务产业应用联盟(TIAA)、国际半导体照明联盟(ISA)、西安电子科技大学(西电)分别签署战略合作协议,共同致力于推动边缘计算在智慧照明、智能车载领域的应用创新、标准制定和商业落地,促进边缘计算技术与产业的发展。
边缘计算聚焦于万物智能联接,满足行业数字化在联接、实时、智能、数据优化、安全与隐私保护等方面的关键需求,已经成为行业数字化转型不可或缺的关键要素。边缘计算产业联盟(ECC)旨在推动OT和ICT产业开放协作,推进边缘计算产业协同,开放创新,示范推广,繁荣发展,由“政、产、学、研、用”共同发起成立,引领边缘计算产业蓬勃发展,深化边缘计算产业合作。
成立ECC-TIAA联合工作组,共同推动车联网产业开放协作
边缘计算产业联盟(ECC)和车载信息服务产业应用联盟(TIAA)签署战略合作协议,双方成立ECC-TIAA联合工作组,共同开展车联网领域边缘计算的技术、产品、应用、标准、专利等合作,发挥车联网领域的各自优势,共同推动车联网产业开放协作,孵化智慧车载行业应用最佳实践,促进边缘计算产业健康与可持续发展。
ECC副理事长方发和(左)与TIAA联盟副理事长邱翔东(右)签署战略合作协议
加强战略合作,共同推动照明物联网向城市物联网演进
边缘计算产业联盟(ECC)与国际半导体照明联盟(ISA)签署战略合作协议,双方充分发挥各自在智慧路灯领域的优势进行进一步合作,通过边缘计算使能智慧路灯,利用先进传感技术、网络技术、计算技术、控制技术、智能技术,对路灯设备全面感知,实现路灯的远程实时控制、周期控制,实现故障自诊断、可预测性维护。以灯杆为无线网络的接入节点,覆盖周边垃圾桶监测、停车传感器等设备,构建可扩展的城市物联网骨架,推动照明物联网向城市物联网演进。
ECC副理事长方发和(左)与ISA副秘书长杨鹤(右)签署战略合作协议
联合举办“2018年边缘计算技术研讨会”,共同推动边缘计算学术研究的繁荣发展
同时,边缘计算产业联盟还宣布将与西安电子科技大学、中国自动化学会边缘计算专业委员会联合举办“2018年边缘计算技术研讨会(SEC-China 2018)”,为相关领域学术界、产业界提供交流合作、发布领域相关前沿科研成果的平台,大力推动中国边缘计算技术与产业的发展。“2018年边缘计算技术研讨会”将于2018年5月在西安召开,研讨主题涉及边缘计算理论、边缘计算安全和隐私保护、面向边缘计算的微处理器体系结构、面向边缘计算的系统软件、面向边缘计算的算法及程序设计、面向边缘计算能耗分析及优化、面向边缘计算系统的可靠性、基于边缘计算系统的边缘存储系统、基于边缘计算的大数据处理、边缘计算与云计算协同优化技术、边缘计算可视化、基于边缘计算的应用研究等边缘计算相关热点和前沿领域。
ECC副理事长方发和(左)与西安电子科技大学通信工程学院院长沈八中(右)签署战略合作协议
关于边缘计算产业联盟(ECC)
边缘计算作为新兴产业应用前景广阔,产业同时横跨OT、IT、CT多个领域,且涉及网络联接、数据聚合、芯片、传感、行业应用多个产业链角色。为了全面促进产业深度协同,加速边缘计算在各行业的数字化创新和行业应用落地,华为技术有限公司、中国科学院沈阳自动化研究所、中国信息通信研究院、英特尔公司、ARM和软通动力信息技术(集团)有限公司作为创始成员,于2016年11月30日联合发起成立边缘计算产业联盟(ECC),致力于推动“政产学研用”各方产业资源合作,引领边缘计算产业的健康可持续发展。
好文章,需要你的鼓励
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
浙江大学研究团队开发的"自制动力训练"(Self-Braking Tuning,SBT)方法解决了大型语言模型在推理过程中的过度思考问题。该方法不依赖外部干预,而是培养模型自主识别冗余推理并适时终止的能力。研究者通过分析推理效率比率和过度思考标记比率,构建了两种数据策略:SBT-E(精确版)和SBT-D(动态版)。实验结果表明,经过训练的模型在多个数学基准测试上保持原有准确率的同时,将标记消耗减少了30%到60%,显著提高了推理效率。这项创新使AI系统能更像人类一样有效思考,为资源受限环境下的AI部署提供了新解决方案。