ZD至顶网网络频道 11月29日 综合消息:近日,2016中国城市轨道交通可持续发展技术交流会在长沙召开,本次交流会由长沙市人民政府、中轨集团联合主办,长沙市轨道交通集团有限公司承办,华为技术有限公司协办。来自全国各大科研院校、各城市地铁公司、轨道交通领域企业及服务商的专家和代表500余人齐聚一堂,就城市轨道交通可持续发展和智慧城轨模式应用等热点话题进行深入探讨和交流。
2016中国城市轨道交通可持续发展技术交流会在长沙举行
长沙市轨道交通集团有限公司党委书记、董事长彭旭峰主持交流会活动,长沙市人民政府副秘书长邱继兴、中轨集团董事长李阔、华为企业BG中国区交通业务部部长路海空共同为活动致辞。路海空表示,华为致力于成为城市轨道交通行业信息化的最佳创新合作伙伴和同路人,愿与各位行业同仁深入合作,互助互惠,共同推动城市轨道交通信息化发展。
高铁经济、地铁经济蓬勃发展,如何维持城市轨道交通可持续发展?长沙轨道交通集团有限公司总经理周晓明认为,要以政府资金投入、引入社会资本、实施直接融资等多种渠道相结合,筹措项目资本金。同时以沿线物业和涉轨土地开发等方式提升经营效益,“输血”和“造血”双管齐下。
“智慧地铁是以机电系统为载体的技术。”长沙市轨道交通集团有限公司总工程师许尚农现场分享了多项长沙地铁智慧技术创新,包括LTE综合无线系统及互联互通、全数字高清视频监视系统、信息化施工管理、手机支付、免费WIFI系统等。
上海申通地铁集团有限公司技术中心总监洪翔表示:“ ICT技术作为面向轨道交通智慧化延展的重要手段,为轨道交通管理服务未来的提升演进提供技术可能性,这种管理与服务将成为IT(信息技术)、CT(通信技术)、BIG DATA(大数据应用)、IOT(物联网)结合和交融的结晶,并有效地将面向市民、乘客、运营管理者的通信应用、信息和数据应用、互联网应用、传媒应用融合到轨道交通ICT技术实现范围内。”
“ICT技术是促进城轨提升运能,提高效率,实现自动化的一种关键手段。”华为中国区城市轨道交通行业总工沈光亮现场分享道,地铁作为绿色快捷的交通工具,通过新信息技术与通信技术相融合,让网络与云平台融为一体,实现管理更智能、运营更安全、运输更有效,从而打造出可持续发展的智慧地铁。
广州地铁设计院副总工程师毛宇丰在交流会上分享《城市轨道交通创新发展》,并表示“融合ICT平台是实现跨越式发展的关键。完成融合首先要把无线通信系统整合平台化,然后进一步把整个通信系统向云化的方向发展,最后与综合监控系统整合,以此形成一个完整的地铁云”。
在目前云计算大发展的背景下,未来的智能轨道交通除了需要有大数据的采集和汇聚之外,更重要的是大数据挖掘、分析和共享这样的一个平台。中铁第四勘察设计院通号处高级工程师徐余明在主题发言《云架构综合监控系统分享》中提出“云架构综合监控系统”的设计理念并在温州S1线赋予实施,极大地改善和提升了轨道交通的自动化水平,同时也大幅减少了系统的投资,这样一个云架构综合监控系统可以为今后智能轨道交通提供最为广泛的信息来源,构筑智慧之源。
华为智慧城轨体验厅
此外,大会现场还展示了华为新一代的智慧城轨技术,比如,综合监控集中云化管理,利用大数据智能分析,让地铁业务状态实时可见;城轨云监控系统实现图像智能分析,保障全网线路安全运营;下一代城轨信号承载解决方案(DCS)实现有线无线融合通信,树立了智慧城轨业务通信新标准。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。