2017年8月18日,龙江元申华为光纤同轴融合现场会在哈尔滨万达索菲特酒店盛大召开,本次会议由龙江网络元申广电和华为技术有限公司联合举办,以“星耀龙江 融创未来”为主题,邀请国内主要广电行业大咖以及技术专家围绕网络建设实践、C-DOCSIS和FTTH技术及业界趋势进行深入探讨。会议展示了华为创新的光纤同轴融合解决方案,推动广电网络的融合创新,并组织有关领导与业界精英围绕“融合宽带提速应用部署实践”主题共同探讨广电面向未来的机遇和策略,共迎千兆接入新时代。
华为光纤同轴融合解决方案展台
会议展示了华为创新的光纤同轴融合解决方案,分享了最新进展和实际应用。国家新闻出版广电总局广播科学院总工程师盛志凡、龙江网络元申广电常务副总程宏伟、深圳市天隆广播电视网络有限公司总工程师欧阳世杰、华为企业BG中国区广电及媒资业务部部长杨惜琳、华为企业接入网产品线副总裁张晓亮等领导莅临本次会议,并举办了龙江网络元申广电8018台 CMC规模商用仪式,该公司网络是全国最大的光纤同轴融合网络。
四位揭幕嘉宾为龙江元申光纤同轴融合网络第8018个站点商用仪式揭幕
随着国家"宽带中国"战略的不断深入和视频IP化的发展,广电运营商普遍有升级网络带宽的需求,光纤同轴融合是广电行业重要的解决方案。元申广电从2013年开始与华为合作,率先大规模采用C-DOCSIS和FTTH方案,进行下一代广播电视网络(NGB)建设,现已发展成为一家集有线数字电视、高清互动电视、互联网接入服务于一体的多媒体网络和信息服务运营商。
元申广电总工程师王洪亮先生分享了“光纤同轴融合最佳实践”的主题演讲,光纤同轴融合方案充分利用同轴资源,灵活的架构支持由传统CMTS平滑割接到C-DOCSIS,支持业务快速部署,节省70%的机房空间和80%的电力资源。C-DOCSIS相比传统CMTS信噪比提升3~8dB,线路噪声故障大幅减少。内置EQAM配置简单、即插即用,彻底解决了集中式IPQAM带宽不足的难题。网管配合手机APP实现频谱扫描,精确定位故障点,大幅度提升运维效率。在未来三到五年内,元申广电仍将以光纤同轴融合作为网络建设和扩容的首选方案,实现50M/100M及更高带宽接入。
王洪亮先生在2017龙江元申华为光纤同轴融合现场会上做主题演讲
华为运营商网络接入营销支持部部长朱洪展示了华为创新的光纤同轴融合解决方案以及该方案的最新进展和实际应用,并带领现场特邀嘉宾在实践讨论环节中,围绕4K/UHD高清视频业务、光同融合建网策略,共同探讨广电面向未来的机遇和策略。华为推出业界首个10G光纤同轴融合解决方案,实现了C-DOCSIS和FTTH网络的完美融合,解决了广电运营商光纤和同轴共存部署和维护时面临的挑战, 并具备向下一代DOCSIS3.1标准平滑演进的能力。双纤三波FTTH,数据与CATV分别在不同的光纤中传输相互之间不干扰,提升用户体验,助力广电实现低成本高带宽覆盖。该方案的核心基于下一代大容量智能OLT MA5800, OLT采用了先进的NP架构,200G超宽槽位带宽设计,保证网络向下一代10G GPON平滑演进。目前该方案已应用于黑龙江龙江网络、深圳天威、珠江数码等广电运营商。
六位技术专家进行精彩的“融合宽带提速应用部署实践” 圆桌讨论环节
华为作为全球领先的通信设备供应商,致力于推动广电网络的融合创新,推动产业持续健康发展,助力广电网络宽带进入千兆接入新时代。华为10G光纤同轴融合解决方案,实现了C-DOCSIS和FTTH网络解决方案的完美融合,很好地解决了双网并存给客户网络规划和维护带来的困难和挑战。该方案已经在国内外得到广泛部署,已是广电运营商网络建设的一个首选方案。华为服务国内广电运营商始终如一,做广电发展的同路人。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。