由华为和大连天途有线电视网络股份有限公司联合举办主办的“大视频时代,广电全媒体业务现场会“于8月中旬在大连召开。会上,华为和与会者共同探讨了如何抓住广电云、互联网电视云融合的大趋势,如何构筑广电全媒体大视频、智慧家庭全业务体验,并在会上展示了华为新一代融合视频新一代融合视频解决方案如何匹配广电全媒体业务发展,希望为后续广电全媒体业务发展注入一支强心剂。
随着“宽带中国“战略不断推进,“互联网+”的大众创业、万众创新如火如荼的开展,智能终端的规模发展,大视频、全媒体业务迎来了高速发展。作为全球领先的信息与通信解决方案供应商,华为一直致力于为客户提供有竞争力的新一代融合视频解决方案和TVOS端云协同的服务,助力客户在全媒体、大视频时代获得成功。
现阶段,中国广电较多省份采用烟囱式视频解决方案(包括NGOD、DVB-C、OTT平台等),遇到系统封闭无法融合、扩展能力差等问题,很难应对三大运营商的激烈竞争。针对广电向全媒体全业务的转型,华为新一代融合视频解决方案通过全IP架构开放云平台、融合CDN、TVOS的“云管端”能力,围绕打造最佳视频业务体验,解决现网系统相对封闭、难以融合等问题,支持多种网络应用场景、4K/H.265、创新多屏互动、社交电视、智能转码、大数据和统一运维,全方位打造广电全媒体大视频新体验;同时,融合CDN还能够有效提升宽带接入的用户体验和下载速度,实现更快、更高效的数字媒体传送。
国家新闻出版广电总局广科院总工程师 盛志凡
国家新闻出版广电总局广科院总工程师盛志凡表示,广电媒体将朝着更多的呈现方式、交互手段和操控体验演进方向发展:全媒体、全业务、全服务、无所不在。未来广电融合媒体服务方式、传输方式均向智能化发展,这是广电成功之路。
重庆有线数据中心互动业务科韦刚
重庆有线数据中心互动业务科韦刚在现场分享时表示,重庆有线依托华为新一代融合视频融合解决方案,在业务形态、产品设计等方面有持续改进,在高清化改造、业务收入增长等方面取得长足进步,至今已发展超过200万互动用户。后续重庆有线将与华为在业务运营、云宽带战略服务等方面持续合作,共同推动重庆广电全媒体业务进一步发展。
大连天途有线规划部经理葛奇峰
大连天途有线规划部经理葛奇峰表示,天途有线以华为公司新一代融合视频新一代融合视频解决方案为基础,双向网和云平台为依托,加强智慧城市建设,实现传统媒体与新媒体融合,后续将持续创新,实现现实世界与虚拟世界融合、有线与无线相协同,向未来的跨域多业务服务商发展。
与会嘉宾参观大连天途有线展厅,体现4K高清视频
本次现场会除了有来自广电总局广电科学院、国家广电网络公司、重点省网公司和华为的专题研讨外,还邀请各省网公司现场参观了大连天途有线全新开放、面向未来的全媒体全业务展示厅,展示厅对大连天途有线实际开通的4K超高清电视、高清互动电视、互联网电视、多屏互动、智能家居、智慧城市、无线接入等进行了重点展示,得到了与会客户的高度认可,为后续华为与全国广电网络公司在全媒体视频业务的全面深入合作奠定了良好的基础。
大连天途有线电视网络股份有限公司是国内广电网络领先的运营商,从2010年在视频业务和网络产品与华为展开合作。2012年12月,启动三网融合、高清互动正式开播、宽带业务正式发展。2014年之后,可视通话、4K超高清、DVB+OTT、增值应用、新媒体平台建设、无线WIFI建设、业务进入高速发展期。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。