第十六届中国国际软件和信息服务交易会(以下简称“中国软交会”)于2018年6月12日-15日在大连世界博览广场隆重召开。大会以“软件定义智能新时代”以主题,汇集了700多家参展商,涵盖了人工智能、大数据、云计算、物联网等领域,旨在通过本次大会全方位地展现信息技术产业的核心价值和作用,把最先进的技术解决方案和创新产品最大限度地融合到全产业链条中。本次软交会,不仅是全球IT行业的展示平台,更是业界精英先进思想的碰撞。
华为以“华为云,有技术,有未来,值得信赖”为主题亮相本届软交会,同时承办了华为云分论坛。会上,华为辽宁企业业务副总经理李信在致辞中表示:云服务已成为智能社会的基本商业模式,一方面,云在塑造一切,所有行业都在因云而变;另一方面,一切又在塑造云,各行业的关键业务不断驱动云的演变。华为在提供云服务、开放云上能力、携手伙伴助力客户形成新的商业和服务模式这三个方面均有建树。华为将坚定不移打造一个开放、可信的公有云平台,并将携手整个行业的伙伴,建设一个繁荣共赢的公有云生态,助力客户获得商业成功。
华为辽宁企业业务副总经理李信
随后,华为Cloud BU东北区运营总监高晓东进行了“华为云,联接企业现在与未来”的主题演讲。他谈到,华为云是领先的云服务品牌,通过在芯片、硬件、操作系统、数据库等能力上的深厚技术积累,以及在软硬件协同一体化等方面的优势,持续为企业客户提供安全可信、稳定可靠、可持续发展的云服务。面向大中型企业,华为云帮助他们解决云转型中的困难,更好地把握未来,引领数字化转型;面向中小型企业,华为云帮助他们应对互联网业务云基础设施2.0时代的新挑战,陪伴他们成长。华为云将恪守自己业务边界,上不做应用,下不碰数据,不做股权投资,做智能世界的黑土地,与合作伙伴、客户一起来努力前行,通过持续创新,创造价值,不断探索智能社会行业变革。
华为Cloud BU东北区运营总监高晓东
在展厅中,华为联合合作伙伴展示了华为云软件开发服务,华为云智能制造服务等创新解决方案,其中华为云软件开发服务是基于华为研发30年成功实践经验,通过云服务的方式面向中小软件企业、软件外包企业、双创企业、互联网企业、高校和广大的软件开发者提供一站式云端DevOps平台。开发团队基于云服务的模式按需使用,随时随地在云端进行项目管理、配置管理、代码检查、编译、构建、测试、部署、发布等;软件开发将更加简单高效,开发者能够专注快速创新和应对永无止境的需求变化。个人和团队的交付能力、效率大幅提升,帮助提升企业竞争力。
与会嘉宾参观华为展台
华为云智能制造解决方案是华为基于自身智能制造转身经验,携手制造行业解决方案生态伙伴,以云服务为底层基础,发挥华为在IaaS层和PaaS层的技术优势,为工业制造企业打造全面、高效的智能制造云生态环境,提供云端一站式智能升级服务,覆盖工业制造企业全链条流程,包括:产品设计研发、生产管理、供应链管理、销售管理及售后服务等业务环节,拉通制造产业协同,助力制造产业升级。
中国软交会华为展台
大连市一直把软件和信息技术服务业作为其支柱产业,经过多年发展,已经成为中国软件和信息技术服务业的重点城市之一。目前,华为云已经服务大连本地软件企业近千家,并为大连理工大学、大连海事大学等本地多家高校提供服务,将华为云软件开发服务作为学生实践平台。面向未来,华为将持续加强云服务的战略投入,聚焦打造开放、安全、可靠的云基础设施服务,助力各行业加速实现数字化转型。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。