数字化快车高速前行,
转眼即将驶入2018,
而企业向云转型的道路,还面临两大难题:
AI应用难以“提速”,数据”海啸”正在靠近
紧跟时代步伐的程序猿、开发者们,
如何才能开拓新路线,
引领更高阶的数字时代?
昨天,华为云技术私享会
异构计算和云数据库服务双线快轨齐发车
上海、深圳私享继续上演!
上海线
“挤挤”一堂,230+小伙伴共同探索
异构计算如何助力AI人工智能发展
“云时代,华为怎么做?前面二三十年,华为在电信领域的积累可以说是厚积薄发,后面十年,华为要逐步开放我们的能力资源,与业务合作伙伴一起,构建一个开放共赢的FPGA加速的生态。”
FACS异构加速总架构师胡浩
“关于FPGA开发,我们有三个目标,第一高性能,现在FPGA的设计主频越来越高,如何保证时序的收敛?第二高质量,我们看重仿真,同时还要关注实现的细节;第三是高效,如何让效率提升,在更短的时间做出高质量的产品。”
异构加速系统工程师王晓
“业务上云的时候,要作哪些考虑呢?第一浮点运算要求不能太高,第二业务流程不能用简单的计算解释,很复杂;第三业务需要用到很多memory资源,这些情况更适合FPGA来做,而不是GPU。”
FACS异构加速规划工程师赵刚
“深度学习加速方案有三大特点:第一,提供深度学习推理FPGA端到端加速能力;第二,我们有专用算法优化,推理精度、性能具有独特优势;第三,我们有配套完整的工具链,灵活易用。”
FPGA AI加速技术leader张佳
“硬件不像软件,开源软件很多,硬件开源的IP非常少,特别是大IP,编码器的收费非常昂贵,没有开源。H.265 Video Encoder IP是目前唯一开源的,Feature支持最全面的开源H.264 Video Encoder IP。”
复旦大学微电子学院副教授范益波
“赛灵思在每瓦性能比、灵活性和集成度上拥有独特价值,提供面向深度学习的高效可重配置加速堆栈,赛灵思的机器学习推断解决方案涵盖从云到端的各种应用。”
Xilinx高级资深DSP专家王宏强
“FPGA以前是个小众的技术,门槛比较高,开发周期长,现在这是行业趋势,也是教育热点。我们会把传统的培训模式升级到华为云平台上,利用这个平台,对我们的课程做升级改造。”
依元素科技总经理陈俊彦
深圳线
-讲练结合,玩转云数据库服务
“华为云数据库服务的定位有三点:第一,数据库服务化,做好运维、体检,提供最佳实践;第二,改进引擎,面向云基础设施设计提供高性能、高可靠性;第三,是自研引擎,基于云设计,提供极高性能、可扩展性和可靠性。”
华为云数据库资深架构师黄伟
“以一个互联网初创型企业为例,读写比比较高,IT运维还比较弱小。采用华为云RDS、DDM等多项综合数据库服务解决方案后,系统稳定性大幅提升,运维成本降低了70%,网点人工成本降低了50%。”
华为云数据库高级产品经理罗昭德
“以上海一家建筑科技公司为例,通过采用华为云数据库,短短三个月就完成了从研发到上线的所有工作,实现负载均衡,解决性能瓶颈,让客户全力投入到业务开发中。”
华为云数据库高级产品经理曾庆聪
“以一家全球领先的实验室综合解决方案供应商为例,在选择华为云数据库SQL Server之后,实现了对销售、产品数据的高效保存和分析,在任意时间地点可访问数据并保障了数据的安全可靠。”
华为云数据库高级产品经理姜皓楠
随后,华为云数据库高级产品经理罗昭德基于华为云管理控制台,实地上演华为云数据库的快速搭建和轻松维护。
至今,历时42天、全程累计数千人参与,
八大主题、十场活动、走遍北上深渝,
2017年的华为云技术私享会完美收官,
为程序猿和开发者们带来了
一场场云技术的盛宴!
还没有参与的小伙伴不要着急,
让我们共同期待
2018年的华为云技术私享会!
圣诞快乐!
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。