数字化快车高速前行,
转眼即将驶入2018,
而企业向云转型的道路,还面临两大难题:
AI应用难以“提速”,数据”海啸”正在靠近
紧跟时代步伐的程序猿、开发者们,
如何才能开拓新路线,
引领更高阶的数字时代?
昨天,华为云技术私享会
异构计算和云数据库服务双线快轨齐发车
上海、深圳私享继续上演!
上海线
“挤挤”一堂,230+小伙伴共同探索
异构计算如何助力AI人工智能发展
“云时代,华为怎么做?前面二三十年,华为在电信领域的积累可以说是厚积薄发,后面十年,华为要逐步开放我们的能力资源,与业务合作伙伴一起,构建一个开放共赢的FPGA加速的生态。”
FACS异构加速总架构师胡浩
“关于FPGA开发,我们有三个目标,第一高性能,现在FPGA的设计主频越来越高,如何保证时序的收敛?第二高质量,我们看重仿真,同时还要关注实现的细节;第三是高效,如何让效率提升,在更短的时间做出高质量的产品。”
异构加速系统工程师王晓
“业务上云的时候,要作哪些考虑呢?第一浮点运算要求不能太高,第二业务流程不能用简单的计算解释,很复杂;第三业务需要用到很多memory资源,这些情况更适合FPGA来做,而不是GPU。”
FACS异构加速规划工程师赵刚
“深度学习加速方案有三大特点:第一,提供深度学习推理FPGA端到端加速能力;第二,我们有专用算法优化,推理精度、性能具有独特优势;第三,我们有配套完整的工具链,灵活易用。”
FPGA AI加速技术leader张佳
“硬件不像软件,开源软件很多,硬件开源的IP非常少,特别是大IP,编码器的收费非常昂贵,没有开源。H.265 Video Encoder IP是目前唯一开源的,Feature支持最全面的开源H.264 Video Encoder IP。”
复旦大学微电子学院副教授范益波
“赛灵思在每瓦性能比、灵活性和集成度上拥有独特价值,提供面向深度学习的高效可重配置加速堆栈,赛灵思的机器学习推断解决方案涵盖从云到端的各种应用。”
Xilinx高级资深DSP专家王宏强
“FPGA以前是个小众的技术,门槛比较高,开发周期长,现在这是行业趋势,也是教育热点。我们会把传统的培训模式升级到华为云平台上,利用这个平台,对我们的课程做升级改造。”
依元素科技总经理陈俊彦
深圳线
-讲练结合,玩转云数据库服务
“华为云数据库服务的定位有三点:第一,数据库服务化,做好运维、体检,提供最佳实践;第二,改进引擎,面向云基础设施设计提供高性能、高可靠性;第三,是自研引擎,基于云设计,提供极高性能、可扩展性和可靠性。”
华为云数据库资深架构师黄伟
“以一个互联网初创型企业为例,读写比比较高,IT运维还比较弱小。采用华为云RDS、DDM等多项综合数据库服务解决方案后,系统稳定性大幅提升,运维成本降低了70%,网点人工成本降低了50%。”
华为云数据库高级产品经理罗昭德
“以上海一家建筑科技公司为例,通过采用华为云数据库,短短三个月就完成了从研发到上线的所有工作,实现负载均衡,解决性能瓶颈,让客户全力投入到业务开发中。”
华为云数据库高级产品经理曾庆聪
“以一家全球领先的实验室综合解决方案供应商为例,在选择华为云数据库SQL Server之后,实现了对销售、产品数据的高效保存和分析,在任意时间地点可访问数据并保障了数据的安全可靠。”
华为云数据库高级产品经理姜皓楠
随后,华为云数据库高级产品经理罗昭德基于华为云管理控制台,实地上演华为云数据库的快速搭建和轻松维护。
至今,历时42天、全程累计数千人参与,
八大主题、十场活动、走遍北上深渝,
2017年的华为云技术私享会完美收官,
为程序猿和开发者们带来了
一场场云技术的盛宴!
还没有参与的小伙伴不要着急,
让我们共同期待
2018年的华为云技术私享会!
圣诞快乐!
好文章,需要你的鼓励
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
浙江大学研究团队开发的"自制动力训练"(Self-Braking Tuning,SBT)方法解决了大型语言模型在推理过程中的过度思考问题。该方法不依赖外部干预,而是培养模型自主识别冗余推理并适时终止的能力。研究者通过分析推理效率比率和过度思考标记比率,构建了两种数据策略:SBT-E(精确版)和SBT-D(动态版)。实验结果表明,经过训练的模型在多个数学基准测试上保持原有准确率的同时,将标记消耗减少了30%到60%,显著提高了推理效率。这项创新使AI系统能更像人类一样有效思考,为资源受限环境下的AI部署提供了新解决方案。