ZDNET网络频道 06月04日 北京报道: 6月4日,第七届中国云计算大会进入第二日,百度公司高级副总裁王劲提出创新是互联网+的灵魂,“互联网+”是产业的大融合,是互联网和传统主流产业的大融合。一方面,对于BAT这样的互联网企业来说,“互联网+”是渗透和进入传统产业最好的机会。另一方面,对于很多传统主流产业来说,也觉得这是个非常好的机会,这是他们学习、掌握和拥抱互联网然后来自我提升的机会。
百度公司高级副总裁王劲
王劲介绍了互联网企业是怎么进入传统产业并产生变革作用的,并举了3个例子:
第一个例子是Uber,国内打车软件并不稀奇,王劲指出,Uber成长的尤其快。每天接单100万,一年增长8倍,一年内市场份额提升3倍。为什么?它有三个关键的因素,一是Uber系统实时调度智能派单,而不是司机抢单。抢单对司机来说增加了负担,对于顾客来说他很可能要等更长时间,所以它不是全局最优的一个优化。
二是,智能的动态定价,也就是在像高峰期的价格是不一样的,价格是根据供求关系决定。比如,下雨天又是高峰期,打车需求的人非常多,把价格提高,很多车就会愿意过来。
三是用户行为预测,王劲表示,这个准确率是74%,它能够大数据的预测,把车辆提前调度。比如再过半个小时这个体育场的比赛要结束了,可以把更多的车辆调到这个地方,早上把更多的车辆调到居民区的附近,而不是平均分配放到写字楼那边。
王劲另外举了百度外卖和Coursera的例子,百度外卖骑士送单效率提升100%,日接单量1年增长300倍。它的骑士智能调度(智能派单、路径规划),订单需求预测(准确率97%),商家出餐时间预测(准确率90%),餐厅个性化推荐等,让互联网在餐饮市场产生了催化作用。
Coursera,这是个免费的教育系统,把很多大学课程线上教育资源综合起来,免费提供给需要学习的学生。它也会根据学生个性化的需求,来给他做出内容的推荐、学习过程的推荐,还能帮助他和一些老师进行互动,极大的提高了学习的效率。
总结三个互联网+给传统行业带来变化的三个例子,王劲表示,“互联网+催生了服务创新、模式创新、技术创新。互联网+是“计划经济”、机器管人、高效淘汰低效。”
以服务创新来说,百度看到了机会,连接人与服务,7亿用户和服务连接起来,提升效率,对于人、社会,也会得到更好的服务。
对于模式创新,王劲表示,Uber是全球最大的出租车公司,但是它没有司机,它也没有一辆出租车。百度现在正在成为一家非常大的餐饮企业,我们希望它以后是中国最大的,也可能是世界最大的餐饮企业,但是我们没有一个厨师,也没有一家餐厅,我们都是用四两拔千斤的办法。
对于技术创新,它靠的是云计算、大数据,通过云计算和大数据积累起来的过去没有的全局化的智能,这种全局优化的能力使得互联网企业用新的武器走出新的道路。
王劲强调,互联网技术的三级火箭,第一级是云计算,第二级是大数据,第三级是人工智能。
“百度建立亚洲最先进计算中心,一个计算中心可以承载十几万、大十几万的服务器。大数据是分析和决策的基础,对人的数据、物的数据、关系数据,进行推荐和预测。人工智能不再是新概念,到今天终于到了爆发的阶段,因为计算能力得到很大的提高,而且网络传播速率得到很高的提升,终于能够让我们集云计算和大数据之力,做一个全局决策的人工智能。”
当然,这是互联网+进入传统行业的力量,互联网公司因先进的技术与创新的血液在互联网+领域先行成功。王劲也期待更多的+互联网出现,把“互联网+”变成“+互联网”,需要传统行业拥抱互联网的文化,这种文化最归根结底的是创新的文化。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。