2015年9月8日,2015年度“互联网+”创新创业邀请赛(以下简称“邀请赛”)启动仪式在京召开。本届邀请赛“互联网+智慧能源”主题由中国智慧能源产业技术创新战略联盟与中关村海兴战略性新兴产业促进会联合主办,中关村国标节能低碳技术研究院承办。相关政府部门、企事业单位、社会团体、行业协会等机构代表以及媒体代表,共260多人出席了启动仪式。来自国家工信部、科技部、中关村管委会、海淀区管委会、天津市东丽区、秦皇岛市经济技术开发区等政府部门的相关领导出席会议并致辞;来自中关村海兴战略性新兴产业促进会、中国智慧能源产业技术创新战略联盟、中科院北京国家技术转移中心、中关村物联网产业联盟以及其他邀请赛主题承办方分别作了主题演讲。
中国智慧能源产业技术创新战略联盟执行秘书长潘崇超在“互联网+智慧能源”主题演讲中强调智慧能源是解决未来能源系统面对挑战的解决之道。他指出在“互联网+”和能源革命的双重国家战略背景下,智慧能源受到了越来越多的关注与重视,今年7月经李克强总理签批,国务院印发的《关于积极推进“互联网+”行动的指导意见》中,首次将“互联网+智慧能源”专门列项,提出要加强智慧能源与能源互联网建设,推进能源生产和消费智能化,建设分布式能源网络,通过互联网促进能源系统扁平化,推进能源生产与消费革命。智慧能源作为节能环保产业与信息技术产业的跨界融合,产业发展前景非常广阔。潘崇超秘书长指出,发展智慧能源应从能源的供应和消费出发,实现智慧能源须建立能源生产监测、管理、调度信息公共服务网络,利用大数据技术管理、维护生产设备;同时建设多能源协调互补的能源互联网,构建智能化电力运行监测、管理技术平台;以及探索能源消费的新模式。
现阶段在国家相关政策支持引导下,我国智慧能源发展势头强劲,涌现出一批优秀的智慧能源产业创新团队和智慧能源先进技术和先进产品,但是作为一个新兴领域,这些新技术和新产品并未得到广泛认知和有效推广。本次邀请赛为这些创新团队和创新技术、产品提供了一个非常好的展示舞台。中国智慧能源产业技术创新战略联盟通过举办“互联网+智慧能源”创新创业邀请赛,在全社会范围内广泛征集智慧能源创新创业项目,传播“智慧能源”产业理念,为全国创新创业人员、企业搭建学习交流的平台,推动智慧能源产业创新发展。
据悉,本届“互联网+智慧能源”创新创业邀请赛的时间为2015年9月-2015年11月,其中参赛报名时间为8月18日-9月30日,评选范围包括能源信息化领域、节能和新能源领域、分布式能源领域、智慧能源大数据领域、智能微电网领域、智慧家居领域以及智慧能源其他相关领域。邀请赛将按照“公平、公正、公开”的原则,经过专家初评、路演、综合评审等环节,最终评选出10个智慧能源优秀创新项目和5个智慧能源优秀创业项目,所有入围项目将免费获得主办方提供的机遇Quark的网关,获奖项目除了获得主办方颁发的获奖证书和奖牌外,还将获得优先纳入产业对接项目库、优先推荐申报国家部委和北京市各级项目、优先获得智慧能源产业基金支持、免费入驻智慧能源产业园孵化器等奖励。大赛的入围结果将于今年10月16日在“2015年中国能源互联网大会暨智慧能源产业博览会”期间公布并展示;大赛结果将于12月在“2015年度中国“互联网+”创新创业邀请赛颁奖典礼暨高峰论坛”上发布,同期将举办“互联网+”创新创业邀请赛成果展,届时所有获奖项目和优秀成果将通过展览的形式获得进一步展示和推广。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。