ZD至顶网网络频道 03月10日 综合消息:3月9日下午,全球IPv6论坛媒体见面会暨IPv6 World Leader 2017颁奖仪式在北京粤财JW万豪酒店隆重举行。清华大学教授李星、国家电网信通部主任王继业、中国电信北京研究院IPv6首席专家解冲锋获由全球IPv6论坛颁发的IPv6 World Leader 2017(2017全球IPv6世界领袖奖),以表彰和感谢三位在IPv6技术和应用领域的不断尝试、在CNGI项目中做出的突出贡献、以及在IPv6发展和推广过程中作为行业典范发挥的重要作用。
全球IPv6论坛(IPv6 Forum)是1999年7月17日在欧洲发起成立的国际技术和产业联盟,致力于在全球范围内推动IPv6发展,联合运营商与企业推动商业化进程,建立安全、高效的下一代互联网,是IPv6业界影响力最大、范围最广的非营利性国际组织。"IPv6 World Leader"奖原名“IPv6互联网先锋”奖,历届获奖人物均为互联网行业最具影响力、为IPv6发展做出里程碑式贡献的个人,受到全球IPv6领域和行业的尊敬与认可。获奖者包括美国Comcast首席架构师Brzozowski、WIDE主席Esaki教授、英国Sky首席架构师Dickinson、中国工程院邬贺铨院士和吴建平院士等。
清华大学李星教授获奖
清华大学李星教授作为主要技术负责人,主持建立了中国第一个IPv6试验网络CERNET-6BONE,在此基础上正式开通了中国下一代互联网示范工程CNGI-CERNET2。在李星教授的带领下,其研究团队发明的IPv4和IPv6互联互通的无状态翻译技术IVI,已经获得了国际互联网标准化组织IETF的9个RFC,成为下一代互联网最主要的过渡技术之一,为下一代互联网在中国以至全球的发展与普及,起到了促进作用。
国家电网信通部主任王继业先生获奖
国家电网信通部主任王继业先生多年来一直倡导和推动IPv6下一代互联网技术在国家电网中的应用实践工作。国家电网公司承建了“下一代互联网技术在智能电网应用关键技术研究和示范工程”,在相关IPv6地址编码,IPv6信息安全,IPv6与SDN融合等方面达到国际领先水平。与此同时,IPv6实验网络在国家电网天津等六省市展开了试运行,推进了IPv6在智能电网中的部署和应用。
中国电信解冲锋博士获奖
中国电信解冲锋博士领导的研发团队,从2001年就开始了在运营商网络中引入IPv6的关键技术和演进路线的研究工作,提出了包括LAFT6过渡技术在内的多项技术创新。积极参加IETF的标准化工作,目前已有6项以上的RFC成果。解冲锋博士支撑中国电信参与我国CNGI示范网络的建设和实验工作,并负责中国电信CNGI主干网的维护,共支撑了8项以上的CNGI应用示范、863、国家重大专项等大型项目的验证、测试和应用示范工作。2009年起,解冲锋博士的项目团队积极推动IPv6在中国电信商用网中的规模化引入工作,提出了以IPv6为核心的网络演进路线,并在湖南和江苏等地进行了深入的商用试点。
正如全球IPv6论坛主席Latif Ladid在活动中强调的,IPv6的全球部署已经全面展开并在近年内取得了巨大增长。李星教授、王继业主任及解冲锋博士在全球IPv6的核心标准制定、测试验证和商用部署方面的成果令人敬佩,其在中国教育网、国家电网及运营商中的IPv6部署与实践也处在世界领先地位。自全球下一代互联网行业发展以来,中国拥有全球最多的互联网用户,对世界的影响力越发强大,在中国政府的支持及产业各界的共同努力下,IPv6的全球商业部署必将获得新的进展。
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。