ZD至顶网网络频道 02月14日 编译:英特尔开始在家用x86调制解调器/路由器上提供自己的版本,其风河(Wind River)子公司发布的服务器将为虚拟客户端设备(CPE)提供各种功能。
该款新产品的目标客户是电信运营商。电信运营商目前只停留在向客户提供网络载体的阶段。而网络功能虚拟化(NFV)的发展给了电信公司很多机会,因为NFV号称可以简化为客户提供服务所需的工作。例如,互联网服务提供商目前向用户提供数字视频录像(DVR)的附加服务时就必须为用户提供硬件设备,而NFV则需要将DVR进行虚拟化。
因此,这种NFV功能大有可能置于运营商的网络里,其DVR接口则是通过网页接口进行消费,或是通过在CPE(如调制解调器/路由器等)上运行的DVR应用程序进行消费,这些工作需要用到本地存储。而用户则可以下载DVR虚拟机(VM),将智能电视指向CPE的IP地址、插上U盘并开始录制。
问题是大多数CPE设备都比较简单,不太干得了运行应用程序的事。但随着英特尔收购了几家CPE厂商后,现在可以提供由x86驱动的CPE盒子。同时英特尔在OpenStack上投入了巨资,OpenStack在管理虚拟机方面是把好手,因此风河的诞生即是为了提供非常高的可靠性套件。
风河子公司日前正筹备在世界移动通信大会推出全新的“Titanium服务器CPE”,这已经引起了电信运营商的关注。而Titanium服务器CPE旨在为CPE设备提供各种网络功能。
目前尚未有太多的具体细节,但风河表示,OpenStack和KVM管理程序是产品的关键部件,产品还配有 “批量配置和自动部署的功能”。
其他厂商也都在竞相开发NFV产品,以赢取运营商客户。如果英特尔风河事成,即便风河只是得到运营商数据中心的喝彩,我们又将随处看到Intel Inside的标签了。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。