ZDNET网络频道 01月06日 编译:诚然,软件定义网络(SDN),尤其是在开源项目中,如OpenDaylight,将彻底改变数据中心的联网方式。在数据中心内部我们也看到了更高的吞吐量表现,如Broadcom BCM56960芯片,具备25GE的吞吐量和128个端口。而在网络接入方面,最新的DSL标准G.fast让我们看到每秒1千兆比特的传输速度不在是个梦想。最后要说的是802.11ac越来越接近我们的工作和生活,同时也在向着更高的千兆无线网络连接速度进发。
网络资源越来越开源化
在谈到这点时,不得不先介绍一下网络中立性,这是一个简单的概念:互联网服务供应商应该与云服务商共享他们的网络资源部分。这又回到了商业互联网交换中心(CIX)的概念。那个时候互联网运营商第一次同意与对方平分连接。这个想法成为当今互联网的基础。
如Verizon互联网服务供应商,以及Netflix,都是用于访问互联网。法院和FCC一直偏袒Verizon,康卡斯特和时代华纳。最终的结果将是我们要结束了一个分层的互联网,这样的结果会直接体现为互联网资源今后将让大多数人能够买得起。
与此同时,Netflix公司,和所有其他的内容提供商,如CBS和HBO,将提高他们的内容价格,以弥补自己在最后一英里ISP的附加费用,而这些费用实际上是ISP对特定地域的一种垄断所造成的。
最后一英里上网速度制约整个网络发展
4K视频的出现,让我们可以在网络上从亚马逊和Netflix获得这些节目。如果你有每秒100(Mbps)的连接速度和Netflix,那么这些节目对你来说毫无压力,但你至少需求25Mbps的传输保障才能保证对4K视频节目的支持,这点恐怕很多地方难以实现。
在2014年,国内互联网服务供应商大都维持在4Mbps的宽带传输速率。但在2015年会不会有所改观,让我们拭目以待吧!
在世界舞台上,美国平均11.4Mbps的网络传输速度排在第14位。但像拉脱维亚和罗马尼亚甚至更小的县反而有更好的互联网性能!也许11.4Mbps听起来并不太给力,但如果你看看这些数字它的确更接近你现在的实际网速,富裕的城市地区,已经有相对良好的带宽,都推高了平均水平,而他们的郊区和农村地区仍在这条基准线之下。
但是,仅仅因为一些居民区有良好的互联网服务,并不意味着所有的社区都可以享受这样的服务。互联网服务质量的广泛性变化是个重要因素,因为你今后将在任何地方使用互联网进行工作和生活。
网络安全摇摇欲坠
达不到高速互联网是现实问题,但一个简单的事实是互联网的安全性正在接受前所未有的挑战。
我们看到越来越大的分布式拒绝服务(DDoS)攻击几乎每个月都在实施攻击。只要看看什么蜥蜴队确实到Xbox Live和PlayStation网络过圣诞节。似乎少数的黑客攻击就能使得两大游戏网络被彻底瘫痪。
因为我们发现,有很多基本的互联网技术正暴露出它的年龄缺陷,它的安全漏洞越来愈多。在2014年,我们看到了域名系统(DNS),网络时间协议(NTP)和OpenSSL,透露出主要的安全漏洞。
而且,虽然我已经听说了许多关于提高网络的安全性的声音,但还没有看到过一个非常行之有效的安全举措的出现。
因此,越来越多的互联网基础设施实际上每天都在摇摇欲坠的安全边缘徘徊。无法想象物联网的出现是不是会更加剧这样的隐患。在今天的互联网中,实际上根本没有一个绝对安全的网络环境,因为你并不清楚哪个环节会出现问题。
所以,要提高互联网在合理性,和公平的价格,这是我们现在需要做的。这样我们可以尽量避免以前主要的互联网故障,这将使互联网到目前为止更容易被人们接受。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。