技术行业一直以“微创新”和“重大创新”周期的方式运行着。微创新每个小时、每天、每周或每年都在发生。但重大创新周期大约为二十年。每二十年就会有一个庞大而基础性的变革。它不仅改变了我们的行业,还通过所有其他企业和行业来改变我们的工作、生活和娱乐方式。我们正在进入下一个重大创新周期。
从70年代中期到90年代中期,大型机终端和主机模式是进行业务创新的平台。 IDC称其为第一个创新平台。而第一个平台所使用的网络是专用线路和SNA。
二十年后,在90年代中期,我们开启下一个重大创新周期。第二个创新平台是客户端 -服务器以及局域网/广域网。因此,我们转向IP网络。当然,所有IP网络中最知名的是互联网。1995年,大约有互联网用户1600万,网站(但无法在线交易)2700个,移动用户不超过1亿……尽管大多数的连接采用拨号方式,但是移动设备无法连接到互联网。
但在未来20年里,互联网将改变各个行业。
如今,云计算、移动、社交和大数据让我们看到第三个创新平台的崛起。而且,这一平台所带来的压力和机会将再次改变一切。 Gartner表示,每个业务都将数字化。这一切需要一个新的网络来支持它。旧IP不是为第三平台而设计的,难堪重负。我们需要一个新IP。
如今,互联网用户达到20亿,在线交易网站10亿个,爆炸级数据的移动用户。我们从连接地方转为连接人和物体,几十亿甚至万亿个物体。这些物体也会产生和使用数据。而且您要保存、管理、移动并分析数据。
阿里巴巴或者百度等云运营商的创新速度以及低交付成本与传统运营商和IT部门之间拉开了很大的相关性差距。最终用户每天都会绕开他们直接从云端购买IT服务和应用。用户对自助服务、交付和创新步伐的期望越来越高。但网络和IT架构已经过时,而且从来没有考虑满足这些需求。
这种相关性差距导致了越来越高的压力。但是,如果您的预算仅够支持维护现有网络,没有余钱……更没有重新设计它的时间。随着创新移向云或是能在虚拟化基础架构上快速迭代的小型开发运营团队,您的事业可能停滞。您希望成为业务创新和价值的驱动因素。您希望满足用户不断变化和不断增长的需求,并提供自助服务工具,从事如今云服务商所做的工作。那么旧的体系结构让您的梦想难以实现甚至无法实现。
20年前,我们并没有预测到一切事物位于云端、应用虚拟化、万物移动化、物联网还有大数据。而且我们也从没有想到黑客和安全问题。
旧IP曾经为我们提供令人难以置信的优质服务,我们见证了它的优雅和弹性。我们并不需要抛弃它、远离它。我们需要用基于20年来的经验教训和动力建立新IP。我们需要为这个时代、为数字业务,也为第三平台的需要以及独特的压力来设计新IP。
新IP
什么是新IP?新IP就是针对现代化世界重新构想旧IP,旨在满足云计算、移动、社交和大数据的需求。新IP包括硬件和软件。而且它拥有业务和技术优势。
让我们比较一下我们如今的成就和新IP的承诺,然后说说这种转变所带来的优点和影响。
旧IP基于封闭的专有系统,创新周期受到定制硬件的限制,需要手动配置网络资源并且很困难。安全性是螺栓式的,互操作性是通过标准实现,厂商是生态系统的中心,成本很高,并且创新很慢。
新IP基于开源,采用商品硬件和商用芯片,并自动配置网络资源和自助服务。安全是内置的,互操作通过开放API实现,客户是生态系统的中心,资本支出和运营支出更低,创新与业务发展同步。
新IP还带来一些令人惊奇的事情。
新IP是一个基于您的时间和条件而建立的现代化网络。(文/博科中国系统工程师总监张宇峰)
好文章,需要你的鼓励
据报道,OpenAI正与亚马逊洽谈至少100亿美元的融资。亚马逊此前已是Anthropic的最大投资者,并为其建设了110亿美元的数据中心园区。若融资达成,OpenAI将采用AWS的Trainium系列AI芯片。Trainium3采用三纳米工艺,配备八核心和32MB SRAM内存。AWS可将数千台服务器连接成拥有百万芯片的集群。报道未透露具体估值,但OpenAI最近一次二次出售估值已达5000亿美元。
伊斯法罕大学研究团队通过分析Google Play商店21款AI教育应用的用户评论,发现作业辅导类应用获得超80%正面评价,而语言学习和管理系统类应用表现较差。用户赞赏AI工具的快速响应和个性化指导,但抱怨收费过高、准确性不稳定等问题。研究建议开发者关注自适应个性化,政策制定者建立相关规范,未来发展方向为混合AI-人类模型。
各行业企业存储的数据量持续攀升,5PB以上已成常态,10PB以上也日益普遍。2026年非结构化数据管理的主题是全面增长:更多数据、更多投资、更多痛点以及更多AI安全风险。AI应用加速普及、数字化信息激增以及富媒体和传感器数据大幅增加推动了数据增长。随着AI推理应用的发展,企业将意识到非结构化数据管理对AI投资回报率的关键作用。
这项由伊利诺伊大学香槟分校等四所院校联合完成的研究,提出了名为DaSH的层次化数据选择方法。该方法突破了传统数据选择只关注单个样本的局限,通过建模数据的天然层次结构,实现了更智能高效的数据集选择。在两个公开基准测试中,DaSH相比现有方法提升了高达26.2%的准确率,同时大幅减少了所需的探索步数。