作者:曹图强 思科全球副总裁、大中华区 CTO
一片嫩叶,汲日月精华,沐春秋雨露,汇山水灵性。一朝脱离大树,便需要经过杀青、揉捻、烘干、渥堆、压制等等一系列脱胎换骨的考验,方百炼成茶。再静静地历经岁月,转化出弥久醇香。最后经沸水冲拂,热烈中,舒展沉浮,一吐芬芳。
“禅茶一味”,越是看似简单的东西,越有无比深刻的内容。茶如此,人如此,企业亦如此。
从最初的 “多协议路由器” 到如今的 “万物互联”,过去 30 多年,思科几乎成了 “互联网” 的同义词。思科的软硬件系统承载着全球 80% 的互联网通信,在进入的每一个领域都成为市场的领导者,创造着一个又一个技术传奇。
大浪淘沙。我始终认为,支持思科成功的根本,源于对 “互联网” 本质的深刻理解,以及对 “万物互联” 这一未来发展方向的把握。这两者相辅相成,如同分别握着 “显微镜” 和 “望远镜” 的两只手。“显微镜” 观战术、现本质:明察秋毫、见微知著;“望远镜” 看战略、指方向:高瞻远瞩、洞察未来。
那么,“互联网” 的本质是什么?“万物互联” 又是什么呢?
用中国人的汉字来回答这个问题,最为精辟易懂。
什么是 “互联网”?互联网就是 “网、联、互”。
· “网”:即物理的相互连通,强调的是节点和节点之间的连通,网络就是节点和节点之间的关系的总和;
· “联”:即网络节点是智能节点,要有广义的计算能力,能够处理、存储和发布信息;
· “互”:即交互关系;物理上连通的智能节点之间要在各个层面互动起来。网络建立关系,关系产生价值。
观察思科的成长轨迹,我们可以更直观地理解 “网、联、互”。
· 从创立到今天,思科推出了一系列的路由器、交换机等产品,一直推动着世界的广泛连接——“网”;
· 2009 年起,思科推出了 UCS 和数据中心网络,正式挺进网络计算 ——“联”;
· 32 亿美金收购 WebEx,34 亿美金收购 TANDBERG 等等大手笔,以及对 “云” 的密集部署,都是致力于提高基于网络的交互能力——“互”。
思科不断演进的企业网络、数据中心、协作等产品架构,是“网、联、互”的经典范例。
因此,也可以说,理解了互联网就理解了思科。
如果说过去的思科致力于 “互联网”,现在的思科则致力于 “万物互联”。在思科看来,互联网和物联网(IoT)的未来就是万物互联(Internet of Everything,简称 IoE),就是通过 Internet 连接人、流程、数据以及万物(Networked Connections of People, Process, Data, Things)。
思科倡导的 “万物互联”,几乎成为目前物联网领域出镜率最高的术语了。
同样,用 “网、联、互” 来分析 “万物互联”,又会有怎样的解读呢?
对 IoE/IoT 而言,“网”,这个万物互联的基础,将呈现出更加多样化的格局,新技术、新协议、新方式层出不穷。思科布局低功耗无线技术,6LowPan、LoRA 以及各种工业低功耗无线,正是致力于给 IoE 的应用提供成熟可靠的接入技术和产品。
在“联”的层面上,思科创新性地提出了Fog Computing(雾计算)的概念和架构。未来无论IoE/IoT的智能终端节点的网络拓扑结构如何,这些智能节点都需要通过一个被称为“现场计算”(Field Computing)的网络节点互联到互联网,并进一步联接到云端。这个现场计算的节点,就是雾计算节点。通俗理解的话,可以说 “云在天边,雾在身边”。雾计算在IoE/IoT网络现场,承担着多协议网关以及多业务网关的作用,是物联网中分布式计算和智能的重要组成部分。
最后是 “互”,IoE/IoT 的特点决定了 IoE/IoT 总体架构必定是一个 “云” 架构,“万物” 通过 “雾节点” 接入互联网,并在云端进行丰富的交互。在云端,如此大规模的业务接入,如此频繁快速的业务部署和变化,如此巨量的计算和服务需求,都要求 “云” 本身和“云”网络更加具备 ASAP 特性:Analyze(分析),Simplify(简单),Automate(自动化)和 Protect(保护)。
万物互联,看似复杂实则简单,万物互联就是 “网、联、互”;
万物互联,看似简单实则深刻,万物互联里蕴涵着巨大能量;
未来已来,时不我待。 唯有把握时机,以变应变,以创新促变革。尽管 “路漫漫其修远兮”,我辈将上下求索,永不止步!
万物互联正当时!
思科全球副总裁、大中华区 CTO
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。