为了成为一个一应俱全的物联网基础设施提供商,思科将不得不在软件上下大功夫,以做到软硬兼备,不断的变革仍是其最大的挑战。
日前,思科CEO Chuck Robbins向媒体展示了思科最新的合作伙伴和物联网技术。在Robibins看来,仅仅是靠卖作为互联网基础的硬件,物联网潜在的财富将超过数十亿美元。
“我认为这(IoT)比第一波互联网还要强烈,且的确如此。”Robbins如是说。
确实,根据IDC报告显示,到2020年,全球IoT市场将会从去年的6558亿美元增长到1.7万亿美元。一部分预计收入将来自于像思科这样销售交换机 和路由器这样的公司,直接与物联网设备联通,包括智能手表、电视、家用恒温器、制造机器人、医疗设备、石油和天然气管道等。
不过更多的财富等着提供IoT软件的公司来挖掘,比如分析大量数据用于商务智能,Robbins说道。且对于客户来说有价值的将是能够发现和阻止网络攻击的技术。
思科计划包揽这些——硬件、分析以及安全。不过Forrester分析师Andre Kindness称,目前该公司还没有显示出它可以开发顶级软件分析和安全的能力。
“我不确定他们是否真正理解软件端,可以足够快地完善所有建设,”Kindness说道。
如Kindness所说,对于思科来说建设速度是非常关键的,因为思科面临着很多以软件为核心业务的竞争对手,比如Amazon、谷歌。
思科在IoT软件方面所做的努力
为了尽快完善其软件建设,思科向开发者开放其网络设备。去年,该公司开始着手DevNet项目,让网络工程师和开发者一同构建软件。
日前,思科推出DevNet实验室项目,旨在吸引DevNet社区以外的开发者加入到进来一同开发软件。
这都是思科通过收购扩展其软件方面能力所做的努力。早在2013年,思科以27亿美元收购安全公司Sourcefire。同样是2013年,为了启动软件定义网络平台建设,思科染指其附属公司Insieme Networks。
鉴于还要构建IoT、云计算和安全产品,思科的疯狂收购还远没有结束。“我们还将继续进行收购,”Robbins说道。到今天思科的收购已超过190起。
为了见证其在交付物联网技术方面取得的进步,思科介绍了一系列的合作伙伴,其中包括机器人制造商FANUC。合作伙伴建立一个平台,能够分析机器人的行为,在宕机前发现麻烦。
该系统正在FANUC客户(包括汽车制造商通用汽车、高科技制造商Flex)使用的1800个机器人上测试。在过去的六个月中,FANUC客户通过避免宕机节省了3800万美元,根据Robbins的说法。在今年年底,FANUC计划扩展到2500个机器人进行测试。
另外一个合作伙伴是施耐德电气公司。两家公司共同构建了一个软硬兼备的系统,来监控石油和天然气管道中可能造成破坏的潜在问题。
这种强势联合代表了思科在与大型技术供应商打交道方面的优势,不过他们不太可能与像Amazon、谷歌这样的互联网公司进行合作,Kindness说道。后者善于打破商业模式,因而该行业的主流技术提供商们不愿向其开放软件。
“思科拥有政治和地缘优势,”Kindness说道。
比如,在2014年,谷歌以32亿美元收购了智能恒温制造商Nest,帮助该互联网巨头立足智能家居市场,使谷歌一举成为其他设备制造商的有力竞争者。
Robbins认为IoT是思科自1990年起最佳的增长机会。当然,为了真正能做大做强,新的CEO还需要完成Chambers已经开始着手的举措——将思科向软件公司进行过渡。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。