6月28日至30日,2017世界移动大会(上海)在上海新国际博览中心举行,烽火以“云网时代 携手未来”为主题,展示对运营商数字化转型的洞解和面对5G网络发展的全新解决方案,围绕5G联接、云网一体、数字应用的三大展示亮点不容错过。展会同期,烽火还将发布“5G联接 云网承载”面向5G时代的“FitHaul解决方案”,携手客户、合作伙伴共同开启5G时代、共享协同的美好未来。

亮点一:5G联接 势在人为
5G是万物互联的基础,烽火展示了对5G如何推动运营商网络转型的理解、5G关键技术最新进展、面向5G的承载网络解决方案、5G网络下的有线无线融合发展、5G无线接入网解决方案以及5G安全势态感知等精彩内容。

5G时代业务承载对网络提出超大带宽、超低时延、超高精度、网络切片、灵活组网等一系列诉求,以适应eMBB、uRLLC、mMTC三种典型应用场景。同时,随着新的业务应用,网络架构向以DC为核心的云化网络架构进行演进,承载网需要通过引入新的前传、回传组网方案以及核心技术去实现了更低时延、更高精度、更灵活的业务承载。
“5G联接 云网承载” 面向5G时代的“FitHaul解决方案”传承了FitNet泛在、超宽、极简、随需的四大特点。通过一体化设备实现前传、回传多业务接入;自研模块、硅光芯片、FlexE等多种核心技术赋予超宽管道绿色节能、超低时延、超高精度的新含义; FlexE实现业务的归一化承载,SDN和SR实现网络面向客户敏捷业务服务提供,让网络极简化;通过SDN、NFV协同云网,业务随需调度。
亮点二:云网一体 共享协同
ICT技术的融合已发展到“云网一体”的新阶段,烽火FitCloud云网一体解决方案,融合视讯解决方案,面向5G的融合数据中心解决方案,助力客户实现信息共享,应用协同。

FitCloud云网一体解决方案基于烽火FitOS云平台,通过开放API接口上承应用,下承SDN和NFV技术,为SDN和NFV所需要的虚拟运行环境提供支持。对接基础设施网络,形成云网一体的超融合架构。烽火在原有领先的光通信和数据通信业务单元积极拥抱SDN/NFV技术发展,推出了FitServer服务器、FitStor存储、FitNet网络及FitSec安全等一系列新产品,有力推动信息技术产业的变革。
视频作为数字化时代运营商业务发展的重要驱动要素,烽火融合视讯解决方案实现业务类型融合,同时对视频业务与互联网内容进行加速与分发;流媒体协议融合,能支持多种媒体编码和播放协议;固移网络融合,自动适配不同的终端和屏幕。云端可聚合各种公有和私有云资源,并通过标准化接口与CDN进行对接。同时通过与NFV共享数据来实现CDN全局均衡策略。针对移动流量的爆发,CDN节点进一步下沉到宏站,进行异厂家密集混合组网,快速弹性部署,提供零距离的用户体验。
融合数据中心解决方案可提供从调研、设计、建设、验收、评估到运营运维的端到端全生命周期服务。数据中心模块化,减少了60%的交付时间,FitOS云平台实现对资源的按需调用,使用FitInsight数据分析工具,可提供数据可视化、业务预测、决策支持等。
亮点三:数字应用 驱动未来
基于5G的技术支撑以及FitCloud云网一体化战略,烽火提出Smart ICT 2.0下智慧城市整体解决方案,聚焦善政、惠民、兴业三大类数字应用,重点展示了智慧政务、智慧园区、智慧体育等惠民应用,以及光电产业云、慧创云(创新创业平台)等内容,通过智慧应用,构建更美好的未来。

烽火智慧城市整体解决方案覆盖智慧城市项目的咨询、设计、实施、运营、持续优化的全生命周期,定位于“四者”:智慧网络和智慧平台的提供者、智慧应用的提供和聚合者、智慧城市标准的先行者、健康生态的倡导和实践者。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。