至顶网网络与安全频道 12月12日 综合消息: 今天,我们来说一说启明星辰飞腾等保一体机——国内首家国产化等保一体机
坚守技术创新 释放中国能量
先来聊聊国产化。
互联网飞速发展的30年间,网络攻击逐渐走向复杂化,一次次安全事件和动荡的国际局势不断将“网络安全国产化”拎出来,让全世界都看到了掌握核心技术的重要性。
将网络安全系统和国产化软硬件平台特性结合,在技术上和工程上都有一定的挑战性。国产化一体机不同于原有的等保一体化安全系统,现有的国产化硬件平台,无论是CPU架构、指令集还是主板固件,和原X86体系都存在差异。虽然国产化操作系统提供了具体硬件细节的隔离抽象,但为了推出更好的产品,最大化发挥国产化硬件平台的能力,启明星辰重新设计规划安全业务系统,并在国产化处理器中内置了可信加密的功能。
此次发布的启明星辰飞腾等保一体机是国内首发的国产化等保一体机产品,核心部件处理器和安全操作系统均实现自主化。同时,在其他具有运算、存储的核心部件方面,也已采用或正在适配自主化的部件,如拥有自主知识产权的网络处理器、自主化的紫光华芯内存、自主化的大唐存储固体硬盘等。
启明星辰自成立之初,秉着打造一流的信息安全民族品牌的理念,着手研发拥有自主知识产权的入侵检测技术,并发布全球首款硬件入侵检测系统(IDS),这是国内网络安全自主关键技术的一次突破,之后发布国产化防火墙、国产化安全网关(UTM)、国产化入侵防御、国产化视频安全网关等多款安全产品,已成为信息安全国产化领域的龙头企业。
凝心聚力筑等保之墙
再来说说等保。
网络安全等级保护制度是我国网络安全领域的基本制度,1994年到2019年12月之前,我们称之为等保1.0时代,随着云计算、大数据、物联网、移动互联网和工业控制信息系统等新兴技术的发展,网络安全需求变得更加繁杂多变,因此,等保制度在今年12月1日应运升级至2.0时代。
等保2.0相关政策法规的颁布,对如何保护信息资产有了具体的要求,明确规定了等保相应体统从实施,运维、升级整个周期都要有安全产品技术支撑。国产化等保一体机是为具有等保需求的客户量身设计的产品,它在满足业务和法规需求的前提下,可以有效提高安全运维效率,同时,在系统可信和供应链安全方面,也具备独特的优势。
启明星辰从等保1.0开始,对相关法规和市场做了大量调研,推出了等保安全产品解决方案,在等保2.0制定过程中,启明星辰也成为了唯一全部参与等保2.0三个部分(基本要求、测评要求、安全设计技术要求)起草单位的安全厂商。随着飞腾,申威等国产化处理器逐步成熟,同步启动了国产化网络安全设备的研发,并在5年前投入技术力量设计可弹性扩展的软硬件架构,启明星辰飞腾等保一体机就是上述技术研发的成果之一。
启明星辰飞腾等保一体机平台基础系统是自主研发、具备软硬件多重加速能力的高性能网关系统,承载的不仅仅虚拟化平台能力,它还可以通过巧妙的流量编排集成到安全服务拓扑中,配合其他安全虚拟机形成独特的轻量级、高性价比的一站式等级保护解决方案。此解决方案的优势在于能够至少减少一个虚拟网元在虚拟化过程中对整机资源损耗,同时还将服务链中的防火墙能力提升到硬件防火墙级别。即便是不使用平台基础系统的防火墙能力,经过精细定制、多方面优化后的系统也能将硬件的能力利用到极致。
认真做安全 认真做产品
启明星辰飞腾等保一体机,除了自主研发产品自带的国产化基因,还具备高性能、高可靠性、简化运维、灵活扩展的能力。
高可靠性
启明星辰飞腾等保一体机平台基础系统是自主研发的安全系统,系统本身的安全加固已做到极致,在防御针对宿主机平台的攻击方面有天然优势。同时,它还具备细粒度处理虚拟机之间流量的强大能力,以及集群部署的能力,极大的提高了等保一体机的可用性。
简化运维
与传统的安全建设不同,启明星辰飞腾等保一体机天然具备了完善的综合安全运维监管能力,可以一步轻松实现对不同安全资源的管理,真正达到解放管理员双手、使运维更简单的效果。
灵活扩展
等保要求在逐年变化,防护手段也随之变化,等保一体机解决方案具备的强大可扩展性为的就是适应这样的变化,首先等保一体机的安全网元可以无限扩展,其次安全服务拓扑可以按需组网,千变万化的能力足以应对任何的网络架构要求。
网络信息化已经深度渗透到社会生活生产的各个方面,信息资产的重要性也越来越重要。随着等保2.0政策法规的落实,网络安全产品国产化将成为大势所趋,启明星辰将继续以过硬的技术优势和自主创新精神,推动国产化快速向前发展,帮助用户提升网络安全能力,轻松实现等保2.0建设的要求。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。