4月14日,全球权威咨询机构Gartner发布了2021 Gartner Peer Insights “Voice of the Customer”报告。基于终端用户和专业人员对产品和解决方案的反馈和评价,山石网科以4.8分(满分5分)的客户评分,连续两年获得网络防火墙“客户之选”荣誉称号,成为全球仅有的五家、中国仅有的两家获此殊荣的厂商之一。同期入选的其他四家企业分别为:Juniper NetWorks、华为、Fortinet、Palo Alto NetWorks。
连续两年,强势上榜
2020年,Gartner首次发布Peer Insights网络防火墙“客户之选”报告。想要入选报告并获得高分,厂商须满足多项条件:Gartner在Peer Insights客户点评服务平台上收集的众多网络安全厂商客户的真实评价,每一条客户点评都要经过专业审核团队筛选,以保证点评专业可靠,真实反映产品情况。此外,作为面向全球的点评平台,Peer Insights上的点评代表着全球客户对防火墙的多维度的需求,更具参考价值。
简而言之,入选该报告的厂商,不仅要有相当数量的有效点评,还必须满足客户规模、行业分布、全球客户区域分布等方面的要求。2020年,山石网科作为中国唯一一家、也是全球仅有的5家入选厂商,客户评分高居全球第一。今年,山石网科再次凭借先进可靠的产品、专业真诚的服务,以高分斩获该荣誉称号。
防火墙系列作为山石网科的拳头产品,一直广受业界认可。山石网科已经连续七年入选Gartner发布的《全球网络防火墙魔力象限报告》,在2021年的“前瞻性”(Completeness of Vision)上领跑国内厂商;连续八年获得Gartner《网络安全技术成熟度曲线报告》推荐,成为报告中全球仅有的8家、国内仅有的2家网络防火墙代表性厂商之一。
目前,山石网科业务已覆盖中国、美洲、欧洲、东南亚、中东等50多个国家和地区,行业遍布金融、政府、运营商、互联网、教育、医疗卫生、能源等,并在海内外均设有强大的服务团队,以365×7×24的全天候安全服务,为累计超过20,000家客户提供高效、稳定的安全防护。山石网科通过多年坚持的精品战略路线,持续投入技术打造品类精品,并提供快速响应全天候服务,赢得了来自客户的广泛好评。优质的产品和服务为山石网科带来了全球客户的青睐和好评。
前瞻未来,持续创新
一直以来都以高性能、高可靠、高冗余著称的山石网科防火墙系列产品,在业界拥有良好的口碑。尤其是在对防火墙性能和可靠性要求最为严苛的金融行业中做到业务的基本覆盖,产品的性能与质量可见一斑。作为立志成为数字世界发展的一流守护者的技术创新领导厂商,山石网科也在持续创新,不断拓展企业服务的边界。目前,山石网科已拥有8大品类,30余个系列的网络安全产品,这些产品可以与防火墙高效联动,形成全方位、更智能、零打扰的网络安全解决方案,为客户提供FWaaS(防火墙即服务)。
连续两年获评“客户之选”称号,既是对山石人莫大的鼓励,也是对山石人的鞭策——山石网科首席技术官兼联合创始人刘向明表示“网络安全是企业越来越重视的问题。我们的工作是倾听客户的意见,创造出符合他们需求的产品。山石网科自创立之初,就秉承着‘为您的安全竭尽全力!’的使命,以合理的成本为客户配置全方位、更智能、零打扰的网络安全产品和解决方案。山石网科连续两年在Gartner Peer Insights报告中获得同行和客户的认可,是企业的最高荣誉。”
未来,山石网科仍将以技术的信仰者的身份,践行可持续安全运营技术理念,为用户提供更加先进、可靠的安全产品,更加周到、全面的服务,让每一个用户的网络都安如泰山、坚如磐石。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。