至顶网网络与安全频道 11月26日 编译:Palo Alto Networks已经签署协议以1.5亿美元全现金交易的方式收购云安全初创公司Aporeto。
成立于2016年的Aporeto公司提供了一个零信任的云安全平台,该平台通过分析来自任何可用系统的工作负载元数据和用户身份数据自动生成身份。零信任是一种越来越流行的安全模型,基于严格访问控制以及在默认情况下不信任任何人(即使是那些已经存在于网络中的人)的基本原理。
Aporeto通过基于白名单的安全方法提供零信任。Aporeto公司联合创始人Amir Sharif曾在2017年表示,Aporeto的解决方案面向所有应用组件实现端到端的身份验证、授权和加密,包括虚拟机、容器和微服务。
Sharif表示:“这么做可以让安全性在任何位置都是跟随应用的,不管是在哪种网络架构中,包括让WAN分布于不同的云中。由于Aporeto的安全性已经嵌入到基础设施中,因此安全性对开发人员而言是不可见且不受干扰的,从而让开发人员可以快速行动并专注于核心功能,而不必将精力用于满足安全性要求的繁琐工作上。”
Aporeto给Palo Alto Networks带来了一系列客户,包括Comcast Ventures、Bart、British Columbia、Informatica和Exact Transactions。
在被Palo Alto收购之前,Aporeto已经筹集了3450万美元的风投资金,投资方包括Norwest Venture Partners、Data Collective、Telia Ventures、National Grid Partners、Comcast Ventures和Wing Venture Capital。
对于Palo Alto Networks来说,此次收购将有助于加强自己的Prisma Cloud功能。预计该交易将在第二财季完成。
而且,此次收购也是Palo Alto Network在不到两年时间内的第七次收购,此前的收购包括:9月5日收购Zingbox,4.75亿美元;5月29日收购Twistlock(4.1亿美元)和PureSe;2月19日收购Demisto,5.6亿美元;2018年10月收购RedLock,1.73亿美元;2018年4月收购Secdo,1亿美元;2018年3月收购Evident.io,3亿美元。
在公布这一消息的同时,Palo Alto Networks公布了截至10月31日的第一财季财报。
该季度Palo Alto Networks的收入为7.719亿美元,较去年同期增长18%;净亏损为5960万美元,合稀释后每股收益62美分,去年同期亏损3830万美元,合稀释每股收益41美分。除诸如股票补偿等费用的利润从去年同期的1.154亿美元降至1.048亿美元,或稀释后每股1.05美元。
Palo Alto Networks预计第二财季收入在8.38亿美元至8.48亿美元之间,总收入将在9.85亿美元至10亿美元之间。扣除收购Aporeto的净支出,预计调整后每股收益为1.11至1.13美元。
Palo Alto Networks预计整个2020财年的收入为34.4亿美元至34.8亿美元,现金收入为41.05亿美元至41.65亿美元,调整后每股收益为4.90美元至5美元。
尽管收益超出市场预期,但投资者对下个季度的指引感到失望,分析师此前预计第二财季每股收益为1.30美元,远高于Palo Alto估计的1.13美元至1.15美元,此外全年预测也低于分析师普遍预期的每股5.07美元。
截至美国东部时间晚间7:30,Palo Alto Networks股票在盘后交易中下跌了8.5%至229.10美元。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。