10月11日,HUAWEI CONNECT 2018(华为全联接大会)上,华为云与迈克菲(McAfee)、RSA、Rapid7等世界级安全巨头达成合作,就云安全测试、代码审计、api扫描、入侵防护、业务风控、及风险治理领域达成合作,并发布了云堡垒机服务、云安全测试等多款合作产品,再次表明了华为云愿与合作伙伴共建云安全生态,共同培育、发展、分享云安全市场的决心。
华为云安全总经理杨松表示,安全业务天然具有开放性,因为在复杂多变的IT环境、云环境下,安全问题多种多样,没有任何厂商能够解决所有安全问题,做完所有安全领域。比如像公众熟知的DDoS攻击,各种安全联盟的建立,共享威胁情报和技术能力,才能更好的对攻击进行发现、防御和溯源,服务用户。联手建立安全生态,是这个安全行业必然的选择。
华为云通过集成合作、技术合作、应用超市等方式进行安全生态的建设,对优秀的安全厂商,华为会提供资源,对好的技术和产品进行集成和合作开发,如今年与云安宝联合发布的云堡垒机服务;对少量用户刚需的安全产品,则在考虑自身优缺点、资源和技术的基础上,进行关键技术研发投入;对愿意与华为云一起成长的广大安全厂商,则提供安全超市,为厂商导流的同时,满足用户差异化的安全需求。目前,华为云已与多家国内外优秀安全厂商展开深度合作,为客户提供数百款云安全服务。
在技术合作方面,华为云致力于与业界优秀的安全产品与服务合作伙伴合作,为用户提供主机安全、网络安全、数据安全、应用安全、安全管理等各领域的产品和服务。华为云已与合作伙伴联合推出了云堡垒机、主机入侵检测、Web 应用防火墙、主机漏洞检测、网页防篡改服务及渗透测试等服务,提升了华为云的安全检测、感知及防御能力。
在云安全咨询服务方面,华为云寻求与各行业优秀厂商开展深度合作,为金融、政务、交通、制造等行业开发安全解决方案,同时,华为云与全球400多家解决方案伙伴合作,包括 Accenture、SAP、Infosys、ESI 等,帮助用户设计行业安全解决方案及商业模式,加速行业数字化转型。
在市场机会方面,首先,为伙伴提供Marketplace,帮助伙伴展现自己的产品、解决方案和服务,与华为云共享云上潜在客户和销售机会,提升销售、交付和维护环节的效率,降低业务经营成本;其次,合作伙伴可以借助华为遍布中国的云服务资源网络,将业务部署到全国。特别优秀的合作伙伴,还将有机会跟随华为云的全球化发展步伐,拓展海外市场;再次,华为已经同政府、教育、医疗、交通、制造、能源及大企业等市场建立了广泛、全面的合作关系,华为云将开放这些市场资源给合作伙伴,帮助合作伙伴创建新的安全产品和安全解决方案,在保障行业客户数字化转型的同时,实现客户、合作伙伴和华为的共赢;最后,华为云安全合作伙伴将有机会参加华为公司的各种线上及线下的品牌营销活动,展示产品解决方案、传播成功案例;随着合作的深入,还将有机会与华为云进行联合品牌营销活动、面向客户的联合解决方案发布等。
在技术支持方面,首先,华为云将赋能合作伙伴,帮助伙伴实现产品云化和服务上云;其次,向合作伙伴开放技术接口,支持合作伙伴开发面向各行业客户的安全方案;再次,华为云也逐步开放自己的安全技术能力和安全工程能力,通过培训、认证、开发接口、技术文档、安全标准、流程规范、安全测试等多种方式赋能给合作伙伴;最后,华为云将在法律法规和客户许可的前提下,促进合作伙伴间的安全情报共享和互通。
除此之外,华为云还在云安全标准、开源社区积极参与、主动贡献,为云计算产业健康发展贡献力量。
杨松说,华为云在安全等问题上一贯持开放、透明、自信的心态,并一如既往地、反复地表明华为云愿与合作伙伴共建云安全生态,共同培育、发展、分享云安全市场的决心。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。