8月28日,华为云中国行成都站召开,华为云国内首家推出了Istio服务网格产品,该产品与CCE容器引擎深度整合,提供非侵入、智能流量治理的应用全生命周期管理方案,增强了华为云容器服务全栈能力。
在云原生的Cloud 2.0时代,容器技术解决了应用快速部署、上线、升级与弹性伸缩等运维效率问题,但应用运行时的灰度发布、流量治理与健康管理等方面仍存在诸多难点。Istio是云原生Cloud Native生态的重要一环,通过提供完整的非侵入式的微服务治理解决方案,能够很好地解决云原生应用的管理、网络连接以及安全管理等应用网络治理问题。
华为云在云容器引擎CCE中深度集成了Istio最新版本,并在易用性、可靠性、可视化等方面进行了一系列增强,为客户提供开箱即用的上手体验,业界标准化的金丝雀、A/B测试等灰度发布最佳实践,以及包括应用全景拓扑、可视化流量治理、智能路由、弹性流量管理等技术在内的全面应用治理能力。胡维琦表示,华为云持续创新,为政企客户提供稳定可靠、安全可信、可持续演进的云服务,携手客户与伙伴,助力四川各行各业快速发展。
一键启动,与容器引擎无缝整合
区别于业界公有云由用户自行安装的做法,华为云容器引擎CCE已实现Istio的深度集成,只需在创建集群时做一次简单勾选,即可在集群和应用中启用完整的Istio服务网格,实现了开箱即用。
内置多种灰度发布流程,确保应用平滑升级
当应用上线以后,运维面临的一大挑战是如何在不影响已上线业务的情况下进行升级,华为云Istio服务网格内置了金丝雀、A/B Testing等多种灰度发布策略,完美地解决了这一难题。用户还可自定义配置,实现更多复杂流量策略。
基于请求内容/浏览器/OS的分发:
基于流量比例分发:
图形化应用拓扑,让流量治理可视化
华为云Istio服务网格提供了可视化的流量监控,异常响应、超长响应时延、流量状态信息拓扑等一目了然;同时,结合华为云AOM/APM服务,提供了详细的微服务级流量监控、异常响应流量报告以及调用链信息,实现更快速、更精准的问题定位。
智能路由与弹性流量管理,让流量治理更轻松
华为云Istio服务网格支持根据微服务的流量协议,提供策略化、场景化的网络连接、安全策略管理能力,支持基于应用拓扑对服务配置负载均衡、服务路由、故障注入、熔断容错等治理规则,并结合一站式治理系统,提供实时的、可视化的微服务流量管理。应用无需任何改造,即可进行动态的智能路由和弹性流量管理。
目前Istio服务已在华为云的云容器引擎CCE中开展公测,您可以访问以下地址申请试用: https://console.huaweicloud.com/cce2.0/?region=cn-north-1#/app/istio/istioPublicBeta
HUAWEI CONNECT 2018作为华为自办的面向ICT产业的全球性年度旗舰大会,将于2018年10月10日-12日在上海隆重举行。本届大会以“+智能,见未来”为主题,旨在搭建一个开放、合作、共享的平台,与客户伙伴一起共同探讨如何把握新机遇创造智能未来。欲了解更多详情,请参阅:https://www.huawei.com/cn/press-events/events/huaweiconnect2018?ic_medium=hwdc&ic_source=corp_banner_allwayson&source=corp_banner
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。