2018年2月1日,应用交付领导厂商F5公司一年一度的核心媒体沟通会在北京举行。会上,F5中国区总经理张毅强先生、F5大中华区首席技术官吴静涛先生、F5中国区市场总监王学军先生分别从各自专长的领域入手,与媒体来宾分享了F5公司在过去一年中的成长,以及对2018年应用服务行业发展趋势的展望。
深耕细作,稳健增长
在回顾2017年F5中国区成绩时,张毅强先生讲到:“在2017年中,F5中国一直保持了持续、稳健的业务增长。这份亮眼的表现主要源自F5在解决方案、行业市场以及合作伙伴三方面的深耕细作。在解决方案领域,F5自16年末就敏感的把握到云、IOT以及自动化运维的多个商机,并提前布局解决方案的研发,这就使我们能够在第一时间满足用户的需求。在行业方面,F5在过去强势的金融、电信领域持续深挖,在城商行、电信级云应用中均取得了突破。在合作伙伴方面,F5更是取得了长足的发展,尤其是通过与华为、电信云等国内领先企业的合作,使F5能够为国内用户带来更加定制化与灵活的应用服务解决方案。”
数字化转型进行时
从2017年初,F5公司就提出了现在全球企业都在经历数字化转型的概念,这一结论在2017年5月的“应用交付高峰论坛“中,更得到了广大用户与合作伙伴的认可。张毅强先生指出:“在F5看来,数字化转型是众多企业都在致力于通过IT技术、数字化新型技术重新梳理、甚至重新创造企业的架构与业务模式,从而更好地为最终用户提供更有价值的服务。这种转型是技术演进与用户需求互相作用下的结果。举例而言,十一年前iPhone第一代产品问世的时候,恐怕我们很难想象今天用户与应用互动的形式会发生如此大的转变。在今年F5发布‘2018年应用交付现状报告’中,超过3600名亚太区的IT从业人员参与了调查。其中55%的受访者表示由于数字化转型,他们正在考虑重新编排IT架构与交付流程;49%的IT从业人员为应对这一转型,正在将企业的部分应用迁移至跨云环境中。在我国,随着国家对物联网、大数据以及人工智能领域政策性发展指导的颁布,势必对企业数字化转型起到更大的推动作用。而在这些领域,F5已经从应用服务方面准备就绪。”
立足本土,初心不变
在活动中,F5公司大中华区首席技术官吴静涛先生与到场来宾分享了2018年的部分规划。吴静涛先生表示:“数字化转型的大背景下,由于直接与最终用户产生互动,应用服务一定是首当其冲受到挑战。对于技术发展的趋势,F5已经与合作伙伴一道进行了深入分析,并从宏观与微观领域进行了准备。在宏观上,面对物联网、大数据、云计算这样的国家级产业,F5已经从接入管理、应用优化以及应用安全管理等多个角度开发了相应的解决方案。在智能编排、DevOps等微观领域,F5也早已有了一整套面向容器环境、微服务等方面的解决方案。为了更好的服务国内用户,不同于由于税收降低而纷纷回流的其他美国企业,F5将增加在中国‘本土生产、本土研发、本土服务’这三方面的人力、物力投资。这就可以使F5能够更加紧密的和中国合作伙伴进行深入合作,从而为用户提供更符合使用特性的应用服务解决方案。
在会议的最后,张毅强先生着重指出:“F5是一家技术型公司,但不止是一家技术型公司。不同于往年,今年的媒体见面会在红丹丹文化交流中心举办,旨在通过体验视障人士一小时的黑暗生活,使我们在感受他们的坚强同时,能够献出我们每个人的一份爱心。这样的公益活动,F5中国已经坚持了近10年,因为我们相信公益不是一个人做了一件大事,而是很多人在做一件小事。我们希望把这份理念传递给更多志同道合的朋友,使更多人能够在公益事业上贡献一份力所能及的力量。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。