2022 年 10月 11日——负责支持和保护数字化体验且深受全球企业信赖的解决方案提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)(NASDAQ:AKAM)携手全球领先的短视频记录和分享平台快手(HK:1024)通过全面落地QUIC协议,提升海外用户视频体验。在全球商业化应用过程中,快手携手Akamai在复杂的网络环境下提升网络性能及安全性,将QUIC使用率提升至平均90%的优异水平,并进一步推广QUIC协议标准化,共同为海外用户提供更优质的视频体验。
此次QUIC协议的落地是两家公司自2015年建立长期合作以来再次联手,旨在通过对快手客户端、服务端和Akamai全球智能分发平台的端到端联动优化,为快手全球用户、内容创作者、合作伙伴提供更好的用户体验。
快手高级副总裁、StreamLake负责人于冰表示,“在快手为用户提供优质视频服务的努力中,新技术的探索与应用一直是我们密切关注的方向。在此过程中,Akamai是快手紧密专业的合作伙伴,愿意突破传统云厂商与企业客户的合作边界。双方在QUIC协议落地上的努力,让我们在全球多元的网络环境里更好地抵达受众。希望这次合作能给行业在新标准化协议落地上新的启发。我们期待与Akamai保持合作,持续推进标准协议的应用水平。”
Akamai高级副总裁兼边缘分发部门总经理Alex Caro博士表示: “我们十分高兴能与快手紧密合作,帮助快手超越用户期望,加速快手在海外的发展。QUIC的标准化和优化不仅需要深厚的技术支持,还需要企业与合作伙伴突破云厂商和企业客户之间阻碍交叉共享和协作的传统界限。我们十分感谢快手对Akamai的信任,我们与快手的合作证明了通过共享数据和联合创新所能获得的丰硕的成果。”
QUIC协议是一个基于UDP的传输协议,因其高效的传输效率和多路并发的能力,已成为下一代互联网协议HTTP/3的底层传输协议。HTTP/3标准化的推出将对互联网产业产生深远影响,同时也会吸引更多行业厂商、应用开发商的加入,加速标准化落地进程。标准化的采用将会使得原有小规模的应用场景逐渐扩大,惠及更多群体,从而形成更为完善的生态系统。
协议的标准化进程不仅需要标准组织的积极推进,也离不开各大云厂商和企业的探索、实践与落地。早在标准化之前,双方就对HTTP/3标准的前身QUIC协议进行探索。快手在2020年就完成了自研kQUIC的全面落地,国内全量上线,集群峰值QPS(Query Per Second)突破千万。随着业务的发展,为提升海外用户体验,快手把目光投向了海外网络优化。而Akamai基于对QUIC协议多年的实践、优化以及正向收益校验,为快手提供QUIC协议全面支持。
在进行海外网络优化的初期,双方启用了QUIC协议,并通过技术专家的分析,优化了快手客户端与Akamai服务侧的交互,进而显著提升QUIC协议带来的收益,达到提高首包/视频首帧播放,降低失败率的目的。
为进一步分析协议性能,快手在QUIC请求级别数据之外,上线了QUIC连接级别数据打点采集能力。通过对连接级别数据的深入分析和一系列问题的修复,双方观察显示:QUIC使用率再度显著提高,并平均维持在90%的优异水平。同时,客户端播放指标显示,其视频起播失败率以及卡顿率同期也得到了正向提升,大幅改善了用户的视频观看体验。
随着下一代互联网协议HTTP/3标准的发布,其将会在线上内容消费方面发挥重要作用。Akamai将与快手继续携手优化QUIC的使用,推进HTTP/3的标准化,并在更多领域不断创新。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。