华为云技术私享会广州站于6月2日完美收官,在此次技术私享会以“无微不至”为主题,会上展示了华为云应用服务帮助企业应用云化转型的多个利器,同时邀请到了腾科教育来进行企业应用容器化实践案例的分享,更有微服务实战训练开放体验。
图:腾科架构开发部总监陈诗军在华为云技术私享会分享
码农进阶需求急
程序员的进阶之路有三次飞跃,第一次是进入公司,成为一颗专业的螺丝钉;第二次是技术水平突飞猛进,成为项目的顶梁柱;第三次是代码写作一马当先,成为业界的佼佼者。
小王年方二八,头发依然茂密,经过几年工作经验的积累,他想有所突破,早日进入第二阶段,做技术上的老王,于是萌生了参加技术培训的想法。
遍寻当地,没有找到靠谱的培训学校。有些学校不仅学费昂贵,教师还大多是兼职,很少会课余回答问题;而有些学校采用远程教学,但内容讲解不透彻、又无法与教师实时在线交流,体验着实不佳,甚至上机实验还得前往统一的学校基地,这就意味着要脱岗培训。试想一下,小王去对老板说:“老板,我要离岗一段时间去学习新技术,这段时间你照常发我工资,等我回来一定会是公司顶梁柱的!”老板就算见过再多大风大浪也忍不住要说:“圆润滚球,面斥不雅”。
找到一个可靠专业、名师加持、支持远程实验的培训机构是小王的当务之急,也是众多程序员的强烈需求。
腾科教育难题多
像这样在职程序员进阶培训的尴尬情况,腾科教育也早已关注到。腾科IT教育集团是一家以提供新型、领先的IT技术培训解决方案为主要经营目标的专业公司,联合国际知名IT厂商以及国内众多高等院校,开展IT认证技能培训和IT职业课程教育,培养新型IT高级人才。在全国各地拥有30多个培训网点和强大的专职教学团队。
作为业界领先的IT技术培训(教育)专业公司,关注到在职程序员受工作地域、工作时间限制,无法自由学习的问题之后,就开始积极需求解决之道,想要建立远程实验实训平台。在寻求解决方案的路上遇到了华为云,双方经过沟通,发现华为云容器技术可以帮助腾科教育解决多方烦恼。
在华为云为其构建云端实验室的过程中,腾科提出三大难点:
• 实验环境配置复杂,基础运维工作繁多
• 为闲置资源付费,无法做到真正Pay as Use
• 实验效果评估粗糙,实验数据易丢失
图:基于华为云容器引擎实现实验室集群
容器服务来帮忙
面对腾科的难题,华为云容器服务,凭借自研高性能容器网络,为腾科打造云端实验室的同时将以上问题各个击破:
• 容器镜像服务,对接DevCloud、GitHub、GitLab,一键式完成从代码下载到镜像构建的完整流程,提升实验环境配置效率。学员登陆认证,根据课程选择启动课程容器,免配置直接开启实验课程;
• 秒级弹性扩缩容,基于容器更细粒度共享,提升资源自用率同时实行按需计费,学员关闭实验时即释放资底层源,为腾科教育实训降低成本20%;
• 高性能基础设施,支持云硬盘、对象存储、文件存储等多种存储方式,自动输出日志,保存实验数据,使实验结果得以量化,助力腾科教学评估。
腾科教育总经理杨迎表示:“华为云为腾科打造的云端实验室打破了地域限制,以往的实验只能在学校实验室进行,但是通过基于华为云的腾科实验实训平台,在任何地方都能登陆平台去做实验,满足远程学习需求。而弹性扩容功能也让学员摆脱了时间限制,得以在业余空挡进修课程。这样充分满足在职学员培训需求,助力程序员技术突破的云端教学系统正是腾科所需要的。”
嘿,兄弟,进修技术再也不用脱岗培训啦~~
点击了解华为云应用服务:https://www.huaweicloud.com/paas/
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。