2018年3月30日,紫光云战略正式启动,时隔三个月,紫光公有云近日宣布开启上线试商用。至此,公有云市场再添一实力玩家。紫光云称今年是云战略的起步阶段,目前共上线华北1区(天津)、华北2区(廊坊)和西南1区(重庆)三大节点。
虽然是起步阶段,但不得不称赞紫光云的速度,三个月即完成了紫光公有云从无到有的过程。紫光云总裁兼CEO吴健表示,“3个月的执行计划甚至要精确到每一天。紫光云不仅用速度证明了自己的能力,同时在建设过程中始终坚持新架构、高起点、可信赖三个原则。”
紫光云联席总裁焦刚直言,“我们毕竟是比别人晚了两到三年时间,所以要赶。因为从研发、建设、部署、到拓展市场这些步骤都是同步进行的,所以紫光云的上线节奏确实表现得很快。”
据介绍,目前紫光云投入了超过3000名研发人员,未来两年内还将持续增加2000+研发人员,从而不断增强紫光云的技术实力。
事实上,新上线的紫光云在技术上已经形成了突破。紫光云采用了“一多三统一”的架构设计。一多即多门户,紫光云通过大区节点+一级节点+城市节点的核心边缘多级架构的设计,构建覆盖全国的多个入口,在架构设计与搭建上天然具备了混合交付能力、个性定制能力与弹性扩展能力。三统一即统一融合架构、统一资源管理、统一运营管理,通过自主研发的CMP(多云管理平台)实现云服务资源解析与综合调度,在满足分布式、分级、个性的同时,保证了底层架构和运营运维的统一。
“‘一多三统一’的平台设计目前在业界没有参考。”吴健说。
为了完成这样的多级架构,紫光云共部署迭代3次,新增代码27万行。紫光云副总裁兼运营部总经理李永斌在接受至顶网采访时特别强调了紫光云自主研发的CMP(多云管理平台),“如果说多级架构是人体的躯干、四肢,那么CMP就是神经和大脑。通过对用户的资源进行适配和匹配,既可以把不同的资源抓上来,又可以管下去。”他说。
这个通过统一的门户、统一的运营平台,把所有的节点都运营起来,并把下面对接的城市云和大数据节点之间适配方面做统一的调度、统一的运营计费,实际上是一个巨大的挑战,但最终紫光云用两个月的时间把它克服了。
这样紫光云也就满足了数据不出城、本地化交付、多资源池纳管等行业客户的需求。
此外,紫光云还打造了一个高起点的云,李永斌说,“紫光云是一张白纸,所以我们的建设没有包袱。从而希望用最新的架构、最新的设备、最新的理念打造我们心中最好的云。”
从紫光云公布的硬件架构来看,确实达到了高起点:云主机全部采用Intel最新Purley平台Skylake CPU,实现相同密度资源池性能平均提升20%;云网络采用最先进的100G核心+25G接入连接;云存储基于NVMe SSD构建高性能云硬盘,性能较普通SSD云硬盘提升50%;云安全全网实现基于硬件加速的网络安全防护能力等等。
这样的硬实力从而为用户打造了一个强大的云底座。
据介绍,在这样的云架构和硬件平台之上,紫光云首期上线的基础服务和平台服务共有12个大类,267种云服务产品。
紫光云并制定了未来的运营计划:2018年底完成华北、华东、华南、西南4个大区节点的建设,并推进一级节点与城市节点的快速落地;2019-2020年,上线6个大区、10个一级节点、50个城市节点,做到TOP 5的公共云服务商;2021-2023年则进入领先阶段,计划上线6个骨干节点、20个一级节点、100个城市节点,并努力成为国内TOP 3的公共云服务商。
的确,不管是紫光集团的资源保障、还是新华三的技术产品支撑,紫光云已经拥有了出击公有云市场的一手好牌。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。