目前,微软Office 365已经拥有超过8500万用户,其中包括各种规模的企业和组织。然而,部分用户可能会对Office 365有些意见,这背后的原因究竟是什么?
相信很多Office 365用户都有着不错的使用体验。而我们Riverbed,目前则拥有一款被微软称为混合云解决方案的产品,它支持扩展SharePoint部署、OneDrive、商用Skype以及Office 365中运行其他应用等功能。Exchange目前仍采用本地运行方式,但很快就会迁移至Exchange Online。虽然Office的核心组件(Word,PowerPoint等)还在很多人的笔记本电脑上运行着,但大家显然已经有了另外一种选择,即使用它的云版本以及一些偶尔会用到的其它应用。
尽管出发点不错,但某些IT部门从本地部署Office应用过渡至云Office 365的过程并不顺利。很多方面都会出错,结果导致用户满意度下降。
不能与生产力混为一谈
一般来说,用户不满意的原因是某些应用让他们的工作变得更复杂了。 下面就是几个例子:
这一切可以归结为终端用户生产力。打破它,你就会遇到各类问题,管理层也会为之侧目。
以下为IT组织在过渡至Office 365时可能遇到的三大陷阱,这些问题可能影响生产力。然后让我们一起来看看如何避免。
陷阱一:规划不周
这并不是说一定要在规划阶段花费多少时间。但是一定要了解在制定Office 365过渡计划时需要考虑哪些问题。正所谓:“防患于未然”。
微软为您提供了包括采用方法、项目模板、使用场景以及指导性规划等在内的各类资源。 Riverbed则可以帮您进行网络规划。
陷阱二:不掌握终端用户的使用情况
这一陷阱涉及两方面。首先,IT团队过于专注于实施细节而忽略了终端用户。在项目规划中设定指标,评估过渡前后终端用户的应用体验以及在产品熟悉过程中的用户满意度有助于解决这方面的问题。
其次是没有能力从终端用户的角度来评估应用性能。这里包括是否有能力测定从点击到相应的页面更新所耗费的时间。
借助Riverbed,IT部门就能轻松监测每一个终端用户使用各种应用的体验情况。它可以设置和监视可接受服务等级的阈值,以便在影响用户使用之前发现性能问题。这些问题可以与设备、网络或服务器(云)隔离,IT可据此确定故障排除的方向。
陷阱三:低估网络需求
某些无法预见的问题会成为项目经理的噩梦。这些问题可导致进度延迟、预算超标。网络问题可能是“黑暗中的怪兽”。
《Gartner:面向Office 365的网络设计最佳实践》(2016年8月)一文中指出:“我们预测,到2019年,全球规模的Office 365部署中超过一半将会遇到与网络有关的性能问题。”
这是因为与SaaS应用相关的网络流量模式与在本地运行的应用截然不同。原先容量充足且与Office 365 云相连接的企业网络在任何位置都可能出现瓶颈。另一个问题是终端用户和云之间的较长网络路径导致响应时间缓慢(高延迟)。 建议您阅读上面提到的Gartner那份研究报告,了解有关这些问题的更多信息及防范措施。
Riverbed可以帮助IT改善网络性能,多管齐下提高Office 365应用性能:
总结
避开上述三个陷阱,可以确保Office 365项目的成功实施,消除问题,获得满意的终端用户体验。面向Office 365的解决方案现已内置在Riverbed Application Performance Platform™中,其中为您提供了多种工具,助您打造新的灵活运营模式,将应用性能转化为竞争优势。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。