根据维基百科的定义,综合监测(也称主动监测)技术是指使用Web浏览器模拟或用Web交易的脚本记录来完成的网站监测。它通过创建行为脚本(或路径)模拟客户或终端用户在网站上执行的操作或路径。然后在设定的时间间隔内持续监测那些路径的性能,如:功能性、可用性和响应时间测定。
许多公司依赖这种综合监测技术来进行数字体验监测。而且理由充分。在当今以应用为中心的新环境中,企业将根据终端用户体验评估Web应用的性能。鉴于用户对页面反应时间的要求越来越高,IT部门已经意识到持续监测应用性能和可用性的价值。传统的综合监测虽然能够提供重要功能,但也会在关键的终端用户体验监测用例中存在空白和差距。
综合监测概述
对于综合监测而言,应用性能管理产品执行脚本可以用来模拟用户与关键应用之间的交互情况。这些产品定期从各个不同的地点运行脚本。综合测试工具在发现宕机或性能下降时会发出警报。借助这些功能,IT可以主动识别可能影响用户数字体验的可用性问题或主要执行问题。
使用综合监测系统的九大理由
以下是IT依赖综合监测系统的一些主要原因。
1.监测应用程序的全天候可用性—包括非工作时间
2.针对应用可用性问题的主动通知
3.识别远程站点的可达性问题
4.了解第三方服务对客户应用的影响
5.监测SaaS应用的性能和可用性
6.测试使用SOAP,REST或其它Web服务技术的B2BWeb服务
7.监测关键数据库查询的可用性
8.评估服务水平协议(SLA)
9.为各地区的性能趋势设定基准并加以分析
综合测试的局限性
综合测试是数字体验监测的有效方法,但也有其局限性。它所依赖的脚本只能模拟用户体验,而不能测定实际的终端用户体验。因此,综合测试无法帮助IT人员理解用户在与应用交互时实际看到的情况。
此外,综合监测系统无法看到设备资源及健康度对应用性能的影响。应用真的很慢吗?还是用户的设备缺少足够的内存或CPU?
最后,综合测试脚本也无法了解应用性能差的终端用户特征(身份、角色、部门、位置)。
不使用综合监测系统的六个理由
虽然综合监测有助于IT发现并解决一般性应用性能问题,但它并不能帮助企业解决一些重要的IT和业务应用问题。
1.解决终端用户投诉。当服务台工作人员收到终端用户投诉时,综合监测产品不会向工作人员透漏终端用户实际上正在做什么或正在经历什么。
2.解决设备问题。桌面服务团队需要了解其员工使用的笔记本电脑,个人电脑,平板电脑和移动设备的性能和健康程度。而综合测试产品则缺乏这种可视化。
3.确定设备性能如何影响应用性能。资源不足的设备会对应用性能产生负面影响。如果不了解设备性能,应用所有者就无法分离应用投诉的原因。
4.分析每个关键业务应用性能。公司依赖数十种关键业务应用。创建并维护用于综合测试的脚本是非常耗时的,即使是一个应用。
5.确认变化对整个阶段的影响。当IT对设备,应用或基础设施进行更改时,他们必须确认这些变化对实际终端用户体验的影响来确定效果。而比较综合测试的指标无法了解全貌。
6.提高劳动生产率。为了衡量IT对劳动生产率的影响,IT和业务高管需要评估企业使用的每个应用。而不单只是一个应用。
SteelCentral Aternity可以解决这些问题
作为一种基于设备的终端用户体验监测方法,SteelCentral Aternity填补了这一空白。Aternity监测终端用户设备的健康度和性能,以及应用在用户设备屏幕上表现出的性能。对于企业组合中每种类型的应用---本地,Web,云交付或移动。与综合测试产品不同,Aternity通过关联三个关键数据流(设备健康度和性能、终端用户看到的应用性能、用户行为)来呈现终端用户体验的真实画面。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
阿布扎比科技创新研究院团队首次发现大语言模型生成的JavaScript代码具有独特"指纹"特征,开发出能够准确识别代码AI来源的系统。研究创建了包含25万代码样本的大规模数据集,涵盖20个不同AI模型,识别准确率在5类任务中达到95.8%,即使代码经过混淆处理仍保持85%以上准确率,为网络安全、教育评估和软件取证提供重要技术支持。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
斯坦福大学研究团队首次系统比较了人类与AI在文本理解任务中的表现。通过HUME评估框架测试16个任务发现:人类平均77.6%,最佳AI为80.1%,排名第4。人类在非英语文化理解任务中显著优于AI,而AI在信息处理任务中更出色。研究揭示了当前AI评估体系的缺陷,指出AI的高分往往出现在任务标准模糊的情况下。