兰开夏郡教学医院NHS信托基金会是英国西北部的著名医疗服务提供商之一,其服务覆盖兰开夏和南坎布里亚郡。该机构为150多万人提供医疗服务,并为曼彻斯特大学和圣安德鲁斯大学的学生提供医学教育。该信托基金会同时经营着一个提供领先病理学服务的创伤中心,是国家医疗服务体系的重要组成部分,而且被指定为全英国十几个新冠肺炎重点检测中心之一。
随着疫情的影响逐步加剧,该信托基金会意识到,更多临床和行政人员需要远程办公。然而,现有的远程访问解决方案最多只能支持500名用户同时使用。疫情期间,医院在维持提供全面的基本医疗服务方面承受着巨大压力,如何解决这一挑战,提供与新冠疫情有关的紧急服务,对于医院来说尤为重要。
兰开夏郡教学医院NHS信托基金会技术服务主管Saeed Umar表示:“作为一家医疗机构,我们的一些员工仍然需要在现场工作。但是,为了尽量降低感染风险,我们要求临床和行政人员尽可能居家办公。”面对这样突如其来的转变,居家办公人员数量会增加,这意味着对于即时、快速且安全地访问在线系统的需求也会激增。
选择F5远程访问解决方案
为了保证业务不中断,基金会联系了F5和FullProxy,希望确定未来可选择的方案。好在基金会使用F5产品已有近八年时间,在此期间,该基金会一直使用F5 BIG-IP iSeries平台以主/被动模式在内部托管应用,实现系统负载平衡。
去年,该信托基金会开始与F5和FullProxy合作,希望增强现有解决方案的能力。最终,该机构用F5 BIG-IP 访问策略管理器(APM)取代了现有的远程访问解决方案,F5 BIG-IP 访问策略管理器(APM)具备灵活、高性能的优势,集成并统一安全用户访问,能够确保无论何时何地,正确的人员对正确的应用拥有恰当的访问权限。
业务连续性得到有效保障
基金会、F5与FullProxy三家组织之间所保持的灵活而稳固的关系,包括FullProxy工程师提供的快速配置支持,让项目的完工时间远远超出预期。兰开夏郡教学医院NHS信托基金会首席信息官Stephen Dobson表示:“F5和FullProxy十分了解我们需求的紧迫性,在我们做出了升级现有F5解决方案的决定后,能够迅速响应并立即提供许可证和所有相关支持服务。在收到帮助应对新冠疫情的潜在影响的请求后,F5和FullProxy在几个小时内就开始升级现有系统,并将远程用户的最大并发数量增加到2000人。让我们可以在几小时内便可获得更多响应能力,而无需花费数天甚至数月时间。”
由于临床和行政人员能够安全地访问应用,该信托基金会的业务连续性得到保证,能够持续向患者提供世界一流的医疗服务,即使在疫情高峰期,远程并发用户从每天70人激增到700多人时,业务仍未受影响,持续稳定运行。
如今,该信托基金会可以无缝访问应用,并且在更大范围内使用Microsoft Teams,这增强了团队成员之间的协作,提高了员工的士气,并在前所未有的困难时期,帮助员工实现工作与生活间的平衡。没有一个人的工作能力受到负面影响,对此,员工给予了积极的反馈。兰开夏郡教学医院NHS信托基金会副首席执行官Jonathan Wood表示:“即使我们的远程用户增加了10倍,用户体验也并未受到丝毫影响。我们的员工对此印象深刻,他们甚至在社交媒体上热议此事。”
成功引入F5安全访问解决方案后,促使该信托基金会考虑允许更多员工长期居家办公,而这样的新型远程办公模式也有助于节省与物理基础设施和设备管理有关的成本,同时也为应对未来新冠疫情爆发或其他可能加剧远程访问要求的意外情况奠定了基础。
随着全球工作者开始自我隔离,技术成为了将人们紧密联系在一起的纽带。共克疫情离不开人与人之间的相互扶持与帮助,更离不开数字技术的支持,F5作为多云应用安全和应用交付技术的全球领导者,在充满不确定的特殊时期,协助客户维持业务连续性,保障应用系统正常运转的同时,保护数据安全,帮助客户共渡难关。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。