截至2017年5月22日,河北省社会保障卡累计发放5080万张,覆盖全省人口的68.4%,开通98项社会保障卡应用项目,覆盖61%的持卡人群。同时,河北人社不断扩展用卡范围,将把民政救助、卫生计生、公积金、残疾人服务、涉农补贴等服务事项搭载在社保卡上,实现了一卡多用。
“规模翻倍”背后的运维之痛
从第一张社会保障卡1999年在上海发出,社保卡覆盖范围不断扩大,功能也在不断延展,从最初的“就医结算”,延伸到电子凭证、信息记录、自助查询、缴费和待遇领取以及金融支付等6类功能。社保卡逐渐成为政府各类公共服务的最佳载体,为此,2016年河北省特别制定印发了《河北省人力资源和社会保障厅关于全面推进社会保障卡应用的实施方案》。
在人社业务专网系统应用功能和规模快速翻倍的情况下,如何保证人社专网的良好运行?面对6000多个社保点,现有的人力资源如何对网络和应用实现有效的监控和管理?如何对社区乡镇业务专网的情况了如指掌,清晰准确的掌握全省专网的健康状况?如何为领导和上一级单位提供数据分析和决策依据?这些问题逐渐成为河北省人社业务专网运维管理的“隐痛”,亟需信息部门加快解决。
“IT即业务”支撑社保网高效运转
参照行业内的优秀经验,河北省人社厅信息中心积极主动地寻找现代化智慧运维管理方法,并与专业化的运维产品服务商进行了广泛沟通,经过仔细地考察、测试和选型,锐捷网络RIIL在众多产品中脱颖而出。双方依托ITIB(IT即业务)理念,结合河北省人社业务专网的运维现状和后续发展做了缜密规划,最终打造的运维管理整体解决方案,完美贴合了河北省人社厅“节省人力、全局监控、统一管理、决策辅助”的需求。
最终部署的完整运维监控体系,包括了省级网络拓扑及以地市为单位的市级网络拓扑,实时监控网络拓扑的变化情况,第一时间发现问题并提供告警信息。同时,它还能对全省所有的社保点的设备状态进行数据积累,自动形成日、周、月报表。
图:实时监控全省网络设备
针对“网络规模大、运维人员少”的局面,网络管理员可以利用设备分组的方式,对网络设备的配置文件进行自动备份并设为基准线,然后按照周、月的备份计划来完成备份任务,随时可以将设备配置恢复到任意时刻。这种方式大大降低了工程师的日常维护工作量,提升工作效率。
在业务系统层面,通过采用分布式部署的方式,借助RIIL-BMC(关键业务系统运行监控中心)、RIIL-Insight(IT管理决策分析系统)两个核心模块,实时监控IT资源(包括网络设备、安全设备、服务器、数据库、中间件等)的运行状态,实现了业务健康状况全局掌控和决策辅助的目标。
图:全局掌控业务健康状况
另外,结合社保网业务发展所需的基础数据,RIIL-Insight决策分析系统对不同维度的数据进行分析建模,为信息管理者提供决策依据。用“让数据转化为信息,让信息产生价值”的思路,将运维工程中产生的大量中间数据,成为帮助管理者做出科学决策的有力依据。
“智慧”覆盖下的运维新局面
一体化、业务化、智能化的RIIL为社保卡的全面普及推广提供了强有力的后台支持。建成后的人社专网总体监控管理系统,成功解决了人社厅IT运维人员少、工作量大的问题,使管理人员能够对业务系统和IT资源的工作状态一目了然。如今,即使信息系统偶尔有问题发生,运维人员也能通过RIIL快速定位影响业务的问题资源,第一时间予以解决。
河北省人社厅信息中心的技术人员表示:“利用RIIL运维监控平台,我中心对全省6000多个社保点的专网线路、设备和系统进行了监控,涉及省、市、县、镇、村,真正实现了全省级覆盖。同时按照人社厅的需求,进一步完善了报表功能,对网络运维的健康度进行智慧化的有效分析,让人社专网的整体运维能力大幅提升。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。