九一金融信息服务(北京)有限公司(以下简称“91金融”)成立于2011年9月1日,91金融一直致力于平台建设,通过互联网方式不断创新,积极帮助银行和金融机构延伸业务、升级服务体验,同时为金融消费者提供“安全、可靠、便捷、专业”的贷款、保险、理财等普惠金融服务,让最优质的金融产品和服务惠及每个人。目前,91金融累计服务用户超300万人,创造交易量超过2000亿元,为3000余家中小微企业、创新创业企业以及上万名青年创业者解决了资金掣肘业务发展问题,在北京、上海、厦门、深圳、天津均设有分支机构,业务遍布全国,品牌影响力覆盖上亿人。
业务需求与挑战
91金融从成立到现在,在互联网金融领域取得了巨大的成就,伴随着这种高速发展,在IT基础建设上也遭遇了诸多挑战。创立之初,在资金预算有限的情况下,如何利用最低的成本开销建立基础业务系统,同时将资源使用效率做到最优是其第一个挑战。
随着91金融的飞速发展,如何快速应对突发流量对业务系统的压力是第二个挑战。面向未来,如何保持业务系统的可持续扩展以及核心数据的绝对安全可靠,保证所有系统的服务能力,是现阶段91金融要面对的主要挑战。
解决方案
91金融对于云服务的性能、规模、响应速度、安全性等各方面都有着极其严格的要求。经过周密的调研,对比多个云服务平台,91金融最终选择采用青云QingCloud云服务,借助QingCloud云主机、VPC、防火墙、备份服务、RDS、Redis等服务来完善其整体架构,采用子账户功能有效隔离用户资源。
91金融系统架构示意图
在选择青云QingCloud时,91金融主要基于以下几方面的考量:
●多账户功能
青云QingCloud多账户的架构设计可以满足分权分域、以及风险控制要求。
●满足服务隔离要求
青云QingCloud的虚拟私有网络(VPC)实现了不同业务系统的二层隔离,能够很好地做到内部风控。
●自动伸缩
青云QingCloud云平台可以实时监控交易性能并根据业务服务水平规则弹性扩展负载均衡器后端主机的数量,以实时应对业务突增的压力。
●秒级计费
青云QingCloud按秒计费的方式适合91金融的业务动态变化模式,帮助其节省了部分运营成本。在业务高峰时段动态增加服务节点,在其它时段关闭闲置服务以节省成本。
●多地域容灾服务
通过GRE隧道,打通多个地域的云资源平台,数据实现同城异地三份备份,确保数据达到容灾的需要,基于隧道技术构建稳定的混合云。
客户收益
凭借青云QingCloud云平台的完整性、可靠性、灵活性,保证了91金融战略的实施。QingCloud以灵活的按秒计费方式为91金融节省了运营成本,在业务高峰时段按需开启服务,在其它时段关闭闲置服务以节省成本。此外,随着业务的快速发展,91金融最初的服务器数量已经增加了10倍以上,同时业务线也增加了好几条,而专职运维的人数并没有增加,能够有足够的人力和精力投身于业务领域的创新。
好文章,需要你的鼓励
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。
这项研究提出了"思想家"(Thinker)任务,一种受人类双重加工理论启发的新型AI训练方法。研究者将问答过程分解为四个阶段:快速思考(严格预算下给出初步答案)、验证(评估初步答案)、慢速思考(深入分析修正错误)和总结(提炼关键步骤)。实验表明,该方法使Qwen2.5-1.5B模型的准确率从24.9%提升至27.9%,DeepSeek-R1-Qwen-1.5B模型从45.9%提升至49.8%。显著的是,仅使用快速思考模式就能达到26.8%的准确率,且消耗更少计算资源,证明了直觉与深度推理作为互补系统的培养价值。
这项由ELLIS研究所和马克斯·普朗克智能系统研究所的科学家进行的研究,揭示了大语言模型安全测试的根本规律:越狱攻击成功率由攻击者与目标模型间的能力差距决定。通过评估500多个攻击者-目标组合,研究团队发现:更强的模型是更好的攻击者;当目标能力超过攻击者时攻击成功率急剧下降;社会科学能力比STEM知识更能预测攻击成功。基于这些发现,研究者建立了预测模型,表明随着AI进步,人类红队测试可能逐渐失效,提示需要发展自动化安全评估方法及更全面地评估模型的说服和操纵能力。