全球电信运营商Telstra宣布向Aduna Global发布澳大利亚首个Camara应用程序接口(API),使经过批准的企业能够将可信的网络级API嵌入到已获批准的应用程序中。
Aduna Global是领先电信运营商与通信技术公司爱立信的合资企业,致力于通过通用网络API帮助全球开发者充分利用网络潜力,加速创新。合作伙伴包括AT&T、印度Bharti Airtel、德国电信、KDDI、Orange、印度Reliance Jio、新加坡电信、西班牙电信、T-Mobile、Verizon、沃达丰和Telstra。
通过在基于GSMA和Linux基金会推动的Camara开源项目的统一平台下整合来自全球多个运营商的网络API,Aduna团队表示他们能够提供标准化平台来促进协作、增强用户体验并推动行业增长。
Telstra是Aduna的创始合作伙伴之一,现已成为首家在全球平台上推出API的澳大利亚电信运营商。通过与全球合作伙伴合作并采用通用标准,Telstra相信能够为客户提供更多价值,使网络比传统形式更具可编程性和可访问性,同时确保安全性。
推出的两个API分别是号码验证和SIM卡置换检测,旨在为企业提供改善客户体验的实用工具,同时为Telstra所说的本地和全球范围内的创新与协作新模式奠定基础。
这两个API旨在帮助防止账户被接管,保护敏感信息并减少用户使用摩擦。
号码验证API自动检查电话号码和设备是否与账户匹配。该功能在后台运行,据说比短信一次性密码更安全且无使用摩擦,由于网络进行验证,使诈骗者更难拦截,同时让客户更容易快速通过验证。它还可以与其他安全网络信号(如设备位置)结合使用,提供额外保护以防范身份盗用和诈骗。
SIM卡置换检测API则检测手机号码上的近期SIM卡更换情况,帮助防止账户被接管。如果SIM卡被更换(这是欺诈企图中的常见步骤),应用程序可以加强身份验证并阻止支付或密码重置等风险操作。这有助于通过早期发现威胁来防止账户被接管。同时,它减少了人工审查和恢复流程的需求,在提高整体安全性的同时降低运营成本。
Telstra产品与技术集团执行官Kim Krogh Andersen表示:"每当客户等待一次性密码或担心欺诈时,都存在我们可以帮助消除的摩擦。我们的新网络API——号码验证和SIM卡置换检测——可以帮助使身份验证更快速、更安全,并支持企业更好地保护客户免受潜在欺诈。这些API为企业提供了改善客户体验的实用工具,同时为本地和全球范围内的创新与协作新模式奠定了基础。"
此次发布还标志着Telstra在Connected Future 30战略下的网络即产品愿景迈出了又一步,使合作伙伴能够在银行、金融科技、政府、医疗和电子商务等领域构建创新服务。
Q&A
Q1:Camara API是什么?它有什么作用?
A:Camara API是基于GSMA和Linux基金会推动的开源项目开发的应用程序接口,能够让经过批准的企业将可信的网络级API嵌入到应用程序中。它旨在提供标准化平台来促进协作、增强用户体验并推动行业增长。
Q2:号码验证API相比短信验证码有什么优势?
A:号码验证API在后台自动检查电话号码和设备是否与账户匹配,比短信一次性密码更安全且无使用摩擦。由于网络进行验证,使诈骗者更难拦截,同时让客户更容易快速通过验证,还可与设备位置等信号结合提供额外保护。
Q3:SIM卡置换检测API如何帮助防止账户被盗?
A:SIM卡置换检测API监测手机号码上的近期SIM卡更换情况。如果检测到SIM卡被更换(欺诈企图中的常见步骤),应用程序可以加强身份验证并阻止支付或密码重置等风险操作,通过早期发现威胁来防止账户被接管。
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。