3月20日,德国汉诺威消费电子、信息及通信博览会(CeBIT 2017)隆重开幕。
在本界展会上,中兴通讯最新升级的公共安全解决方案再次亮相。基于最新的人工智能、物联网、大数据等技术和对公共安全行业需求的深刻洞察,中兴通讯打造了融合智能的公共安全解决方案。
当今世界,公共安全形势严峻,各类安全事件频频发生。现存的各种公共安全系统帮助各国政府提高了突发事件应对效率和公共安全维护水平,但是还存在很多问题,其中突出的一点就是系统相互分离,难以高效联动,无法在公共安全管理中发挥最大的作用。
中兴通讯最新的公共安全解决方案,融合公共安全管理中事件触发、分析决策、指挥调度三个环节,实现公共安全事件融合智能处理,可全面提高公共安全部门的预测预警能力、数据分析处理能力和应急指挥决策能力,使公共安全管理从被动式向主动式演变。
在事件触发这一环节,中兴通讯集成物联网、互联网和传统的通讯技术,实现了语音、短信、彩信、视频监控、社交媒体、APP、传感器等多种报警方式的融合,使公共安全事件报警的触发方式更丰富,更快速,信息获取更全面。视频报警中的人脸布控基于人工智能的深度学习技术,可建立基于上百块GPU并联的深度学习平台,通过千万级数据的学习获得高度抽象的人脸模型,具有在光照、角度、表情、年龄变化等情况下的高准确率人脸识别能力,可以帮助公共安全部门在海关、机场、交通要道、公共区域等关键场所快速检索、准确识别出犯罪嫌疑人并实时触发报警。
在分析决策环节,中兴通讯建立大数据平台来实现海量数据的存储与计算,利用数据挖掘分析协助指挥决策,通过智能搜索、数据比对、社会关系分析、人脸检索、人员轨迹分析、车辆轨迹分析等应用为事件应对提供有力支撑,达到缩短案件侦破时间、提升指挥决策能力的目的。
在指挥调度环节,融合指挥系统实现了通讯手段的全融合,包括语音(公网、内网、手机APP)、视频(视频监控、视频会议、手机APP)、集群(窄带集群DMR、宽带LTE集群)等通讯技术的无缝互通;还实现了接处警、突发事件管理等业务的深度融合,现场可视、资源可视,指挥可达。
中兴通讯公共安全解决方案,通过统一的平台,实现了事件触发、分析决策和指挥调度三个环节的融合智能。例如,当系统通过人脸识别发现可疑人员后,会自动触发报警并把报警信息自动传动到融合指挥平台,同时关联到大数据系统对嫌疑人相关信息进行查询,获得嫌犯的详细个人资料。融合指挥系统还会根据周边的警力情况推荐现场处置人员。利用中兴通讯自适应的公共安全解决方案,警务和应急人员只需要很少的干预,就可以实现针对各种公共安全事件的处理。
中兴通讯展台位于CeBIT展现场德国汉诺威展览中心12号馆D53号展位。观众可以在中兴展台沉浸式体验,可以扮演嫌疑人,当自己的面部容貌被捕捉时人脸布控系统及时识别触发报警;也可以扮演指挥管理者,可视指挥融合调度多方人员对事件进行处理;还可以扮演侦察员,利用大数据平台对人员、车辆、案件等的信息进行综合查询和分析,到找案件侦破线索。
作为全球领先的通讯与信息解决方案和服务提供商,中兴通讯多年来一直致力于政府和企业业务的深入耕耘。在公共安全领域,持续帮助各国政府提升公共安全管理水平,其公共安全解决方案已经在全球40多个国家和地区应用,并被著名咨询公司IHS评为最具综合竞争力的解决方案。中兴通讯最新的自适应公共安全解决方案,将帮助各国政府建立完善的公共安全管理体系,实现公共安全管理能力质的提升。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。