至顶网网络与安全频道 10月11日 综合消息:今日,以“主动安全·智慧驱动”为主题的2019合肥网络安全大会成功召开。本次大会由合肥市人民政府主办,邀请到来自政府机构、学术与产业界的权威专家以及企业、高校代表,1500余名网络安全精英齐聚合肥,探讨数字时代的网络安全挑战,分享主动安全建设的成功实践。
2019合肥网络安全大会盛大召开
2019合肥网络安全大会聚焦主动安全前沿技术、安全实践以及等保2.0合规建设,深入探讨5G安全、网络空间安全态势感知等前沿话题,以安徽省农村信用社联合社、安徽大学为样板的主动安全建设实践内容也备受关注。
合肥市委常委、市政府常务副市长 罗云峰
合肥市委常委、市政府常务副市长罗云峰在大会致辞中表示,“我们坚持把网络安全摆在经济社会发展全局的重要位置,统筹谋划、整体推进;坚持把网络安全产业作为战略性新兴产业重点扶持、聚力发展,并已在全国形成较好的先发态势。随着5G、人工智能、互联网等新一代信息技术席卷全球,网络安全将面临更多、更新、更复杂的挑战。我们将坚定不移把网信事业做实做优,坚定不移把网安产业做大做强,努力为筑牢国家网络安全屏障、整体提升国家网络安全水平作出更大的‘合肥贡献’。”
紫光集团联席总裁兼新华三首席执行官 于英涛
紫光集团联席总裁兼新华三首席执行官于英涛表示,面对网络安全产业发展的全新形势,新华三作为数字化解决方案领导者,依靠自身在计算、存储、网络等数字化基础设施,以及主动安全、统一运维等领域的持续创新,广泛结合生态伙伴的智慧力量,朝着共同支撑客户业务安全应用的目标,助力客户构建安全的数字大脑。
生态聚力,打造网络安全新高地
在本次大会上,安徽合肥高新区还举行了“中国安全谷”新驻项目集中签约仪式。“中国安全谷”拥有扶持政策优势、人才优势、资金优势,以及市场优势,正在成长为网络安全产业之都。
“中国安全谷”新驻项目集中签约仪式
在“中国安全谷”创建过程中,新华三集团发挥龙头企业的带动作用,发起成立了“网络安全创新技术联盟”,通过安全生态建设为客户提供完整的技术方案与服务保障。
目前,新华三集团通过在主动安全领域的创新与发展,已在政府、金融、运营商、教育等行业积累了丰富的应用实践成果,为诸多行业客户提供了多维度安全能力交付和等保合规安全服务,助力保障数字经济发展。
持续创新,全面护航数字经济发展
当前,网络空间内涵和外延不断扩展,网络空间竞争更加激烈,网络安全的威胁持续上升。2019年,网络安全等级保护制度2.0标准的发布带动等保建设进入主动防御的新时代,网络安全产业发展迎来新高潮。
针对前沿技术的风险,新华三集团也基于主动安全的理念,在5G安全、物联/工控安全、多媒体内容安全、零信任安全领域都有全面布局和方案准备,展示出新华三作为网络安全领军企业的持续创新能力。
新华三集团高级副总裁、中国区总裁 张力
新华三集团高级副总裁、中国区总裁张力表示,作为中国网络安全领域的领军企业,新华三将会持续推动主动安全理念、技术和产品的创新,助力合肥打造网络安全产业高地,建设数字强国。
2017年初,新华三集团率先启动从被动安全向主动安全的创新转变。本次大会上,新华三集团安全产品线副总裁、首席技术官孙松儿介绍了主动安全体系建设的五大落地实践,通过情报驱动、AI进化、智能运维、软件定义以及开放互联,以业务为中心、合规为先导、数据为驱动、体验为目标,与合作伙伴一起,推动智能主动安全的落地,全面提升政企用户网络安全防护水平。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。