ZD至顶网网络频道 08月04日 编译:所谓的“Hypernet”亦称太平洋研究平台,能以100Gb/秒的速度传输数据。Hypernet将连接美国西海岸的实验室和一些超级计算机,而500万美元的项目资金则来自美国国家科学基金会(NSF)。
Hypernet:科学家认为新型专用网络的速度可达100Gbps
据纽约时报报道,该项目将历时五年,Hypernet将连接NSF现有的基础设施。这些基础设施的建设耗资超过5亿美元,覆盖约100个美国大学校园的内部网络。
Hypernet平台可以令各个机构的科学家在诸如物理学、天文学和遗传学的数据密集型领域里更好地共享庞大数据集。
天体物理学家Larry Smarr表示,Hypernet平台“将成为未来计算机网络的模型,有点像1985年创建的、连接研究机构的NSFnet,Hypernet平台最终将成为骨干网络的一部分”。Smarr是Calit2的主任,亦是新项目的主要负责人。
“我相信,这个基础设施在未来数十年里将成为大家使用的千兆级和超规模电脑的那种结构,” Smarr告诉记者。他话里提到的是科学家在研究中获得的海量数据。
将新网络和现存的下里巴人网络分开十分关键,原因是,在传统网络连接上传输大量的数据通常是个缓慢而吃力的过程。
Smarr还提到,加州大学连在互联网上的一个服务器最近在一天里收到35000个错误的登录尝试。从硬件安全设计上,很大一部分也考虑到要将将亚太研究平台与下里巴人网络分开。
该网络将进一步移除数据集的位置基础研究的必要性,使得“科学应用上的新型分布式计算成为可能”。
Frank Wuerthwein是加州大学圣迭戈分校的物理学家,他在谈到大型强子对撞机的数据收集时称, 全球各地研究人员用作分析的数据集有重复。
Wuerthwein告诉记者,利用高速网络,实验数据则只需存在一个单一地方,而科学家可以在别的位置运行分析程序,可以达到显著成本节约的目的。
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。