大约一年前,笔者的同事Lawrence Garvin写了有关IPv4地址明显匮乏的文章,他称,“IPv4地址并没有耗尽;这些地址没有完全在使用,只是有些组织没有更多的地址分配到下级组织,我认为这并不是地址稀缺,而是地址分配管理不善导致的人为的地址短缺。”
在不到一个星期后,美国互联网号码注册中心(ARIN)总裁兼首席执行官John Curran作出回应,他表示:“事情根本不是这样,我来告诉你原因,在不久的将来,美国、加拿大和大部分加勒比海地区剩余未分配的IPv4地址都将耗 尽,可用空间已经不多了,Ipv4地址数量很快将变成零。”
Curran是完全正确的;现在,所有IT个体(从爱好者到财富100强CTO)都应该行动起来,因为那些无视IPv6连接的人将会遭受到意想不到的后果。
你可能会想,“为什么?”
Garvin的观点并非虚造,这其实是一个有趣的概念,也许企业正坐拥巨大的IP地址库存,而我们所做的是鼓励他们放弃这些地址,让我们可以避免危机。
但不幸的是,我们知道事实并不是这样。Curran可提供相关参考数据,现在这些数据变得更加明显:截至到2015年9月24 日,IPv4地址池正式耗尽,美国互联网号码注册中心为需要地址的人开通了等候名单。同时,很多人都涌入到代理B2B交易中心,从最后剩余的地址赚取利 润。
但是,这并不是唯一的原因。
正如Neetha Edwin等人所说,IPv6面临自己的网络安全挑战。这里的问题是,它已经开始启用。所以,你不能把你的头埋在沙子里说,“好吧,如果我不看它,它就不会伤害我。”事实刚好相反,如果你无视IPv6在你网络的影响,你可能给你自己带来更大的伤害。
你还需要考虑的是,IPv6连接不只是“网络的事”。你在日常工作中使用的工具会受到它们响应IPv6的方式所影响,包括完全不响应。 当你做出转变时,你的IP地址管理工具能否有效可行?不要告诉我你没有使用IPAM或DDI工具,因为现在已经不是1997年了。你的VPN客户端呢?虽 然企业VPN客户端可处理IPv6,但在去年6月,对顶级私人VPN服务和客户端测试发现,对于IPv6连接,没有一个是安全的。
但这并不是避免迁移到IPv6连接的理由,实际上,这正是你现在需要开始考虑迁移的令人信服的理由,而从你的评估和规划开始意味着之后不再需要进行“消防演习”。
现在最有说服力的理由是:如果你现在不开始,可能给你带来更大的伤害。正如Denise Fishburne所指出,如果你现在不开始,未来的你会憎恨现在的你。
你可能会疑惑,“怎么做?”
你可能终于说服自己开始行动,那么,现在该怎么做?
首先,你需要了解什么是IPv6、它的工作原理以及它与IPv4的区别,现在互联网上有很多相关的资源可供你参考,这里就不再赘言。
你还可以看看在这方面已经做得很好的企业,并从其学习经验教训。例如,最近的一篇文章介绍了Telekom Malaysia迁移到IPv6时采用了由内而外的方法,以及IPv6支持者需要准备好说服管理层,让他们了解IPv6的优点,因为这些优点并不是很显而 易见。除了指出IPv6的安全问题,Neetha Edwin还谈到了如何管理和推动这种新架构的优势。
不过,最终你会发现,这个过程与大多数你经历过的IT项目非常相像:
1. 收集有关新技术或趋势的知识。
2. 决定是否部署。
3. 查看哪些硬件和软件相兼容以及哪些需要被替换或升级。
4. 确定从你环境中什么地方开始部署。(提示:从中心开始一直到边缘)
5. 向管理层说明这个项目。
对于这一点,请记住SolarWinds首席技术官兼首席信息官Joel Dolisy最近告诉我的话:“你的说明必须涉及业务的三个方面:不断发展、降低成本或避免风险。” 你可能会问,“什么时候?”
现在,现在就开始,你真的没有理由再等下去了。
好文章,需要你的鼓励
这项研究介绍了一种名为FlowPathAgent的神经符号代理系统,用于解决流程图归因问题。研究团队提出了流程图精细归因这一新任务,构建了FlowExplainBench评估基准,并开发了结合视觉分割、符号图构建和基于代理的图形推理的方法。实验表明,该方法在归因准确性上比现有基线提高了10-14%,特别在处理复杂流程图时表现出色,为提升人工智能系统在处理结构化视觉-文本信息时的可靠性和可解释性提供了新途径。
这项研究首次从神经元层面揭示了大型语言模型(LLM)评估中的"数据污染"机制。研究团队发现当模型在训练中接触过测试数据时,会形成特定的"捷径神经元",使模型无需真正理解问题就能给出正确答案。他们提出了一种新方法,通过识别并抑制这些神经元(仅占模型总神经元的约1%),成功恢复了模型的真实能力表现。实验证明,该方法与权威可信基准测试结果高度一致(相关系数>0.95),并在不同基准和参数设置下都表现出色,为解决LLM评估可信度问题提供了低成本且有效的解决方案。
这份来自向量研究所、康奈尔大学和格罗宁根大学研究团队的综述分析了基于大语言模型的代理型多智能体系统中的信任、风险和安全管理框架(TRiSM)。研究系统地探讨了代理型AI从概念基础到安全挑战,提出了包含治理、可解释性、模型运营和隐私/安全四大支柱的TRiSM框架。文章还详细分析了威胁向量、风险分类,并通过真实案例研究展示了潜在脆弱性。
这项研究提出了一种名为ConfiG的创新方法,通过生成针对性的数据增强样本来解决知识蒸馏中的协变量偏移问题。研究团队利用教师模型和学生模型之间的预测差异,引导扩散模型生成那些能挑战学生模型的样本,从而减少模型对训练数据中欺骗性特征的依赖。实验表明,该方法在CelebA、SpuCo Birds和Spurious ImageNet数据集上显著提升了模型在缺失组别上的性能,为资源受限环境下的AI应用提供了实用解决方案。