ZD至顶网网络频道 12月16日 北京报道:12月16日,ZD至顶网和工业4.0协会主办的中国制造千人会(MIC1000)在上海召开。从美国远道而来的美国白宫信息武力系统专家组顾问、《工业大数据》作者李杰(Jay Lee)先生为我们带来了“新制造企业革命:工业大数据与CPS应用”的精彩演讲。
美国白宫信息物理系统(CPS)专家组顾问、《工业大数据》作者李杰(Jay Lee)
首先,李杰从工业大数据的CPS应用切入主题,详细讲解了工业大数据CPS的核心以及具体案例。李杰讲到,“为什么CPS对中国制造有跳跃式的影响,中国的利益点在哪里呢?这些数据出来之前,一定是有隐秘,所以需要一个消化系统,你需要机器的软件,找特征,我们装备也是这样的,把数据变成不同的特征。经过分析之后把设备的关系建立起来就不容易出故障。”
“从2011年GE形成了工业大数据的观念,一台发动机在上面,经过数据的特征回到机器再转成信息分享出来。”李杰讲到,“我们2011年所有的数据从历史数据开始,到现在控制器数据,甚至我不愿意用的数据,都来做整合分析,这些数据你要有一个分析的方法,找出还没有发生的问题,这个在2015年以前是一个科学上最大的缺失,当初我们提出的观念很多人不了解,企业界说很合理,但是不知道怎么去实现。”
对于今天我们所获取到的诸多特征信息,李杰给出了一个很形象的比喻,“好比一个人,一个健康的心脏,可能胆固醇、中风都会发生,但是我怎么知道你会发生,需要测量胆固醇来分析你的风险等级,所以每个方向都不一样。”
李杰讲到,从航空领域来说,我们通过监测飞机数据,把数据简化、归类、比较,不用每一次做分析,这样数据量就减少了很多,避免了很多不必要的发动机监控,之后我们发现大数据的挑战不是在数据量,真正的挑战是数据的自然碎片化问题,你拿到数据的时候天气跟之前不一样,环境跟之前不一样,数据的有效性受到很大影响,所以环境背景很重要,所以我们就开发了Cyber。
另外,李杰还讲到,比如我们做的实体海上风电,可以把状态、发电量,发电组做比较,可以看出差异化,看出关系,在这些基础上到第三年可以很快预测哪一个风电不稳。针对机床运行时候的多种影响,我们发明了Cyber-Twin Machine,信息实体对称模型。这套模型是今天比较成功的产品,已经在上海刚刚展示过。
李杰认为大数据的目的就是没有数据,需要我们找出逻辑关系,在今年上海的工博会,已经展示的“风云”就是使用的这个平台。而CyberTwin的观念是不同的物体运动的时候会产生大量数据,我们需要再通过其它的数据把这些数据进行简化。
随后,李杰还给我们分享了一个目前比较成功的案例,“有一个做机床的小企业,用锯片切飞机发功机的叶片,锯片切10片、8片就坏掉了,这是德国的锯片,因此我们想说刀具是软肋,那就让刀具变成数据化,我们试了一下,这在去年的美国展示过,用刀具切的时候,把量跟速度建档,可以评估不同的健康指标,不同的力,我们建立了一个数据模型,可以把特征找出来,就是刀子从新到坏的过程。对此,德国的刀具厂商说,你是不是知道我跟别的刀具有什么区别,有什么缺点,我说当然知道,那么他说,麻烦你不要说出去,而这个机床企业得到这些数据以后,可以依靠这些数据‘威胁’德国的刀具供应商对产品打折,当然这种‘威胁’是正面的。”
最后,对于中国制造2025年要做哪些事情,以及大数据对人民、社会、国家、乃至全球都会做出哪些具有的贡献。李杰给出了自己的答案,“智慧海洋中的‘5S’工程,这‘5S’就是韩国造船和中国造船的区别,韩国的船是来自星星的,而中国的船是来自北斗,中国造船真正能走向世界就一定是依靠大数据,所以应该为中国骄傲。”
李杰最后总结到,“工业4.0制造方式:6M+6C=工业4.0。《工业大数据》这本书大家有机会可以看一下~”
好文章,需要你的鼓励
前谷歌资深工程师David Petrou创立的AI初创公司Continua宣布完成800万美元种子轮融资,由GV领投。该公司开发AI智能体技术,可加入SMS、iMessage和Discord等群聊平台,为用户协作提供智能支持。Continua能够在群聊中自动设置提醒、发起投票、添加日历邀请或生成待办清单,解决群聊混乱问题。公司通过微调技术让AI理解群聊动态,具备社交智能,只在需要时提供帮助。
艾伦人工智能研究院开发的MolmoAct是首个开源的机器人空间推理模型,通过"看懂-规划-执行"三步思考法让机器人具备类人的空间理解能力。它不仅在多项基准测试中表现优异,还支持直观的视觉轨迹调教,用户可直接在屏幕上画线指导机器人行为。研究团队完全开源了模型、代码和数据集,为全球机器人研究提供强大基础平台。
Anthropic宣布为企业客户增加Claude单次提示词的信息处理量,以吸引更多开发者使用其AI编程模型。Claude Sonnet 4现支持100万token上下文窗口,可处理75万词或7.5万行代码的请求,是此前限制的5倍,超过OpenAI GPT-5的40万token。该功能也将通过Amazon Bedrock和Google Cloud等云合作伙伴提供。更大的上下文窗口有助于AI模型更好地处理软件工程问题和长期自主编程任务。
这项由北京大学和清华大学联合完成的研究首次提出时间自奖励语言模型,通过"锚定拒绝"和"未来引导选择"策略解决了AI自学习中的梯度消失问题。该方法让AI既能从过去的低水平样本中学习反面教材,又能向未来的高水平样本学习正面目标,成功维持了清晰的学习对比信号,在多个基准测试中显著优于传统自奖励方法。