好文章,需要你的鼓励
Snap 推出 Lens Studio 的 iOS 应用和网页工具,让所有技能层次的用户都能通过文字提示和简单编辑,轻松创建 AR 镜头,包括生成 AI 效果和集成 Bitmoji,从而普及 AR 创作,并持续为专业应用提供支持。
这项研究提出了CURE框架,通过强化学习让大语言模型同时学习编写代码和生成单元测试两种能力,无需使用标准代码作为监督。团队开发的ReasonFlux-Coder模型在仅用4.5K编程问题训练后,便在多个基准测试中超越了同类模型,代码生成准确率提高5.3%,最佳N选1准确率提高9.0%。该方法不仅提升了模型性能,还提高了推理效率,同时为降低API调用成本和无标签强化学习提供了新思路。
南京大学与字节跳动联合团队开发的MotionSight系统,为多模态大语言模型提供了"动态视觉增强"能力,解决了现有AI系统在理解视频细粒度动作方面的困难。这一零样本方法通过对象中心的视觉聚光灯和动态模糊技术,显著提升了模型对物体动作和摄像机动作的感知能力,在不需要额外训练的情况下实现了业界领先性能。研究团队同时构建了MotionVid-QA数据集,这是首个专注于细粒度视频动作理解的大规模开源数据集,包含4万多个视频片段和近9万个问答对,为未来研究提供了宝贵资源。