随着最后一届ImageNet(目前世界上图像识别最大的数据库)竞赛在2017年落下帷幕,本年度图像分类领域最高水平的比赛易主为由码隆科技联合Google Research 和美国知名电商 Wish联合举办的、针对家具家居领域的细粒度图像分类竞赛 iMaterialist Challenge (Furniture)。
竞赛力求推动自动图像分类顶尖技术的进展,所有参赛项目在 Kaggle 平台上进行评测。同时,作为CVPR2018(2018年度国际计算机视觉与模式识别学术会议)重要的研讨会之一,针对该比赛召开的 FGVC5 workshop(细粒度图像识别研讨会)将于6月22日与大会同期举行。
比赛要求对128类家具进行识别分类,共有436支队伍参赛,最终来自北京飞搜科技的李磊团队在北京邮电大学教授董远的指导下,以绝对优势获得冠军。
与 ImageNet 的粗粒度分类竞赛相比,本次竞赛更强调“在‘人造物体’领域的图像细粒度分类挑战”。一方面,这部分图像分类的技术难度更大,即便对于经过专业训练的人眼来说,也难以快速且准确地辨认很多细粒度分类数据集;另一方面,这种图像分类技术的应用前景更加广阔,可以应用于工业生产进程之中,提高效率、减少成本。
赛后,北京飞搜科技技术总监熊风烨分享了李磊团队在竞赛中使用的方法:李磊团队的识别算法主要基于CNN(卷积神经网络),针对给定的数据集,他们选择了在ImageNet上准确率较高的几种模型进行Finetune(就是用别人训练好的模型,加上自己的数据,来训练新的模型),并充分考虑了模型的差异性,以Pytorch框架为基准对其进行训练。在训练过程中,他们加入多项数据增强过程,采用SGD算法进行精细化调优参数,把全连接层的学习率设置为其他层的10倍,从而更好地调优全连接层。而对于SENet等较大的网络,则选择在SGD算法上升缓慢的时候转而使用Adam算法作为过渡。最终飞搜科技团队的单模型最好的识别效果是SENet在验证集上达到87.2%的准确率,而其他模型均有85.6%以上的表现。在测试过程中,飞搜科技团队采用了测试时数据增强的方案,采用12次增强,包括Ten crop加上原图及水平翻转图。对每个模型都得到以上12个结果的概率值进行存储,最后经过几何平均获取每个类别的准确率,取出得分最高的作为最后输出。实验证明几何平均往往在基数较大时能取得优于算术平均的效果。为了进一步减小识别可能带来的误差,飞搜团队还考虑了训练数据分布不均的情况,在测试时从贝叶斯角度加了一个校准,使得预测结果分布更均衡。
北京飞搜科技(http://www.faceall.cn/)专注于人工智能,计算机视觉和深度学习的研发,并把研究成果应用到城市运营中,让城市更加安全,交通更加高效,生产更加智能、购物更加方便。作为全球领先的深度学习技术提供商,北京飞搜科技是国家高新技术企业、中关村高新技术企业、北京市软件企业。公司不但提供智慧城市解决方案,还通过阿里云,华为云,amazon平台, 为企业与个人提供人脸/图像识别的SAAS服务; 离线SDK技术授权服务等, 到目前为止, 公司已经服务了200多家客户,为他们提供视频监控、智能鉴黄、人脸识别、图片识别、无人驾驶,线上购物支付、机器人等技术支持。
本次比赛斩获桂冠是对飞搜团队的技术水平和合作意识的一个十分有价值的肯定。北京飞搜科技公司也会借此契机继续前进,壮大团队,精进技术,更加自信地与全球精英角逐,在世界更高的舞台上为中国科技企业争光添彩!
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。