2020年留给中高考学生的时间不多了。春节前后爆发的疫情,催生了长达数月的线上教育,在有限的学习时间里提升学生专注力,提高学习效率,成为摆在全国近3亿师生面前的难题。
针对从柔性需求到刚性需求转变的线上教育行业,国内AI视觉领域创新能力者360OS吹响了AI落地教育行业的新号角。以“课堂专注度分析”为切入点,通过“用户+产品+技术“的创新落地应用模式,正在切实解决在线教育行业的应用痛点。
缘何布局在线教育市场?
对360OS AI影像视觉团队来说,精密领先的视觉算法能力,在智能手机领域早已被行业认可。拓展细分行业、用AI科技赋能百行百业是360OS未来重要的市场布局。其中,赋能教育信息化,成为360OS AI影像2020年迈出的关键一步。
教育信息化一直是行业洼地。有业内人士预估,全国教育信息化程度理性点10%,乐观些20%。另根据《国家中长期教育改革和发展规划纲要》,2020年我国幼儿园、中小学、高等教育在校生目标高达3亿人左右。
市场空间大、集中度不高、众多在线教育场景难题,成为技术创新企业进入市场、分割市场的天然沃土。360OS AI影像团队负责人张焰焰表示,在线教育市场合作伙伴不仅仅需要技术,他们更需要的是能够结合用户场景,提升用户体验的产品技术及服务,AI技术应该成为业务的支撑力量。
“三“融合,深入场景的创新探索
与大部分技术厂商不同的是,360OS在教育领域的探索形成了以“用户+产品+技术”的三融合模式,从外置型技术辅助走向了内融型技术渗透。
360OS在线教育产品技术解决方案,可以提供表情、人脸、人体姿态识别等技术支撑,也可以结合实际场景设计解决方案 ,比如利用表情、动作、姿态等多维度的检测分析,将课堂专注度量化、让技术产生可视化价值。
以课质监测为例,360OS在线教育产品技术解决方案通过摄像头采集课堂图像信息,识别学生上课时的表情、动作以及周边环境,围绕课堂专注度进行低头率、瞌睡率、疑惑度等关键指标分析,为学生个性化辅导及老师教学质量评估提供数据依据,这就在技术层面解决了学生专注度难以量化评估的问题,侧面提升了教学效率。
除此之外,将考勤功能集成到在线课堂的AI考勤;利用AR贴纸、手势识别增强课堂互动;基于人体关键点检测的体态纠正;基于3D emoji、人像分割的教学辅助功能等都是360OS针对在线教育的功能性探索。
服务加速可视化价值的转化
内容、产品、平台、服务,一个互联网服务的闭环。360OS作为前沿的技术厂商,深刻认识到这一点。360OS触及实地需求,在服务上推陈更新,加速AI技术在教育行业的应用落地。
360OS AI影像可以根据客户的实际需求定制针对性解决方案;并且通过支持多种合作方式,灵活匹配到不同企业的商务模式,让应用快速落地,高度适应在线教育行业快速部署的需求。
AI产业化、产业AI化,加速细分行业应用落地,正成为360OS的全新布局。360OS将瞄准线下教培机构、新兴互联网在线教育企业、教育平台类等全品类合作伙伴,与合作伙伴一同开发更赋价值的商业应用。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。