阿里巴巴开源了320亿参数的大语言模型Qwen1.5-32B,性能略超Mixtral 8×7B MoE,略低于720亿参数的Qwen-1.5-72B。Qwen1.5-32B具有高性价比,显存需求减半,适合更广泛使用。模型在多项评测中表现优秀,特别是在推理和数学方面。支持32K上下文长度,以通义千问的开源协议发布,允许商用。
英特尔正努力对外发布尚在开发的硬件,同时辅以对开源的高度重视,希望借此将自身与竞争对手区分开来、吸引更多开发人员使用其云方案。
马斯克旗下大模型公司开发的Grok-1大语言模型已开源,采用Apache2.0协议。Grok-1是一个混合专家架构模型,参数总数3140亿,每次推理激活860亿。虽然在MMLU和GSM8K评测中表现不错,但与同类模型相比资源消耗大而收益不显著。开源的仅为推理代码,训练基础设施和tokenizer的特殊token作用未透露。
马斯克宣布将开源其公司xAI发布的生成式AI产品Grok,一款类ChatGPT产品,提供文本、代码生成等功能,性能超GPT-3.5但弱于GPT-4。Grok-1在多个测试平台表现优异,但仍有局限性,如需内容审核,无独立搜索能力。
DeepSeekVL是一款开源多模态模型,通过对训练数据、模型架构和训练策略的联合拓展,构建了7B与1.3B规模的强大模型。相关资源可通过论文链接、模型下载页面和GitHub主页获取。
AWS近日宣布,计划通过旗下Amazon Bedrock服务提供来自知名机器学习初创公司Mistral AI的两个人工智能模型。
著名大模型开源平台stability.ai推出了——Stable Diffusion 3,据官方介绍,其对prompt的理解以及在图像质量、拼写能力方面的AI生图效果达到全新高度。
国产操作系统欧拉累计装机量超过610万套,欧拉在技术生态方面与国际主流基金会深度合作,已支持全球98%的主流开源软件。
生成AI大语言模型供应商Hugging Face已经与戴尔达成协议,计划将更多定制化生成AI模型部署在戴尔的服务器与存储产品之上。
10月30日,昆仑万维宣布开源百亿级大语言模型「天工」Skywork-13B系列,并罕见地配套开源了600GB、150B Tokens的超大高质量开源中文数据集。
随着科技的不断进步和经济的全球化,编程已成为当今社会的重要组成部分,在众多行业领域发挥着重要作用,同时也促进了社会产业升级和创新突破。程序员通过编程正在深刻影响和改变着千行百业,程序员群体的成长发展理应得到社会更多的关注。
据路透社报道,近日多名美国议员打着所谓“保护国家安全”的旗号,要求拜登政府采取行动,限制美企参与合作研发在中国广泛使用的RISC-V开源技术
英特尔近日对其FPGA产品线进行了扩展,增加了成本优化型产品,并开源了软件堆栈的官方版本,增加了免费的RISC-V处理器设计等更新。