近日,国内社交内容平台小红书在人工智能领域迈出了重要一步,宣布开源其首个大型语言模型dots.llm1。这一举动不仅为开源社区增添了一名重量级的新成员,也彰显了小红书在技术创新上的雄厚实力。
dots.llm1是一个拥有1420亿参数的混合专家(MoE)模型,但在实际应用中,它仅需激活140亿参数,便能展现出与阿里Qwen3-32B模型相近的性能。这一特性使得dots.llm1在保持高效能的同时,也大大降低了运算成本。在中文任务上的表现尤为亮眼,dots.llm1在C-eval评测中取得了92.2分的高分,超越了包括DeepSeek-V3在内的众多模型。
[链接登录后可见]
dots.llm1的项目地址:
GitHub仓库:[链接登录后可见]
HuggingFace模型库:[链接登录后可见]