找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 0|回复: 0

美团发布并开源 LongCat-Flash-Chat 大模型:总参数 560B,AI 智能体任务表现突出

[复制链接]

0

主题

0

回帖

0

积分

管理员

积分
0
发表于 昨天 10:36 | 显示全部楼层 |阅读模式
IT之家 9 月 1 日消息,美团今日正式发布 LongCat-Flash-Chat,并同步开源。

LongCat-Flash 采用创新性混合专家模型(Mixture-of-Experts,MoE)架构,总参数 560B,激活参数 18.6B~31.3B(平均 27B),实现了计算效率与性能的双重优化。

LongCat-Flash 模型在架构层面引入“零计算专家(Zero-Computation Experts)”机制,总参数量 560B,每个 token 依据上下文需求仅激活 18.6B~31.3 B 参数,实现算力按需分配和高效利用。为控制总算力消耗,训练过程采用 PID 控制器实时微调专家偏置,将单 token 平均激活量稳定在约 27B。

▲ LongCat-Flash 架构图

此外,LongCat-Flash 在层间铺设跨层通道,使 MoE 的通信和计算能很大程度上并行,提高了训练和推理效率。配合定制化的底层优化,LongCat-Flash 在 30 天内完成训练,并在 H800 上实现单用户 100+ tokens / s 的推理速度。LongCat-Flash 还对常用大模型组件和训练方式进行了改进,使用了超参迁移和模型层叠加的方式进行训练,并结合了多项策略保证训练稳定性。

针对智能体(Agentic)能力,LongCat-Flash 自建了 Agentic 评测集指导数据策略,并在训练全流程进行了全面的优化,包括使用多智能体方法生成多样化高质量的轨迹数据等,实现了更好的智能体能力。

通过算法和工程层面的联合设计,LongCat-Flash 在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,LongCat-Flash 在 H800 上达成了 100 tokens / s 的生成速度,在保持极致生成速度的同时,输出成本低至 5 元 / 百万 token

根据多项基准测试综合评估,作为一款非思考型基础模型,LongCat-Flash-Chat 在仅激活少量参数的前提下,性能比肩当下领先的主流模型,尤其在智能体任务中具备突出优势。并且,因为面向推理效率的设计和创新,LongCat-Flash-Chat 具有明显更快的推理速度,更适合于耗时较长的复杂智能体应用。



    通用领域知识方面,LongCat-Flash 在 ArenaHard-V2 基准测试中取得 86.50 的成绩,位列所有评估模型中的第二名。在基础基准测试中,MMLU(多任务语言理解基准)得分为 89.71,CEval(中文通用能力评估基准)得分为 90.44。这些成绩可与目前国内领先的模型比肩,且其参数规模少于 DeepSeek-V3.1、Kimi-K2 等产品。

    智能体(Agentic)工具使用方面,LongCat-Flash 展现出明显优势:即便与参数规模更大的模型相比,其在 τ2-Bench(智能体工具使用基准)中的表现仍超越其他模型;在高复杂度场景下,该模型在 VitaBench(复杂场景智能体基准)中以 24.30 的得分位列第一。

    编程方面,LongCat-Flash 在 TerminalBench(终端命令行任务基准)中,以 39.51 的得分位列第二;在 SWE-Bench-Verified(软件工程师能力验证基准)中得分为 60.4。

    指令遵循方面,LongCat-Flash 在 IFEval(指令遵循评估基准)中以 89.65 的得分位列第一;此外,在 COLLIE(中文指令遵循基准)和 Meeseeks-zh(中文多场景指令基准)中也斩获最佳成绩,分别为 57.10 和 43.03,凸显其在中英文两类不同语言、不同高难度指令集上的驾驭能力。



目前,LongCat-Flash-Chat 在 Github、Hugging Face 平台同步开源。IT之家附开源地址:

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|DE8G.CN ( 桂ICP备2024020718号-2 )

GMT+8, 2025-9-2 07:18 , Processed in 0.062904 second(s), 25 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表