|
Canada-0-MATTRESSES ไดเรกทอรีที่ บริษัท
|
ข่าว บริษัท :
- LongCat-Next:
Remarkably, LongCat-Next achieves competitive performance with specialized understanding models, while maintaining strong generative quality even under a 28× compression ratio, particularly in text rendering, while also excelling in advanced speech comprehension, low-latency voice conversation, and customizable voice cloning
- 美团发布开源原生多模态大模型 LongCat-Next,让视觉和 . . .
美团用 LongCat-Flash-Lite MoE(68 5B 总参数,3B 激活参数)作为基座,在这个框架基础上训练了 LongCat-Next。 实验表明,DiNA 的 MoE 路由在训练中逐渐出现模态专精化,激活专家数量相比纯语言设置有所增加,模型正在用更大容量支撑能力扩展。
- GitHub - meituan-longcat LongCat-Next
Remarkably, LongCat-Next achieves competitive performance with specialized understanding models, while maintaining strong generative quality even under a 28× compression ratio, particularly in text rendering, while also excelling in advanced speech comprehension, low-latency voice conversation, and customizable voice cloning
- LongCat-Next_百度百科
LongCat-Next,是美团发布的原生多模态大模型。该模型将图像、语音与文本统一映射为同源的离散Token,通过纯粹的“下一个Token预测”(Next Token Prediction,NTP)范式,让视觉与语音成为AI的“原生母语”。2026年3月27日,美团发布并全面开源原生多模态大模型LongCat-Next及其核心组件——离散原生分辨率
- 美团发布原生多模态 LongCat-Next:把物理世界变成 AI “文字”
美团 LongCat 团队给出了肯定的答案。通过构建 DiNA(Discrete Native Autoregressive)离散原生自回归架构,LongCat-Next 将所有模态统一为离散 Token,并共享同一个自回归骨干。无论输入的是文字、图像还是音频,模型都使用同一套参数、同一个注意力机制和同一个损失函数。 在这一极简架构下,视觉的“看
- 项目首页 - LongCat-Next:可用于处理文本、视觉和音频的多 . . .
LongCat-Next Tech Report 📄 Model Introduction We develop LongCat-Next, a native multimodal model that processes text, vision, and audio under a single autoregressive objective with minimal inductive bias beyond the language paradigm
- LongCat-Next – 美团推出的超长上下文大语言模型与长文本 . . .
LongCat-Next 支持最高 1M Token 的超长上下文长度,通过 LoZA(LongCat ZigZag Attention)稀疏注意力机制优化长序列建模能力,在复杂文档分析与多轮推理任务中表现稳定。 模型当前以文本处理为核心,同时具备扩展多模态能力的架构基础。
- 美团LongCat-Next:开源多模态AI的未来之路_Qwen_模型_Token
美团在LongCat-Next的基础上,采用了LongCat-Flash-LiteMoE(68 5B总参数,3B激活参数),实验结果显示,DiNA的MoE路由在训练过程中逐渐实现了模态专精化。 这意味着模型能够在不同任务中发挥更大的能力,尤其是在视觉理解、图像生成、音频处理等领域。
- 美团开源原生多模态大模型LongCat-Next_腾讯新闻
3月27日,美团发布并全面开源原生多模态大模型LongCat-Next。该模型打破了当前大模型以“语言为中心”的传统拼凑式架构,将图像、语音与文本统一
- 美团大模型团队开源LongCat-Next:以离散自回归范式统一 . . .
LongCat-Next 总计685亿参数,推理时仅激活30亿参数,基于此前发布的 LongCat-Flash-Lite 混合专家(MoE)架构构建,兼顾了模型性能与部署效率。该模型在视觉理解、图像生成和语音合成三大方向均展现出工业级的能力表现。
|
|