腾讯开源最大MoE大模型-Hunyuan-Large

鹅厂迫于压力真是把家底都掏出来,自家最好的大模型开源了

  • 就是元宝、微信读书、QQ音乐里的同款模型 Hunyuan Moe A52B
  • 389B 的 MoE 模型
  • 激活参数 52 B
  • 256K 上下文
  • 7T 训练量
  • 免费,可商用

    指标都非常好
    把 MoE 的技术心得全部公开了…对就是文生图这个也开了

Hunyuan-Large 整体模型效果

公开测评结果显示,腾讯混元 Large 在 CMMLU、MMLU、CEval、MATH 等多学科综合评测集以及中英文 NLP 任务、代码和数学等 9 大维度全面领先,超过 Llama3.1、Mixtral 等一流的开源大模型。

本次腾讯混元 - Large 共计开源三款模型:Hunyuan-A52B-Pretrain,Hunyuan-A52B-Instruct 和 Hunyuan-A52B-FP8,可支持企业及开发者精调、部署等不同场景的使用需求,可在 HuggingFace、Github 等技术社区直接下载,免费可商用。通过技术优化,腾讯混元 Large 适配开源框架的精调和部署,具有较强的实用性。腾讯云 TI 平台和高性能应用服务 HAI 也同步开放接入,为模型的精调、API 调用及私有化部署提供一站式服务。

【开源官网】:https://llm.hunyuan.tencent.com/

【腾讯3D模型访问地址官网地址】:https://3d.hunyuan.tencent.com

【github(开源模型工具包)】:https://github.com/Tencent/Hunyuan-Large

【huggingface(模型下载)】:https://huggingface.co/tencent/Hunyuan-Large/tree/main

【huggingface demo 地址】:https://huggingface.co/spaces/tencent/Hunyuan-Large

【技术报告】:https://arxiv.org/abs/2411.02265