本报讯 近日,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源。目前,文心大模型4.5开源系列已可在飞桨星河社区、HuggingFace等平台下载部署使用,同时开源模型API服务也可在百度智能云千帆大模型平台使用。据悉,此次文心大模型4.5系列开源后,百度实现了框架层与模型层的“双层开源”。
文心大模型4.5开源系列针对MoE架构提出了一种创新性的多模态异构模型结构,适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任务性能的基础上,显著增强了多模态理解能力,其优越的性能主要得益于多模态混合专家模型预训练、高效训练推理框架和针对模态的后训练等关键技术点。文心大模型4.5开源系列均使用飞桨深度学习框架进行高效训练、推理和部署。在大语言模型的预训练中,模型FLOPs利用率达到47%。
据了解,文心大模型4.5开源系列权重按照Apache 2.0协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片。此外,百度还同步升级发布文心大模型开发套件ERNIEKit和大模型高效部署套件FastDeploy,为文心大模型4.5系列及开发者提供开箱即用的工具和全流程支持。(文 编)