本报讯 记者张琪玮报道:在近日召开的华为开发者大会2025(HDC 2025)上,华为正式发布盘古大模型5.5,宣告其自然语言处理(NLP)、计算机视觉(CV)、多模态、预测、科学计算五大基础模型实现全面升级。
据介绍,盘古大模型5.5在高效长序列、低幻觉、快慢思考融合、Agent等特性上进行升级,提升用户体验。例如,盘古提出了自适应快慢思考合一的技术,通过构建难度感知的快慢思考数据和两阶段渐进训练,实现模型根据问题难易程度自适应地切换快慢思考模式,整体模型推理效率提升8倍;此外,盘古深度研究DeepDiver通过长链难题合成、渐进式奖励等关键技术,可以在网页搜索、常识性问答等应用上获得很高的执行效率,可在5分钟内完成超过10跳的复杂问答、生成万字以上的专业调研报告等,大幅提升了工作效率。
具体而言,在自然语言处理NLP大模型方面,推出全新718B参数的深度思考模型。该模型由256个专家组成,在知识推理、工具调用、数学等领域实现大幅增强;预测大模型方面,采用业界首创的triplet transformer统一预训练架构,可将不同行业的数据进行统一的三元组编码,并在同一框架内高效处理和预训练,极大地提升预测大模型精度的同时,大幅提升跨行业、跨场景的泛化性;计算机视觉CV大模型方面,发布全新MoE架构的300亿参数视觉大模型,这也是目前业界最大的视觉模型,全面支持图像、红外、激光点云、光谱、雷达等多维度、泛视觉的感知、分析与决策,并构建油气、交通、煤矿等工业场景稀缺的泛视觉故障样本库,实现业务场景可识别种类与精度的大幅提升;多模态大模型方面,发布基于盘古多模态大模型的世界模型,可以为智能驾驶、具身智能机器人的训练,构建所需要的数字物理空间,实现持续优化迭代;科学计算大模型方面,持续拓展该模型与更多科学应用领域的结合,当前已实现在气象、能源等领域的深度落地应用。
据了解,华为云新一代昇腾AI云服务首次将384颗昇腾NPU和192颗鲲鹏CPU通过全新高速网络MatrixLink进行全对等互联,形成一台超级“AI服务器”,单卡推理吞吐量跃升到2300Tokens/s,与非超节点相比提升近4倍。
当前,昇腾AI云服务已为科大讯飞、新浪、硅基流动、面壁智能、中国科学院、360等超过1300家客户提供AI算力支撑。