华为近期发布的盘古Pro MoE大模型,通过动态激活专家网络的创新设计,实现了以小打大的优异性能。然而,近日一项发布于GitHub的研究引发业界关注,该研究认为,华为推出的盘古大模型与阿里巴巴发布的通义千问Qwen-2.5 14B模型在参数结构上存在“惊人一致”。
7月5日下午,华为盘古团队发布声明表示,盘古Pro MoE开源模型是基于昇腾硬件平台开发和训练的基础大模型,并非基于其他厂商模型增量训练而来。该模型在架构设计和技术特性方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型。盘古Pro MoE提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升了训练效率。
声明还指出,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。华为严格遵循开源许可证的要求,在开源代码文件中清晰标注了开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。华为始终坚持开放创新,尊重第三方知识产权,提倡包容、公平、开放、团结和可持续的开源理念。
华为感谢全球开发者与合作伙伴对盘古大模型的关注和支持,高度重视开源社区的建设性意见。希望通过盘古大模型开源,与志同道合的伙伴一起探索并不断优化模型能力,加速技术突破与产业落地。华为欢迎并期待大家在开源社区Ascend Tribe就技术细节进行深入、专业的交流。