首个在国产芯片上全程训练的sota多模态模型glm-image,开源仅24小时内便强势登顶全球权威ai开源平台hugging face trending榜单首位。其卓越的性能表现、原创性架构设计以及全栈国产化训练实践,迅速引发海外科技社群广泛关注与热议。
这也是首例完全基于国产硬件平台完成端到端训练并成功跻身国际顶级榜单榜首的国产AI模型,标志着我国在AI大模型领域的全链条自主创新能力迈入新阶段,具备与国际顶尖水平同台竞技的实力。

GLM-Image项目的核心使命在于实现从底层架构、训练框架到推理部署的全流程自主创新,是GLM团队围绕以Nano Banana Pro为代表的新一代「认知驱动型生成」技术范式所开展的关键性实践。
在模型架构层面,区别于当前主流开源方案普遍采用的LDM(Latent Diffusion Models)路径,GLM-Image首创性地构建了「自回归编码器 + 扩散解码器」协同架构,不仅在基础性能上与主流方案保持齐平,更在知识密集型图文生成任务中展现出显著优势。

通用处理流程

解码器结构示意
在训练基础设施方面,GLM-Image全面适配昇腾Atlas 800T A2计算设备及昇思MindSpore AI框架,完整覆盖数据预处理、模型训练、精度验证与推理优化等环节,实测训练效率逼近硬件理论峰值,有力证实了依托国产算力打造国际领先AI模型的技术可行性与工程成熟度。

在基准测试中,GLM-Image一举斩获CVTG-2K(复杂视觉-文本联合生成)与LongText-Bench(长文本图像渲染)两项权威榜单开源模型第一名,具备精准理解用户指令、准确输出文字内容的能力,尤其在汉字结构建模与语义一致性控制方面表现突出,可高效服务于海报设计、课件制作、科普插图等高知识密度应用场景。

立即体验
打开智谱清言APP或访问网页版,进入“AI画图”智能体,在界面左下角切换至GLM-Image模型,即可免费开启高质量图文生成之旅。
开源地址
GitHub:https://www.php.cn/link/ff9c1a8b955799b9a952856a8fe60a54
Hugging Face:https://www.php.cn/link/51b8124b9aa747da1d75808559681899










