栏目分类
热点资讯
蚂蚁、中国人民大学发布行业首个原生MoE扩散语言模型发布日期:2025-10-17 10:57 点击次数:95
外滩大会上,蚂蚁集团和中国人民大学联合研发原生MoE架构扩散语言模型(dLLM) LLaDA-MoE,在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性。该模型将在近期完全开源。
举报 第一财经广告合作,请点击这里此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。如需获得授权请联系第一财经版权部:banquan@yicai.com 文章作者
陈杨园
相关阅读目前, LongCat-Flash-Thinking已在HuggingFace、Github全面开源。
103 09-22 14:10腾讯ima的月活跃用户在半年内增加了80倍。
89 09-16 10:23
中国在全球大模型开源生态的贡献度达到18.7%中美两个国家的贡献总比例超过55%。
69 09-13 10:26蚂蚁集团宣布蚂蚁财富开放平台3.0升级。
81 09-12 13:26训练成本仅为Qwen3-32B的十分之一不到。
132 09-12 07:15 一财最热 点击关闭