摩尔线程首届MUSA开发者大会将于10月30日-31日在北京举行

10月30日,国产显卡厂商摩尔线程把首届MUSA开发者大会于北京举行,国产GPU的下一页,需要开发者一起书写。没有“震撼发布”,没有“颠覆世界”,只有一句朴素的主题——“共赴数智新程”。但在英伟达CUDA高墙林立、AI算力“显卡即门票”的当下,这场大会更像一次“开放日”:摩尔线程把芯片、框架、工具链一股脑摆上桌,邀请开发者进来挑刺、共建,顺便告诉市场:MUSA生态不是PPT,已经可以上手跑代码了。

官方口径里,MUSA是“MT Unified System Architecture”的缩写,定位对标CUDA+X86生态。翻译成人话:它想让开发者把在英伟达上跑的AI模型、图形渲染、科学计算代码,改几句就能迁移到摩尔线程GPU上。指令集层面,MUSA提供MT-ISA指令集,支持SIMT并行模型,和CUDA的thread/block/grid抽象一一对应;编译器层面,mxCUDA插件能把CUDA源码自动转译成MUSA中间码,官方数据90%代码无需改写;库层面,MUSA BLAS、FFT、DNN、SOLVER已覆盖AI训练、推理、科学计算80%常用接口。

听起来像“换皮CUDA”,但摩尔线程留了一手:MUSA同时支持OpenCL、Vulkan、SYCL,甚至把OneAPI的DPC++也接进来。换言之,它不想只做“国产平替”,而是提前押注多后端异构计算——今天你在MUSA上写SYCL,明天可以跑英特尔GPU、AMD GPU,甚至国产申威。摩尔线程把兼容当“敲门砖”,把开放当“护城河”,先让开发者零成本搬家,再慢慢把“只能在这跑得最好”的专属特性喂出来,路径和当年安卓“先兼容Java再推NDK”如出一辙。

大会一共两天,主论坛只给了一上午,剩下的时间被切成八块:AI Infra、具身智能、端侧智能、科学计算、图形渲染、开发者工具、摩尔学院、智能计算。国产GPU最缺的从来不是峰值算力,而是“踩坑记录”——没人知道在1024卡集群上,All-Reduce会不会突然掉速,也不知道连续跑30天后显存会不会泄露。摩尔线程现场宣布:开放MUSA Stack全部源码、Profiling数据、错误日志,并承诺“48小时内响应Issue”。同时上线“摩尔学院”,把调试案例、性能调优脚本、模型量化指南做成开源仓库,允许开发者直接提交PR。

这一招相当于把“黑历史”提前晾晒:bug越早被踩,越早被修;issue越早被提,越早关闭。CUDA花了15年建立的信任,MUSA想用“透明”换时间——我敢裸奔,你敢用吗?历史不会简单重复,却常常押韵。CUDA当年凭“大学实验室+免费卡”滚起雪球,MUSA如今把首批样卡送进高校、把源码推上GitHub,路径如出一辙。国产GPU能不能成,关键不在PPT峰值,而在有多少开发者愿意把周末耗在给MUSA提PR。