这段时间,蚂蚁一篇技术论文引发关注。论文中显示,他们推出的两款MoE大模型,能够在国产GPU上完成与英伟达同效的训练。一时间,该消息在技术圈发酵,登上了热搜,甚至还传出「计算成本低于DeepSeek」一些传闻。
MilkThink团队 投稿量子位 | 公众号 QbitAI 事关路由LLM(Routing LLM),一项截至目前最全面的研究,来了—— 共计收集和整理了涉及8500+个LLM,在12个Benchmark上的共2亿条性能记录! 先来简单科普一下路由LLM。 这种方法主要是把像ChatGPT、Qwen、DeepSeek这些成型的LLM当作 “专家” ,当给一个输入的时候,有分类能力的Router( ...