0
0
AI圈水太深:OpenAI保密、Meta作弊!国产MoE却异军突起
新智元报道 编辑:KingHZ 从 GPT-2 到 Llama 4,大模型这几年到底「胖」了多少?从百亿级密集参数到稀疏 MoE 架构,从闭源霸权到开源反击,Meta、OpenAI、Mistral、DeepSeek……群雄割据,谁能称王? 从传统稠密架构到如今流行的稀疏专家模型(MoE),语言大模型