尤其是中文移民社区“一亩三分地”上,自称提交辞呈、要求从 Llama 4 技术报告中删除名字的“Meta 员工”发帖表示,随着 Deadline(截止日期)的逼近,Meta 最终选择了将各个基准测试的测试集混合在 Post-Training“后训练”(对应大模型的“预训练”阶段)之中。 然而到了 Llama 4,情况已经发生了巨大的变化,DeepSeek V3/R1 的发布扭转了开源与闭源模型的差距,并且大大加速了开源模型的发展速度。 而从目前来看,Meta 的做法显然错了,经过能在发布之处获得更高的期待、更多的关注,但之后的实际表现不仅让人更加失望,也打破了用户对 Llama 系列“领先、可靠”的认知。
Published at: 2025-04-09 02:06:39
Still want to read the full version? Full article