第79章 马斯克重拳出击,开源Grok-1大模型(2/5)
值得注意的是,Grok-1作为一个拥有3140亿参数的混合专家(Mixture-of-Experts,MOE)大模型,其规模之大令人咋舌。相比之下,OpenAI的GPT-3.5模型仅有1750亿参数。如此庞大的参数量使得Grok-1在语言理解和生成能力上具备了强大的优势。这也意味着,要使用和测试Grok-1,用户需要拥有足够GPU内存的机器。据网友表示,这可能需要一台拥有628 GB GPU内存的机器,这无疑提高了使用该模型的门槛,但也从侧面反映了其技术含量的高度。
在Grok-1的开发过程中,xAI团队展现出了极高的技术实力和创新精神。他们首先训练了一个330亿参数的原型语言模型Grok-0,并在标准语言模型测试基准上取得了接近LLaMA2(70B)的能力。随后,他们对模型的推理和编码能力进行了重大改进,最终开发出了功能更为强大的Grok-1。在HumanEval编码任务和MMLU中,Grok-1均取得了优异的成绩,超过了包括ChatGPT-3.5在内的其他计算类模型。
本章未完,下一页继续