经过漫长的等待,Meta 终于发布了其迄今为止最大的 AI 模型 Llama 3.1 405B,该模型基于 4050 亿个参数进行训练。不仅如此,Meta 还发布了升级版模型系列,其中包括 Llama 3.1 70B 和 Llama 3.1 8B 模型。所有这些模型都是开源的,扎克伯格领导的这家公司表示,“ Meta 致力于开放 AI。 ”
所有三个 Llama 3.1 模型都带有 128K 个 token 的上下文长度,并支持八种不同的语言。因此,Meta 整合了大型上下文窗口和多语言功能。至于基准测试,最大的 Llama 3.1 405B 模型超过了 OpenAI 领先的 AI 模型,例如 GPT-4 和最新的GPT-4o (Omni)。
在 MMLU 基准测试中,Llama 3.1 405B 得分为 88.6 分,而 GPT-4o 得分为 88.7 分,这意味着两者几乎处于同一水平。除此之外,在 MBPP、GSM8K、ARC Challenge 等几乎所有其他测试中,405B 模型都胜过 GPT-4o。Llama 3.1 405B 唯一落后的主要基准测试是 HumanEval,但差距很小。
在 HumanEval 中,GPT-4o 得分为 90.2,而 405B 模型得分为 89.0。最后,谈到多模态性,遗憾的是,即使在 Llama 3.1 发布之后,Meta 尚未发布真正的多模态模型。Meta 表示,Llama 3.1 模型支持图像、视频和语音识别,但它们仍在积极开发中,尚未准备好发布。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!