Meta首次推出AI语言模型,但它仅适用于研究人员

作者人工智能自然语言处理科技

3 月 5, 2023

据该公司称,Facebook母公司Meta的LLaMA计划可以胜过更大的AI模型,包括OpenAI的旧GPT 3模型。

随着聊天机器人大战的升温,Facebook母公司Meta正在推出自己的自然语言处理人工智能科技的大语言模型,它表示可以超越竞争对手的程序,包括OpenAI的旧GPT-3模型。

Meta 的自然语言处理人工智能科技的大型语言模型称为骆马,它可以通过基本上自动完成文本字符串来生成类似人类的对话,就像其他人工智能自然语言处理技术的聊天机器人一样。然而,该公司表示,它可以比其他大型语言模型更有效地运行,并且需要更少的硬件要求。

该公司的研究人员在一篇论文中写到:“LLaMA-13B尽管它小了10倍,但在大多数基准测试中优于GPT-3。”(相比之下,GPT-3 最初于 2020 年首次亮相,然后使用较新版本为 OpenAI 的 ChatGPT 程序提供支持。

尽管有夸大改进,但 Meta 只向研究界发布 LLaMA。目标是在很明显人工智能驱动的聊天机器人(如 ChatGPT)可能会产生事实错误并在答案中显示偏见时,从专家那里收集更多意见。

“我们相信这种模式将有助于使LLM(大型语言模型)的访问和研究民主化,因为它可以在单个GPU上运行,”该公司的研究人员在一篇论文中补充道。

过去,Meta 发布了自己的聊天机器人,但它们未能像 OpenAI 的 ChatGPT 那样吸引人们的兴奋,最近可能有多达 100 亿人使用它。因此,该公司可能希望在向公众发布LLaMA之前花点时间。

Meta 还指出,对大型语言模型的访问可能会受到限制,因为它们通常需要服务器才能运行。该公司博客文章中表示,“这种受限的访问限制了研究人员理解这些大型语言模型如何以及为什么工作的能力,阻碍了提高其健壮性和缓解已知问题(如偏见,有毒和错误信息的可能性)的努力取得进展”。

Meta的LLaMA模型进来了四个版本运行超过 7 亿、13 亿、33 亿或 65 亿个参数。这比OpenAI的GPT-3要小得多,后者运行在175亿个参数上。然而,Meta 表示,LLaMA 能够通过在更多数据片段(称为令牌)上对其进行训练来超越现有的大型语言模型。

“我们在65.33万亿个代币上训练了LLaMA 1B和LLaMA 4B。我们最小的模型LLaMA 7B是在一万亿个代币上进行训练的,“该公司补充道。这包括在互联网上的文本以及书籍和维基百科文章上训练模型。

来源:https://www.pcmag.com/news/meta-debuts-ai-language-model-but-its-only-for-researchers

作者人工智能自然语言处理科技

作者头像由AI生成, 您值得拥有的优质域名 -- AINLP.Tech

促销域名

XROS.Ltd

¥68,000
优惠期到: 2024年5月31日

PayCNY.com

¥50,000
优惠期到: 2024年5月31日

ZhiKeCorp.com

¥680,000
优惠期到: 2024年5月31日

VRco.Ltd

¥6,800
优惠期到: 2024年5月31日