Meta 推出 AI 语言模型 LLaMA,一个有着 650 亿参数的大型语言模型
2 月 25 日消息,meta 在当地时间周五宣布,它将推出一种针对研究社区的基于人工智能 (AI) 的新型大型语言模型,与微软、谷歌等一众受到 ChatGPT 刺激的公司一同加入人工智能竞赛。
meta 的 LLaMA 是“大型语言模型 meta AI” (Large Language Model meta AI)的缩写,它可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者。
该公司将提供底层代码供用户使用,因此用户可以自行调整模型,并将其用于与研究相关的用例。meta 表示,该模型对算力的要求“低得多”。
据介绍,该公司正在开发多种参数(7B、13B、33B 和 65B)的 LLaMA。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 万亿个 tokens 上训练,而最小的模型 LLaMA 7B 也经过了 1 万亿个 tokens 的训练。
与其他大型语言模型一样,LLaMA 的工作原理是将一系列单词作为“输入”并预测下一个单词以递归生成文本。为了这套模型,meta 从使用人数最多的 20 种语言中选择文本进行训练,重点是拉丁语和西里尔字母。
当然,与其他模型一样,LLaMA 也面临着偏见、有毒评论和幻觉的挑战,meta 还需要做更多的研究来解决这类语言模型中的不足。
meta 表示,LLaMA 作为一个基础模型被设计成多功能的,可以应用于许多不同的用例,而不是为特定任务设计的微调模型。通过开源 LLaMA 的代码,其他研究人员可以更轻松地找到限制或消除这些问题的新方法。meta 还在本文中提供了一组评估模型偏差和毒性的基准评估标准,以显示模型的局限性并支持研究人员在这一关键领域的进一步研究。
[img]
值得一提的是,meta 在去年 5 月也曾推出过大型语言模型 OPT-175B。该项目同样也是针对研究人员的,这构成了其聊天机器人 blenterbot 新迭代的基础。
后来,该公司还推出了一款名为“卡拉狄加”(Galactica) 的模型,据称它可以撰写科学文章和解决数学问题,但其演示版本后来被下架,因为它反复生成“听起来很权威”的内容。
相关文章
- 不满足于人机对话!微软希望用 ChatGPT 控制机器人为人类提供日常服务
- 必应聊天机器人使用限制放宽,每日聊天次数上限增至100次
- 迎接人工智能的下一个时代,小蛮腰科技大会5月25日约定你
- ChatGPT 热潮席卷,AI 监管能否同步“狂飙”
- 院士称我国已经具备ChatGPT算力基础 关键在如何爆发
- 微软将把必应聊天回复限制在 5 条以内,以防人工智能越界
- 人工智能技术引发版权争端 OpenAI被多家媒体起诉使用文章训练ChatGPT
- 微软 Win11 全新 AI 功能曝光:让人工智能记住你常用的窗口布局
- ChatGPT Plus订阅服务 中国用户如何付款
- 虚拟信用卡depay怎么下载?如何使用depay给ChatGPT充值?
- 马斯克锐评人工智能:是人类最大的威胁之一,程度超过核技术
- 聊天机器人 ChatGPT 爆火,谁在中国“围猎”AIGC
- 火狐、爱奇艺官宣接入百度文心一言
- OpenAI CEO 高级凡尔赛:我知道 ChatGPT 很酷,但这却是个“糟糕的产品”
- 北京经信局:支持头部企业打造对标ChatGPT的大模型
- 北京昇腾人工智能计算中心正式点亮:一期算力规模达 100P