USD:Meta推出先进大型语言模型 下一个ChatGPT不远了?

ChatGPT的爆火引爆了AI行业,全球科技巨头争相杀入这一领域展开混战。周五,Meta也宣布推出大型语言模型LLaMA,加入到由微软、谷歌等科技巨头主导的AI“军备竞赛”中。

当地时间2月24日,Meta宣布将推出针对研究社区的“Meta人工智能大型语言模型”系统(Large Language Model Meta AI),简称“LLaMA”。

同ChatGPT、New Bing不同,LLaMA并不是一个任何人都可以与之对话的产品,也并未接入任何Meta应用。更为确切地说,该产品将是一个开源的“研究工具”。

公司CEO扎克伯格在社交媒体上表示,LLaMA旨在帮助研究人员推进研究工作,LLM(大型语言模型)在文本生成、问题回答、书面材料总结,以及自动证明数学定理、预测蛋白质结构等更复杂的方面也有很大的发展前景。

NFT借贷协议MetaLend完成500万美元融资,Pantera Capital领投:4月21日消息,NFT借贷协议MetaLend宣布完成500万美元融资,本轮融资由Pantera Capital领投,Collab+Currency、Ancient8等参投。本轮融资资金将用于产品研发、扩充团队和营销活动。

MetaLend是一个NFT借贷协议,目前处于测试阶段,计划在第二季度正式上线,协议前期以借贷AxieInfinity相关NFT资产为主,计划在未来两到三个月内与第二款基于Polygon的游戏集成。(coindesk)[2022/4/21 14:39:35]

Qredo与MetaMask Institutional集成进入全面生产阶段:据官网消息,数字资产管理平台Qredo宣布其MetaMask Institutional集成已从Beta版本转向全面生产阶段,以为各地组织提供经过反复测试的机构级Web3和DeFi钱包。

集成的核心是Qredo的去中心化托管基础设施,它与黄金标准的DeFi钱包MetaMask Institutional相结合。两者一起形成了一种简化的方式,让组织可以在去中心化协议上进行交换、借贷和赚取收益,由Qredo去中心化多方计算(dMPC)提供保护。

据悉,自2021年10月启动集成以来,Qredo已经在多个EVM兼容链上部署了数百万美元的数字资产(包括NFT),并对集成能力进行了优化。为了为组织提供更安全、更复杂的DeFi托管,Qredo将很快发布一个灵活的有条件政策引擎和市场领先的实物保险覆盖范围。[2022/3/9 13:46:54]

MetaStreet 完成1400万美元融资,Dragonfly Capital领投:2月9日消息,NFT抵押借贷平台MetaStreet完成1400万美元融资,Dragonfly Capital领投,Animoca Brands, Ethereal Ventures, Sfermion, Nascent Capital, Delphi INFINFT, Alliance, Seed Club Ventures,? Republic Realm, Volt Capital, Kerve Capital, CMT Digital, Bitscale Capital, QCP Capital, BigBrainHoldings和Taureon参投。此次融资资金包括300万的种子融资和1100万的初始协议流动性,将用于NFT借贷市场的发展扩张。

据悉,MetaStreet 在2021年创立,是一个NFT抵押平台的流动性和扩展解决方案。[2022/2/9 9:40:12]

Meta表示,LLaMA可以在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者,正在接受研究人员的申请。

IBM与德意志银行及METACO合作,拓展加密托管业务:IBM已将其软件授权给瑞士数字资产托管服务提供商METACO。此外,德意志银行(Deutsche Bank)正在寻求IBM的帮助,以建立其计划中的加密货币托管和交易服务产品。(CoinDesk)[2021/3/25 19:16:28]

此外,LLaMA将提供底层代码供用户使用,因此用户可以自行调整模型,并将其用于与研究相关的用例。与之截然不同的是,谷歌旗下的DeepMind和OpenAI并不公开训练代码。

该公司还表示,LLaMA作为一个基础模型被设计成多功能的,可以应用于许多不同的用例,而不是为特定任务设计的微调模型。

比GPT3.5性能更强

根据Meta官网介绍,LLaMA包含4个基础模型,参数分别为70亿、130亿、330亿和650亿。其中,LLaMA 65B 和 LLaMA 33B 在 1.4 万亿个 tokens 上训练,而最小的模型 LLaMA 7B 也经过了 1 万亿个 tokens 的训练。

Meta表示,在大多数基准测试中,参数小的多的LLaMA-13B的性能优于GPT3.5的前身GPT3-175B,而LLaMA-65B更可与业内最佳的Chinchilla-70B和PaLM-540B竞争。值得一提的是,近期大火的ChatGPT便是由GPT3.5提供支持。

Meta 还提及,LLaMA-13B对算力的要求“低得多”,可以在单个数据中心级GPU(Nvidia Tesla V100)上运行。

扎克伯格写道:

“Meta 致力于这种开放的研究模式,我们将向 AI 研究社区提供我们的新模型。”

值得一提的是,去年5月,Meta 也曾推出过大型语言模型 OPT-175B。该项目同样也是针对研究人员的,这构成了其聊天机器人 blenterbot 新迭代的基础。后来,该公司还推出了一款名为“卡拉狄加”(Galactica) 的模型,但因经常分享偏见和不准确的信息而遭到下架。

据媒体报道,扎克伯格已将人工智能作为公司内部的首要任务,其本人也经常在财报电话会议和采访中谈论它对改进 Meta 产品的重要性。媒体分析称,虽然现在 LLaMA 没有在 Meta 产品中使用,但未来不排除使用的可能。

本文不构成个人投资建议,不代表平台观点,市场有风险,投资需谨慎,请独立判断和决策。

华尔街见闻

媒体专栏

阅读更多

金色早8点

金色财经

Odaily星球日报

欧科云链

Arcane Labs

深潮TechFlow

MarsBit

澎湃新闻

BTCStudy

链得得

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

[0:4ms0-3:254ms