LAYER:AI丰收年——继AGIX崛起之后的CNTM

AI代币的价值在2023年呈爆炸式增长。2021年首次推出的一个休眠代币在1月份上涨了近4000%。2022年是AI丰收年之后,AI代币价格上涨。DALL-E2和ChatGPT等工具重新定位了技术对话。

人工智能的爆炸式增长吸引了全世界的目光。加密市场也不例外。

对于大多数加密货币交易者而言,2023年的表现比预期的要好得多。在令人沮丧的2022年结束后,随着FTX的崩溃和随后对市场的冲击,我们对2023年的预期有限。然而,市场又迎来一波爆发,所以告诉我们一个道理,资本市场玩的是什么,风向!说直白点就是趋势,站在时代风口上,连只猪都能起飞,更何况我们这些时代的弄潮儿呢!

比特币21天内飙升至2.3万美元以上。自2月2日仅一次突破24,000美元大关以来,加密货币的OG一直保持相对稳定。以太坊也取得了类似的成功,并在2月2日达到顶峰,价格略高于1700美元。

过去30天,BTC上涨34.1%,ETH上涨28.02%。不错,对吧?

然而,市场上一些最成功的代币让BTC和ETH相比之下显得微不足道。SingularityNET30天最高上涨669.15%,AnchorNeuralWorld上涨810.66%,GNY上涨946.61%。他们有什么共同点?它们是AI代币。

但今天本文要介绍的重点——CNTM

很多人问为何不推荐AGIX之类的强势龙头?这就是很韭菜的问题了,目前来看,AGIX已经走得太远了,追高实属不明智的选择,CNTM近30天涨幅才67%,这个币会有自己的独立行情,不会随大盘走,后续还会有大的动作,而这才是大多数后知后觉投资者的战略第一布局标的!

那什么是CNTM?

Connectome是一个基于区块链核心技术开发的DeFi人工智能投顾平台,支持DeFi产品上链交易、理财产品去中心化AI测评、流动性挖矿、一键式智能投顾、智能客服等。通过大数据多维分析、AI模型演练,为用户提供接近一站式的、定制化人工智能投资顾问服务,为理财产品发行人、投资用户提供全方位的区块链解决方案。

未来发展

1.基于ChatGPT的理论,创建CNTM的GPT平台:Jinn;

2.为Jinn加入双引擎结构:GPT引擎+传统搜索引擎,从而实现Web3的AI搜索功能;

3.将Jinn与CNTM1.0的板块结合,增强金融领域的AI搜索推荐功能;

Jinn=ChatGPT+Sparrow

JinnVSChatGPT

ChatGPT目前的三个核心问题:

对于知识类型的问题,ChatGPT会给出看上去很有道理,但是事实上是错误答案的内容;

拓展解读:对于这样来说,由于ChatGPT的一部分回答很准确,而一部分看上去有道理,但事实上很离谱,而用户并没有足够的能力来进行辨别,这将给用户如何采信ChatGPT的答案带来很多困惑。

ChatGPT目前这种基于GPT大模型基础上进一步增加标注数据训练的模式,对于LLM模型吸纳新知识非常不友好;

拓展解读:新知识总是在不断出现,而出现一些新知识就去重新预训练GPT模型是不现实的,无论是训练时间成本还是金钱成本,都不可接受。如果对于新知识采取Fine-tune的模式,看上去可行且成本相对较低,但是很容易产生新数据的引入导致对原有知识的灾难遗忘问题,尤其是短周期的频繁fine-tune,会使这个问题更为严重。

ChatGPT或GPT4的训练成本以及在线推理成本太高,无法承载超过千万级的用户同时使用;

拓展解读:假设继续采取免费策略,OpenAI无法承受,但是如果采取收费策略,又会极大减少用户基数,无法实现规模化。

Sparrow是ChatGPT的良好补充:

sparrow在人工标注方面的质量和工作量不如ChatGPT;

Sparow的基于retrieval结果的生成结果证据展示,以及引入LaMDA系统的对于新知识采取retrieval模式,可以完美解决新知识的及时引入,以及生成内容可信性验证两个核心问题。

Jinn的优势:

Jinn=ChatGPT+Sparrow

Jinn使用ChatGPT为核心框架,引入了Sparow的基于retrieval结果的生成结果证据展示,以及引入LaMDA系统的对于新知识采取retrieval模式;

所以Jinn既有有高质量的人工标注,也可以完美解决新知识的引入问题,同时又有效的内容可信性验证功能,从而打造下一代为Web3服务的搜索引擎基础。

下一代搜索引擎:Jinn

Jinn将采用传统搜索引擎+ChatGPT的双引擎结构,ChatGPT模型是主引擎,传统搜索引擎是辅引擎。传统搜索引擎的主要辅助功能有两个:一个是对于ChatGPT产生的知识类问题的回答,进行结果可信性验证与展示,就是说在ChatGPT给出答案的同时,从搜索引擎里找到相关内容片段及url链接,同时把这些内容展示给用户,使得用户可以从额外提供的内容里验证答案是否真实可信,这样就可以解决ChatGPT产生的回答可信与否的问题,避免用户对于产生结果无所适从的局面。

传统搜索引擎的第二个辅助功能是及时补充新知识。既然不可能随时把新知识快速引入LLM,那么可以把它存到搜索引擎的索引里,ChatGPT如果发现具备时效性的问题,它自己又回答不了,则可以转向搜索引擎抽取对应的答案,或者根据返回相关片段再加上用户输入问题通过ChatGPT产生答案,这里有一部分将参考LaMDA关于新知识处理的具体方法。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

[0:0ms0-4:422ms