HAT:AI界新贵“出圈”:CNTM 和加密货币揭示何种未来?

近来,聊天机器人程序ChatGPT爆火“出圈”,引发各界关注讨论,人工智能(AI)这一概念也借此重回大众视野。针对相关话题,清华大学计算机科学与技术系副教授黄民烈接受中新社专访时表示,泛用性极强的ChatGPT已成为AI发展史上的里程碑,如何与AI共生是每个人可能都将面对的问题。

ChatGPT因何成为AI界新贵?

美国OpenAI公司2022年11月30日正式发布ChatGPT,上线仅5天,ChatGPT的注册用户数突破100万;今年1月末,ChatGPT的月活用户数破亿,就此成为史上用户数增长最快的消费者应用。

与ChatGPT类似的聊天机器人程序不少,但都没有如ChatGPT一般引领AI领域的新风潮,原因之一就是ChatGPT的泛用性更强,仅靠其本身就可以完成翻译、编程等专业任务。“ChatGPT最大的特点是通用任务助理,其可以在一个模型内完成极多开放任务,在生成任务、上下文理解、安全伦理方面也有相当好的表现。”黄民烈指出。

技术进步则是ChatGPT泛用性显著增强的重要原因。黄民烈认为,相较于主要基于规则学习的第一代和第二代聊天机器人程序,以ChatGPT为代表的第三代聊天机器人程序在技术上有着显著进步:其以Transformer为基本架构的大模型为技术底座,结合了大量数据和算力优化。

AI界新贵ChatGPT走红后,谷歌等大型科技公司纷纷宣布推出竞品,参与AI领域的新角逐。美国微软公司创始人比尔·盖茨日前称,AI将成为“2023年最热门的话题”。

“ChatGPT的出现是AI发展史上的里程碑事件,标志着人机无缝交互时代的来临,其可能再造搜索、推荐、手机助手等信息获取形式,对信息产业和AI行业产生深远影响。”黄民烈说。

ChatGPT面临哪些争议?

AI技术的发展也带来了诸多争议。以深度伪造(Deepfake)为代表的AI换脸技术此前引发了一波关于隐私权和真相的讨论。

对此,黄民烈认为,ChatGPT已针对法律、道德等问题进行优化,其表现也比“同行”更好,研发者收集高质量人工反馈数据时,把涉及安全性和道德的问题作为ChatGPT的重要部分设计进去了,再通过强化学习,ChatGPT就学到了安全回复的能力。

不过,ChatGPT仍面临道德问题。黄民烈举了一个例子:若用户要求ChatGPT作出违法举动,就会遭到拒绝;但如果用户借口创作小说要求ChatGPT提供违反法律的建议,就可能得到答案。

ChatGPT推出后,其强大的文字撰写能力得到了学生群体的青睐,被用作完成论文。迄今为止,美国、英国等国多所高校已明令禁止学生在校内使用ChatGPT。美国《科学》杂志近期也发表声明,称不接受使用ChatGPT生成的投稿论文,ChatGPT也不可以作为论文合著者出现。

黄民烈认为,使用ChatGPT完成作业或学术论文的问题之一是侵犯版权。但不能“因噎废食”,“技术可以继续发展,并在此过程中对问题进行针对性治理”。

另一方面,科技进步未能解决地区发展不平衡问题,全球科技鸿沟问题至今仍然存在。AI作为尖端科技,也只有少数国家能够在此领域进行大量投入。

黄民烈称,与AI息息相关的大模型训练需要大量算力和数据,训练和推理成本也很高昂,无论是学术界还是科技界,只有少量的机构能负担起相关技术的研发,这在一定程度上已经造成了不公平问题。

“AI威胁论”是否危言耸听?

随着AI技术日趋成熟,“AI威胁论”得到了更多关注。ChatGPT推出后,其具备的各种专业功能不断被发掘出来。有观点认为,程序员、翻译、客服等岗位最终都可能被AI取代。

针对AI技术发展可能引发的失业问题,黄民烈认为,AI工具的普及将降低自由撰稿人、游戏制作者等职业的门槛,带来更多自由职业的机会。不过,未来人工智能生成内容(AIGC)、用户生成内容(UGC)及专业生产内容(PGC)进行更深入地结合后,一些职业的淘汰是不可避免的,“如何与AI共生是每个人可能都将面对的问题”。

此外,科幻作品中的“AI威胁论”常包含一个重要因素——愈发强大的AI终将寻求消灭或取代人类。

对此,黄民烈称,科幻作品中的反派AI形象都具有自我意识,但现实中的AI目前既没有自我意识也没有自主决策能力,现阶段,AI所有能力的来源都是人类提供的数据和反馈。“ChatGPT这类系统是典型的机器属性,仅为满足人的信息需求或完成任务而存在,并不具有人格、情感、风格等。机器属性和能够满足情感、社交、陪伴需求的类人属性相结合才是真正的数字生命体,也就是真正意义上的‘人工智能’。”

Connected2Me是一个专门为Web3打造的人工智能服务平台,其产品和服务已在全球广泛地被报道与采用,其基于GPT3.5打造的人工智能Web3搜索引擎Jinn即将隆重登场

尽管2022年加密行业经历了Terra和FTX暴雷等黑天鹅事件,导致整个行业信心崩溃,但熊市期间仍然取得了一些正面的进展。币圈熊市也是需要热点来点燃市场的热情!

币圈的热点好像就是这样转换的!之前的元宇宙然后动物园系列然后defi然后链游GMTaxs之类的!然后就是NFT无聊猿ape之类的然后就是公链APT等等现在是ai这个有几个月热度了agix都十几倍了!

Connected2Me成就回顾

基于人工智能的个性化金融服务:

去中心化的理财产品AI测评;

通过AI模型演练为用户提供定制化的AI顾问服务;

Connected2Me未来发展

基于ChatGPT的理论,创建CNTM的GPT平台:Jinn;

为Jinn加入双引擎结构:GPT引擎+传统搜索引擎,从而实现Web3的AI搜索功能;

将Jinn与CNTM1.0的板块结合,增强金融领域的AI搜索推荐功能;

Jinn=ChatGPT+Sparrow

ChatGPT目前的三个核心问题和痛点:

对于知识类型的问题,ChatGPT会给出看上去很有道理,但是事实上是错误答案的内容;

拓展解读:对于这样来说,由于ChatGPT的一部分回答很准确,而一部分看上去有道理,但事实上很离谱,而用户并没有足够的能力来进行辨别,这将给用户如何采信ChatGPT的答案带来很多困惑。

ChatGPT目前这种基于GPT大模型基础上进一步增加标注数据训练的模式,对于LLM模型吸纳新知识非常不友好。

拓展解读:新知识总是在不断出现,而出现一些新知识就去重新预训练GPT模型是不现实的,无论是训练时间成本还是金钱成本,都不可接受。如果对于新知识采取Fine-tune的模式,看上去可行且成本相对较低,但是很容易产生新数据的引入导致对原有知识的灾难遗忘问题,尤其是短周期的频繁fine-tune,会使这个问题更为严重。

ChatGPT或GPT4的训练成本以及在线推理成本太高,无法承载超过千万级的用户同时使用。

拓展解读:假设继续采取免费策略,OpenAI无法承受,但是如果采取收费策略,又会极大减少用户基数,无法实现规模化。

Sparrow是ChatGPT的良好补充:

sparrow在人工标注方面的质量和工作量不如ChatGPT;

Sparow的基于retrieval结果的生成结果证据展示,以及引入LaMDA系统的对于新知识采取retrieval模式,可以完美解决新知识的及时引入,以及生成内容可信性验证两个核心问题。

核心技术路线

第一阶段:冷启动阶段的监督策略模型。靠GPT3.5本身,尽管它很强,但是它很难理解人类不同类型指令中蕴含的不同意图,也很难判断生成内容是否是高质量的结果。为了让GPT3.5初步具备理解指令中蕴含的意图,首先会从测试用户提交的prompt(就是指令或问题)中随机抽取一批,靠专业的标注人员,给出指定prompt的高质量答案,然后用这些人工标注好的数据来Fine-tuneGPT3.5模型。经过这个过程,我们可以认为GPT3.5初步具备了理解人类prompt中所包含意图,并根据这个意图给出相对高质量回答的能力;

第二阶段:训练回报模型。这个阶段的主要目的是通过人工标注训练数据,来训练回报模型。在这个阶段里,首先由冷启动后的监督策略模型为每个prompt产生K个结果,人工根据结果质量由高到低排序,以此作为训练数据,通过pair-wiselearningtorank模式来训练回报模型。对于学好的RM模型来说,输入,输出结果的质量得分,得分越高说明产生的回答质量越高。

第三阶段:采用强化学习来增强预训练模型的能力。本阶段无需人工标注数据,而是利用上一阶段学好的RM模型,靠RM打分结果来更新预训练模型参数。

二三阶段迭代:不断重复第二和第三阶段,每一轮迭代都使得LLM模型能力越来越强。因为第二阶段通过人工标注数据来增强RM模型的能力,而第三阶段,经过增强的RM模型对新prompt产生的回答打分会更准,并利用强化学习来鼓励LLM模型学习新的高质量内容,这起到了类似利用伪标签扩充高质量训练数据的作用,于是LLM模型进一步得到增强。

下一代搜索引擎:Jinn

Jinn将采用传统搜索引擎+ChatGPT的双引擎结构,ChatGPT模型是主引擎,传统搜索引擎是辅引擎。传统搜索引擎的主要辅助功能有两个:一个是对于ChatGPT产生的知识类问题的回答,进行结果可信性验证与展示,就是说在ChatGPT给出答案的同时,从搜索引擎里找到相关内容片段及url链接,同时把这些内容展示给用户,使得用户可以从额外提供的内容里验证答案是否真实可信,这样就可以解决ChatGPT产生的回答可信与否的问题,避免用户对于产生结果无所适从的局面。

传统搜索引擎的第二个辅助功能是及时补充新知识。既然不可能随时把新知识快速引入LLM,那么可以把它存到搜索引擎的索引里,ChatGPT如果发现具备时效性的问题,它自己又回答不了,则可以转向搜索引擎抽取对应的答案,或者根据返回相关片段再加上用户输入问题通过ChatGPT产生答案,这里有一部分将参考LaMDA关于新知识处理的具体方法。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

[0:15ms0-4:316ms