HAT:从GPT-1到GPT-4看ChatGPT的崛起

作者:阿法兔

整理了一下ChatGPT的发展历程、背后的技术原理,以及它的局限性在哪。

ChatGPT是个啥?

ChatGPT是个啥?

近期,OpenAI发布了ChatGPT,是一个可以对话的方式进行交互的模型,因为它的智能化,得到了很多用户的欢迎。ChatGPT也是OpenAI之前发布的InstructGPT的亲戚,ChatGPT模型的训练是使用RLHF也许ChatGPT的到来,也是OpenAI的GPT-4正式推出之前的序章。

什么是GPT?从GPT-1到GPT-3

GenerativePre-trainedTransformer(GPT),是一种基于互联网可用数据训练的文本生成深度学习模型。它用于问答、文本摘要生成、机器翻译、分类、代码生成和对话AI。

2018年,GPT-1诞生,这一年也是NLP的预训练模型元年。性能方面,GPT-1有着一定的泛化能力,能够用于和监督任务无关的NLP任务中。其常用任务包括:

自然语言推理:判断两个句子的关系

问答与常识推理:输入文章及若干答案,输出答案的准确率

语义相似度识别:判断两个句子语义是否相关

分类:判断输入文本是指定的哪个类别

虽然GPT-1在未经调试的任务上有一些效果,但其泛化能力远低于经过微调的有监督任务,因此GPT-1只能算得上一个还算不错的语言理解工具而非对话式AI。

美国两位参议员将于下周重新推出其《负责任的金融创新法案》:7月7日消息,美国参议员Cynthia Lummis与Sen.Kirsten Gillibrand将于下周三重新推出其《负责任的金融创新法案》,因为国会将继续塔伦数字资产监管的未来。他们称该法案将是最广泛的,旨在解决市场结构、稳定币监管与税收等关键问题。Lummis与Gillibrand曾于2022年6月首次提出[2023/7/7 22:24:31]

GPT-2也于2019年如期而至,不过,GPT-2并没有对原有的网络进行过多的结构创新与设计,只使用了更多的网络参数与更大的数据集:最大模型共计48层,参数量达15亿,学习目标则使用无监督预训练模型做有监督任务。在性能方面,除了理解能力外,GPT-2在生成方面第一次表现出了强大的天赋:阅读摘要、聊天、续写、编故事,甚至生成假新闻、钓鱼邮件或在网上进行角色扮演通通不在话下。在“变得更大”之后,GPT-2的确展现出了普适而强大的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。

之后,GPT-3出现了,作为一个无监督模型,几乎可以完成自然语言处理的绝大部分任务,例如面向问题的搜索、阅读理解、语义推断、机器翻译、文章生成和自动问答等等。而且,该模型在诸多任务上表现卓越,例如在法语-英语和德语-英语机器翻译任务上达到当前最佳水平,自动产生的文章几乎让人无法辨别出自人还是机器,更令人惊讶的是在两位数的加减运算任务上达到几乎100%的正确率,甚至还可以依据任务描述自动生成代码。一个无监督模型功能多效果好,似乎让人们看到了通用人工智能的希望,可能这就是GPT-3影响如此之大的主要原因

GPT-3模型到底是什么?

CoinList:从第三方购买CoinList账户存在违反服务条款、账户卖方重新获得访问权限等危险:5月12日消息,CoinList 发推提醒称,从第三方购买 CoinList 账户存在严重危险和后果,购买账户直接违反 CoinList 服务条款,将导致相关帐户立即终止。另外,由于创建账户的卖方是 KYC 的所有者,因此他们可以随时返回 CoinList 并重新获得对其账户的访问权限,然后,账户卖方可以提取资金,这将给账户买方带来不可逆转的损失。[2023/5/12 14:59:02]

实际上,GPT-3就是一个简单的统计语言模型。从机器学习的角度,语言模型是对词语序列的概率分布的建模,即利用已经说过的片段作为条件预测下一个时刻不同词语出现的概率分布。语言模型一方面可以衡量一个句子符合语言文法的程度,同时也可以用来预测生成新的句子。例如,对于一个片段“中午12点了,我们一起去餐厅”,语言模型可以预测“餐厅”后面可能出现的词语。一般的语言模型会预测下一个词语是“吃饭”,强大的语言模型能够捕捉时间信息并且预测产生符合语境的词语“吃午饭”。

通常,一个语言模型是否强大主要取决于两点:首先看该模型是否能够利用所有的历史上下文信息,上述例子中如果无法捕捉“中午12点”这个远距离的语义信息,语言模型几乎无法预测下一个词语“吃午饭”。其次,还要看是否有足够丰富的历史上下文可供模型学习,也就是说训练语料是否足够丰富。由于语言模型属于自监督学习,优化目标是最大化所见文本的语言模型概率,因此任何文本无需标注即可作为训练数据。

由于GPT-3更强的性能和明显更多的参数,它包含了更多的主题文本,显然优于前代的GPT-2。作为目前最大的密集型神经网络,GPT-3能够将网页描述转换为相应代码、模仿人类叙事、创作定制诗歌、生成游戏剧本,甚至模仿已故的各位哲学家——预测生命的真谛。且GPT-3不需要微调,在处理语法难题方面,它只需要一些输出类型的样本。可以说GPT-3似乎已经满足了我们对于语言专家的一切想象。

Solana创始人:费用市场即将推出,已基于QUIC重新构建Solana通讯协议:8月11日消息,Solana创始人Anatoly Yakovenko近日透露,已基于QUIC重新构建Solana通讯协议,原始协议UDP已被禁用。部分RPC供应商已从UDP切换到QUIC。目前,部分钱包/用户/机器人已能够为交易设置增加额外的优先级费用(Additionalfee),费用市场(Feemarkets)将在QUIC完全采用后实施。

此前消息,5月3日,Solana官方发布主网Beta中断报告和缓解措施,称目前正制定三种缓解措施以解决网络的稳定性和弹性问题,分别包括基于QUIC重新构建Solana通讯协议、开发质押权益加权QoS以及采用基于费用的交易优先级设置。[2022/8/11 12:18:09]

注:上文主要参考以下文章:

1.GPT4发布在即堪比人脑,多位圈内大佬坐不住了!-徐杰承、云昭-公众号51CTO技术栈-2022-11-2418:08

2.一文解答你对GPT-3的好奇!GPT-3是什么?为何说它如此优秀?-张家俊中国科学院自动化研究所2020-11-1117:25发表于北京

3.TheBatch:329|InstructGPT,一种更友善、更温和的语言模型-公众号DeeplearningAI-2022-02-0712:30

GPT-3存在什么问题?

但是GTP-3并不完美,当前有人们最担忧人工智能的主要问题之一,就是聊天机器人和文本生成工具等很可能会不分青红皂白和质量好坏,地对网络上的所有文本进行学习,进而生产出错误的、恶意冒犯的、甚至是攻击性的语言输出,这将会充分影响到它们的下一步应用。

阿狸NFT元数据泄露,官方尚未回应是否重新打乱原有排列:2月16日消息,据社区反馈,知名 IP 阿狸 ALI&HIS FRENS NFT 在预售过程中,官网 debug 模式并未关闭,导致用户能够通过后台代码逻辑访问盲盒对应的元数据以及图片信息。但官方仍可以通过重新随机排列打乱原有对应数据解决该问题。

目前 ALI&HIS FRENS NFT 尚未明确是否在开盒之前重新打乱原有对应数据。[2022/2/16 9:55:10]

OpenAI也曾经提出,会在不久的将来发布更为强大的GPT-4:

将?GPT-3与GPT-4、?人脑进行比较

据说,GPT-4会在明年发布,它能够通过图灵测试,并且能够先进到和人类没有区别,除此之外,企业引进GPT-4的成本也将大规模下降。

ChatGP与InstructGPT

ChatGPT与InstructGPT

谈到Chatgpt,就要聊聊它的“前身”InstructGPT。

2022年初,OpenAI发布了InstructGPT;在这项研究中,相比GPT-3而言,OpenAI采用对齐研究,训练出更真实、更无害,而且更好地遵循用户意图的语言模型InstructGPT,InstructGPT是一个经过微调的新版本GPT-3,可以将有害的、不真实的和有偏差的输出最小化。

美国国会议员计划重新引入一系列加密货币及区块链法案:金色财经报道,美国民主党众议员Darren Soto正在准备一系列加密立法以引入国会。本周二,Soto在能源和商业委员会面前重新提出了《区块链技术协调法》。该法案旨在在商务部内建立一个新办公室,在联邦政府中管理区块链的使用。Soto团队的成员表示,Soto还计划在本周晚些时候重新引入《数字分类法》和《区块链创新法》。其团队还正在准备重新引入《美国虚拟货币市场和监管竞争力法案》以及《虚拟货币消费者保护法案》。[2021/5/27 22:48:05]

InstructGPT的工作原理是什么?

开发人员通过结合监督学习+从人类反馈中获得的强化学习。来提高GPT-3的输出质量。在这种学习中,人类对模型的潜在输出进行排序;强化学习算法则对产生类似于高级输出材料的模型进行奖励。

训练数据集以创建提示开始,其中一些提示是基于GPT-3用户的输入,比如“给我讲一个关于青蛙的故事”或“用几句话给一个6岁的孩子解释一下登月”。

开发人员将提示分为三个部分,并以不同的方式为每个部分创建响应:

人类作家会对第一组提示做出响应。开发人员微调了一个经过训练的GPT-3,将它变成InstructGPT以生成每个提示的现有响应。

下一步是训练一个模型,使其对更好的响应做出更高的奖励。对于第二组提示,经过优化的模型会生成多个响应。人工评分者会对每个回复进行排名。在给出一个提示和两个响应后,一个奖励模型(另一个预先训练的GPT-3)学会了为评分高的响应计算更高的奖励,为评分低的回答计算更低的奖励。

开发人员使用第三组提示和强化学习方法近端策略优化(ProximalPolicyOptimization,PPO)进一步微调了语言模型。给出提示后,语言模型会生成响应,而奖励模型会给予相应奖励。PPO使用奖励来更新语言模型。

本段参考:TheBatch:329|InstructGPT,一种更友善、更温和的语言模型-公众号DeeplearningAI-2022-02-0712:30

重要在何处?核心在于——人工智能需要是能够负责任的人工智能

OpenAI的语言模型可以助力教育领域、虚拟治疗师、写作辅助工具、角色扮演游戏等,在这些领域,社会偏见、错误信息和害信息存在都是比较麻烦的,能够避免这些缺陷的系统才能更具备有用性。

Chatgpt与InstructGPT的训练过程有哪些不同?

总体来说,Chatgpt和上文的InstructGPT一样,是使用RLHF训练的。不同之处在于数据是如何设置用于训练的。

ChatGPT存在哪些局限性?

如下:

a)在训练的强化学习(RL)阶段,没有真相和问题标准答案的具体来源,来答复你的问题。

b)训练模型更加谨慎,可能会拒绝回答。

c)监督训练可能会误导/偏向模型倾向于知道理想的答案,而不是模型生成一组随机的响应并且只有人类评论者选择好的/排名靠前的响应

注意:ChatGPT对措辞敏感。,有时模型最终对一个短语没有反应,但对问题/短语稍作调整,它最终会正确回答。训练者更倾向于喜欢更长的答案,因为这些答案可能看起来更全面,导致倾向于更为冗长的回答,以及模型中会过度使用某些短语,如果初始提示或问题含糊不清,则模型不会适当地要求澄清。

ChatGPT’sself-identifiedlimitationsareasfollows.

Plausible-soundingbutincorrectanswers:

a)ThereisnorealsourceoftruthtofixthisissueduringtheReinforcementLearning(RL)phaseoftraining.?

b)Trainingmodeltobemorecautiouscanmistakenlydeclinetoanswer(falsepositiveoftroublesomeprompts).

c)Supervisedtrainingmaymislead/biasthemodeltendstoknowtheidealanswerratherthanthemodelgeneratingarandomsetofresponsesandonlyhumanreviewersselectingagood/highly-rankedresponseChatGPTissensitivetophrasing.Sometimesthemodelendsupwithnoresponseforaphrase,butwithaslighttweaktothequestion/phrase,itendsupansweringitcorrectly.

Trainerspreferlongeranswersthatmightlookmorecomprehensive,leadingtoabiastowardsverboseresponsesandoveruseofcertainphrases.Themodelisnotappropriatelyaskingforclarificationiftheinitialpromptorquestionisambiguous.AsafetylayertorefuseinappropriaterequestsviaModerationAPIhasbeenimplemented.However,wecanstillexpectfalsenegativeandpositiveresponses.

参考文献:

1.https://medium.com/inkwater-atlas/chatgpt-the-new-frontier-of-artificial-intelligence-9aee81287677

2.https://pub.towardsai.net/openai-debuts-chatgpt-50dd611278a4

3.https://openai.com/blog/chatgpt/

4.GPT4发布在即堪比人脑,多位圈内大佬坐不住了!-徐杰承、云昭-公众号51CTO技术栈-2022-11-2418:08

5.一文解答你对GPT-3的好奇!GPT-3是什么?为何说它如此优秀?-张家俊中国科学院自动化研究所2020-11-1117:25发表于北京

6.TheBatch:329|InstructGPT,一种更友善、更温和的语言模型-公众号DeeplearningAI-2022-02-0712:30

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

Fil区块链:重新想象区块链:创造自主世界

导语 应用层需要本质上的创新,不是在本来已经有的模式上做增量,而是全新的,不同的,乍一看非常nerd的东西。Defi和NFT是在L1孱弱的处理能力的限制下,发展出的低计算量,高价值的应用.

[0:0ms0-3:426ms