chatgpt会取代搜索引擎吗 chatgpt其实就是一个高级搜索引擎
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
来源:AI科技大本营
作者:张俊林
本文经作者授权发布,
原文地址:https://zhuanlan.zhihu.com/p/589533490
作为智能对话系统,ChatGPT最近两天爆火,都火出技术圈了,网上到处都在转ChatGPT相关的内容和测试例子,效果确实很震撼。我记得上一次能引起如此轰动的AI技术,NLP领域是GPT 3发布,那都是两年半前的事了,当时人工智能如日中天如火如荼的红火日子,今天看来恍如隔世;多模态领域则是以DaLL E2、Stable Diffusion为代表的Diffusion Model,这是最近大半年火起来的AIGC模型;而今天,AI的星火传递到了ChatGPT手上,它毫无疑问也属于AIGC范畴。所以说,在AI泡沫破裂后处于低谷期的今天,AIGC确实是给AI续命的良药,当然我们更期待估计很快会发布的GPT 4,愿OpenAI能继续撑起局面,给行业带来一丝暖意。
说回ChatGPT,例子就不举了,在网上漫山遍野都是,我们主要从技术角度来聊聊。那么,ChatGPT到底是采用了怎样的技术,才能做到如此超凡脱俗的效果?既然ChatGPT功能如此强大,那么它可以取代Google、百度等现有搜索引擎吗?如果能,那是为什么,如果不能,又是为什么?
本文试图从我个人理解的角度,来尝试回答上述问题,很多个人观点,偏颇难免,还请谨慎参考。我们首先来看看ChatGPT到底做了什么才获得如此好的效果。
ChatGPT的技术原理
整体技术路线上,ChatGPT在效果强大的GPT 3.5大规模语言模型(LLM,Large Language Model)基础上,引入“人工标注数据+强化学习”(RLHF,Reinforcement Learning from Human Feedback ,这里的人工反馈其实就是人工标注数据)来不断Fine-tune预训练语言模型,主要目的是让LLM模型学会理解人类的命令指令的含义(比如给我写一段小作文生成类问题、知识回答类问题、头脑风暴类问题等不同类型的命令),以及让LLM学会判断对于给定的prompt输入指令(用户的问题),什么样的答案是优质的(富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等多种标准)。
在“人工标注数据+强化学习”框架下,具体而言,ChatGPT的训练过程分为以下三个阶段:
(ChatGPT:第一阶段)
第一阶段:冷启动阶段的监督策略模型。靠GPT 3.5本身,尽管它很强,但是它很难理解人类不同类型指令中蕴含的不同意图,也很难判断生成内容是否是高质量的结果。为了让GPT 3.5初步具备理解指令中蕴含的意图,首先会从测试用户提交的prompt(就是指令或问题)中随机抽取一批,靠专业的标注人员,给出指定prompt的高质量答案,然后用这些人工标注好的数据来Fine-tune GPT 3.5模型。经过这个过程,我们可以认为GPT 3.5初步具备了理解人类prompt中所包含意图,并根据这个意图给出相对高质量回答的能力,但是很明显,仅仅这样做是不够的。
(ChatGPT:第二阶段)
第二阶段:训练回报模型(Reward Model,RM)。这个阶段的主要目的是通过人工标注训练数据,来训练回报模型。具体而言,随机抽样一批用户提交的prompt(大部分和第一阶段的相同),使用第一阶段Fine-tune好的冷启动模型,对于每个prompt,由冷启动模型生成K个不同的回答,于是模型产生出了,….数据。之后,标注人员对K个结果按照很多标准(上面提到的相关性、富含信息性、有害信息等诸多标准)综合考虑进行排序,给出K个结果的排名顺序,这就是此阶段人工标注的数据。
接下来,我们准备利用这个排序结果数据来训练回报模型,采取的训练模式其实就是平常经常用到的pair-wise learning to rank。对于K个排序结果,两两组合,形成 ( k 2 ) 个训练数据对,ChatGPT采取pair-wise loss来训练Reward Model。RM模型接受一个输入,给出评价回答质量高低的回报分数Score。对于一对训练数据,我们假设人工排序中answer1排在answer2前面,那么Loss函数则鼓励RM模型对的打分要比的打分要高。
归纳下:在这个阶段里,首先由冷启动后的监督策略模型为每个prompt产生K个结果,人工根据结果质量由高到低排序,以此作为训练数据,通过pair-wise learning to rank模式来训练回报模型。对于学好的RM模型来说,输入,输出结果的质量得分,得分越高说明产生的回答质量越高。
(ChatGPT:第三阶段)
第三阶段:采用强化学习来增强预训练模型的能力。本阶段无需人工标注数据,而是利用上一阶段学好的RM模型,靠RM打分结果来更新预训练模型参数。具体而言,首先,从用户提交的prompt里随机采样一批新的命令(指的是和第一第二阶段不同的新的prompt,这个其实是很重要的,对于提升LLM模型理解instruct指令的泛化能力很有帮助),且由冷启动模型来初始化PPO模型的参数。然后,对于随机抽取的prompt,使用PPO模型生成回答answer, 并用上一阶段训练好的RM模型给出answer质量评估的回报分数score,这个回报分数就是RM赋予给整个回答(由单词序列构成)的整体reward。有了单词序列的最终回报,就可以把每个单词看作一个时间步,把reward由后往前依次传递,由此产生的策略梯度可以更新PPO模型参数。这是标准的强化学习过程,目的是训练LLM产生高reward的答案,也即是产生符合RM标准的高质量回答。
如果我们不断重复第二和第三阶段,很明显,每一轮迭代都使得LLM模型能力越来越强。因为第二阶段通过人工标注数据来增强RM模型的能力,而第三阶段,经过增强的RM模型对新prompt产生的回答打分会更准,并利用强化学习来鼓励LLM模型学习新的高质量内容,这起到了类似利用伪标签扩充高质量训练数据的作用,于是LLM模型进一步得到增强。显然,第二阶段和第三阶段有相互促进的作用,这是为何不断迭代会有持续增强效果的原因。
尽管如此,我觉得第三阶段采用强化学习策略,未必是ChatGPT模型效果特别好的主要原因。假设第三阶段不采用强化学习,换成如下方法:类似第二阶段的做法,对于一个新的prompt,冷启动模型可以产生k个回答,由RM模型分别打分,我们选择得分最高的回答,构成新的训练数据,去fine-tune LLM模型。假设换成这种模式,我相信起到的作用可能跟强化学习比,虽然没那么精巧,但是效果也未必一定就差很多。第三阶段无论采取哪种技术模式,本质上很可能都是利用第二阶段学会的RM,起到了扩充LLM模型高质量训练数据的作用。
以上是ChatGPT的训练流程,主要参考自instructGPT的论文,ChatGPT是改进的instructGPT,改进点主要在收集标注数据方法上有些区别,在其它方面,包括在模型结构和训练流程等方面基本遵循instructGPT。可以预见的是,这种Reinforcement Learning from Human Feedback技术会快速蔓延到其它内容生成方向,比如一个很容易想到的,类似“A machine translation model based on Reinforcement Learning from Human Feedback”这种,其它还有很多。但是,我个人认为,在NLP的某个具体的内容生成领域再采用这个技术意义应该已经不大了,因为ChatGPT本身能处理的任务类型非常多样化,基本涵盖了NLP生成的很多子领域,所以某个NLP子领域如果再单独采用这个技术其实已经不具备太大价值,因为它的可行性可以认为已经被ChatGPT验证了。如果把这个技术应用在比如图片、音频、视频等其它模态的生成领域,可能是更值得探索的方向,也许不久后我们就会看到类似“A XXX diffusion model based on Reinforcement Learning from Human Feedback”,诸如此类,这类工作应该还是很有意义的。
另外一个值得关注的采取类似技术的工作是DeepMind的sparrow,这个工作发表时间稍晚于instructGPT,如果你仔细分析的话,大的技术思路和框架与instructGPT的三阶段基本类似,不过明显sparrow在人工标注方面的质量和工作量是不如instructGPT的。反过来,我觉得sparrow里把回报模型分为两个不同RM的思路,是优于instructGPT的,至于原因在下面小节里会讲。
ChatGPT能否取代Google、百度等传统搜索引擎
既然看上去ChatGPT几乎无所不能地回答各种类型的prompt,那么一个很自然的问题就是:ChatGPT或者未来即将面世的GPT4,能否取代Google、百度这些传统搜索引擎呢?我个人觉得目前应该还不行,但是如果从技术角度稍微改造一下,理论上是可以取代传统搜索引擎的。
为什么说目前形态的ChatGPT还不能取代搜索引擎呢?主要有三点原因:首先,对于不少知识类型的问题,ChatGPT会给出看上去很有道理,但是事实上是错误答案的内容(参考上图的例子(from @Gordon Lee),ChatGPT的回答看着胸有成竹,像我这么没文化的基本看了就信了它,回头查了下这首词里竟然没这两句),考虑到对于很多问题它又能回答得很好,这将会给用户造成困扰:如果我对我提的问题确实不知道正确答案,那我是该相信ChatGPT的结果还是不该相信呢?此时你是无法作出判断的。这个问题可能是比较要命的。其次,ChatGPT目前这种基于GPT大模型基础上进一步增加标注数据训练的模式,对于LLM模型吸纳新知识是非常不友好的。新知识总是在不断出现,而出现一些新知识就去重新预训练GPT模型是不现实的,无论是训练时间成本还是金钱成本,都不可接受。如果对于新知识采取Fine-tune的模式,看上去可行且成本相对较低,但是很容易产生新数据的引入导致对原有知识的灾难遗忘问题,尤其是短周期的频繁fine-tune,会使这个问题更为严重。所以如何近乎实时地将新知识融入LLM是个非常有挑战性的问题。其三,ChatGPT或GPT4的训练成本以及在线推理成本太高,导致如果面向真实搜索引擎的以亿记的用户请求,假设继续采取免费策略,OpenAI无法承受,但是如果采取收费策略,又会极大减少用户基数,是否收费是个两难决策,当然如果训练成本能够大幅下降,则两难自解。以上这三个原因,导致目前ChatGPT应该还无法取代传统搜索引擎。
那么这几个问题,是否可以解决呢?其实,如果我们以ChatGPT的技术路线为主体框架,再吸纳其它对话系统采用的一些现成的技术手段,来对ChatGPT进行改造,从技术角度来看,除了成本问题外的前两个技术问题,目前看是可以得到很好地解决。我们只需要在ChatGPT的基础上,引入sparrow系统以下能力:基于retrieval结果的生成结果证据展示,以及引入LaMDA系统的对于新知识采取retrieval模式,那么前面提到的新知识的及时引入,以及生成内容可信性验证,基本就不是什么大问题。
基于以上考虑,在上图中展示出了我心目中下一代搜索引擎的整体结构:它其实是目前的传统搜索引擎+ChatGPT的双引擎结构,ChatGPT模型是主引擎,传统搜索引擎是辅引擎。传统搜索引擎的主要辅助功能有两个:一个是对于ChatGPT产生的知识类问题的回答,进行结果可信性验证与展示,就是说在ChatGPT给出答案的同时,从搜索引擎里找到相关内容片段及url链接,同时把这些内容展示给用户,使得用户可以从额外提供的内容里验证答案是否真实可信,这样就可以解决ChatGPT产生的回答可信与否的问题,避免用户对于产生结果无所适从的局面。当然,只有知识类问题才有必要寻找可信信息进行验证,很多其他自由生成类型的问题,比如让ChatGPT写一个满足某个主题的小作文这种完全自由发挥的内容,则无此必要。所以这里还有一个什么情况下会调用传统搜索引擎的问题,具体技术细节完全可仿照sparrow的做法,里面有详细的技术方案。传统搜索引擎的第二个辅助功能是及时补充新知识。既然我们不可能随时把新知识快速引入LLM,那么可以把它存到搜索引擎的索引里,ChatGPT如果发现具备时效性的问题,它自己又回答不了,则可以转向搜索引擎抽取对应的答案,或者根据返回相关片段再加上用户输入问题通过ChatGPT产生答案。关于这方面的具体技术手段,可以参考LaMDA,其中有关于新知识处理的具体方法。
除了上面的几种技术手段,我觉得相对ChatGPT只有一个综合的Reward Model,sparrow里把答案helpful相关的标准(比如是否富含信息量、是否合乎逻辑等)采用一个RM,其它类型toxic/harmful相关标准(比如是否有bias、是否有害信息等)另外单独采用一个RM,各司其职,这种模式要更清晰合理一些。因为单一类型的标准,更便于标注人员进行判断,而如果一个Reward Model融合多种判断标准,相互打架在所难免,判断起来就很复杂效率也低,所以感觉可以引入到ChatGPT里来,得到进一步的模型改进。
通过吸取各种现有技术所长,我相信大致可以解决ChatGPT目前所面临的问题,技术都是现成的,从产生内容效果质量上取代现有搜索引擎问题不大。当然,至于模型训练成本和推理成本问题,可能短时期内无法获得快速大幅降低,这可能是决定LLM是否能够取代现有搜索引擎的关键技术瓶颈。从形式上来看,未来的搜索引擎大概率是以用户智能助手APP的形式存在的,但是,从短期可行性上来说,在走到最终形态之前,过渡阶段大概率两个引擎的作用是反过来的,就是传统搜索引擎是主引擎,ChatGPT是辅引擎,形式上还是目前搜索引擎的形态,只是部分搜索内容Top 1的搜索结果是由ChatGPT产生的,大多数用户请求,可能在用户看到Top 1结果就能满足需求,对于少数满足不了的需求,用户可以采用目前搜索引擎翻页搜寻的模式。我猜搜索引擎未来大概率会以这种过渡阶段以传统搜索引擎为主,ChatGPT这种instruct-based生成模型为辅,慢慢切换到以ChatGPT生成内容为主,而这个切换节点,很可能取决于大模型训练成本的大幅下降的时间,以此作为转换节点。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
chatgpt网页版怎么注册 chatgpt用手机如何注册
chatgpt,chatgpt是什么意思,chatgpt官网,chatgpt怎么下载近期关于网路上对 (OpenAI发布的一款人工智能对话引擎)的讨论比较多。官方对的定义如下: 是一个计算机程序,可以自然地和人交流。它是由 开发的,是一个预训练的大型语言模型,可以生成文本,并且可以与人进行对话。相比于其他已知的语音助手,具有一些重要的优点。首先,它可以理解更复杂的语句,例如具有多层语法嵌套的句子。其次,它具有一定的语境理解能力,能够针对一个问题进行不断的深入交流。最后,它可以自动拒绝执行一些不合法的指令。总而言之, 是一种先进的语音助手,能够提供更自然和更高效的人机交互体验。因此,我使用了
注册chat gpt账号能用多久 chatgpt账号同时可以几个人使用
注册chatgpt,国内如何注册chat,如何注册chat种种迹象表明,2023将是百废待兴、迎来巨变的一年。在过去20年过的顺风顺水的全球科技公司股价纷纷腰斩、裁员此起彼伏之际,一家叫做Open AI的公司和它旗下最火的平台ChatGPT突然在上周成为美国所有媒体、公司、个人谈论的话题,而这个话题跟最近各大科技巨头的股价暴跌和大规模裁员息息相关。一夜之间,越来越多的程序员、数据分析师、视觉设计公司、新闻记者、甚至律师、会计师的工作已经被ChatGPT渠道,而现在留在工作岗位的也在时刻担心会随时因为ChatGPT丢掉工作。
根据最新的数据显示,ChatGPT在推出2个月不到的时间里月活用户突破了1亿,以迅雷不及掩耳之势打破了TikTok在8个月越活用户达到1亿的记录,而这一切仅仅只是巨变的开始。
谷歌Gmail创始人也断言ChatGPT会在2年之内彻底干掉谷歌。
亚马逊在上周对所有公司100多万员工提出要求,提醒他们谨慎使用ChatGPT,并禁止透露公司内部信息。
与此同时,在运营和推广成本高企的亚马逊卖家中,美国卖家开始在选品、Listing建设、广告,甚至账户申诉上正在大规模使用ChatGPT。
荟网在去年荟网年会时向上千家荟网荟员和亚马逊卖家展示了AI在跨境电商运营中的各种使用场景,但是在过去一年中我们不能说AI在中国跨境电商领域的推进是快速的,可是它对每个卖家的运营甚至整个跨境电商行业的变化却是在以“天”为单位快速发生。
在上周荟网针对于北美客户完成了基于Open AI的第一个全新平台建设。我们相信,ChatGPT不仅仅是话题和工具,而是真正开始改变一切。
在今天的文章里,我们将让大家看到Open AI和Chat GPT在对我们的生活、工作、以及购物方式产生的巨大影响,也将用我们在过去一年中实际在跨境电商运营中使用AI技术的经验和感受,以及AI现在能够为我们做什么,哪些还不行,以及为什么我们信与不信,今年跨境电商行业中将陆续有黑马以来难以置信的AI技术改变这个行业。
第一部分
Open AI 和 Chat GPT是什么?
首先,我们可以通过荟网与与ChatGPT的第一段对话,让大家了解OpenAI和ChatGPT是什么。
从视频可以看到对话中带有个别技术术语,所以我们在这里为大家做一下简要描述:
快速了解OpenAI和ChatGPT
OpenAI的创始人是出生在俄罗斯、生长在以色列,移民到加拿大,现在年仅37岁的IIya Sutskever。在与特斯拉的马斯克(Elon Musk)认识后,2015与Elon Musk一起年在美国旧金山成立了OpenAI这家公司。OpenAI创建的目的是让AI人工智能在:可控、开放、透明的前提下更多为人服务,其中最大的特点就是可以让绝大多数公司通过免费和API功能与OpenAI对接,快速实现几乎任何AI场景的应用,而无需自己投入高昂的开发成本。与此同时OpenAI将从现在开始到未来成为几乎所有人类衣食住行、日常办公、科研开发的大数据处理后台;2022年11月30日,OpenAI小试牛刀,推出了一个完全免费的平台ChatGPT,主要适用场景是文本、语言、对话场景、甚至编程语言的编写和数据分析;2023年1月10日(25天前)微软宣布向OpenAI追加投资100亿美元2023年1月30日(5天前)仅仅成立2个月之后,ChatGPT的月活跃用户已经超过1亿;而这仅仅只是OpenAI展示强大威力的开始,除ChatGPT之外,OpenAI还有适用于更多场景的产品例如图像和视频处理,以及更高级的科研、医疗、生物等
第二部分
搜索引擎使用率骤降
ChatGPT爆火的今天,我们看到一个以前完全不可思议的想象,就是搜索引擎的使用量骤减。这主要表现在:1. ChatGPT基于个性化一对一对话模式,而搜索引擎是基于单方面提出请求,再由平台给出是百万条搜索结果,最后由用户做出判断。相比之下,用户可以从ChatGPT得到精确的信息,大量节省筛选信息的时间。
2. ChatGPT无需任何点击,只需要通过发送消息便可以找到直接的结果,甚至是个性化结果。这个是搜索引擎完全无法实现的
3. ChatGPT无需跳转其他页面,可以继续执行下一步的操作。而搜索引擎却完全做不到
第三部分
OpenAI和ChatGPT对电商运营的改变
现在我们来看一下当下美国卖家在亚马逊运营中使用ChatGPT比较普遍的场景:
1. 亚马逊选品推荐(不太成熟)
你可以像ChatGPT询问现在或者未来什么产品好卖,但是根据我们现在的经验,在此时此刻ChatGPT暂时还不太成熟,但是很有可能在未来几个月中会突飞猛进。
2. 亚马逊产品文案编写(很成熟)
现在比较成熟的,也是最直接的就是亚马逊文案的专业写作。在视频中,我们是通过中文写出车载摄像头的产品特性,然后发送消息给ChatGPT,在不到1分钟时间里,亚马逊标题和5点描述一气呵成
3. 回复亚马逊邮件或申诉(很成熟)
大家可以看到录屏中我们用中文要求ChatGPT回复一封亚马逊停止销售权的邮件通知,并把亚马逊的邮件粘贴到了对话里。而ChatGPT的回复邮件写的非常迅速和专业。
4. 找到对手高转化关键词/卖点(较成熟)
向ChatGPT提供任意一个亚马逊的产品链接,并用中文发消息要求提炼关键词和卖点
5. 亚马逊图片和视频(较成熟)
在下部分介绍
6. 亚马逊广告(较成熟)
在下部分介绍
真正让亚马逊担心的事情正在发生
如果说以上是从卖家角度来考虑ChatGPT的应用,那么现在真正让亚马逊高层心急如焚的是ChatGPT很有可能会快速改变产品的搜索和曝光方式。因为,它的推荐可以完全跨越亚马逊平台的搜索引擎和任何页面向客户推荐合适他们的产品
第四部分
OpenAI和ChatGPT的不足
在去年的荟网年会(在线)上,我们向1000多荟员和卖家介绍了AI在亚马逊运营中的应用,其实当时我们向大家展示的大部分功能以及我们去年在荟网系统后台推出的智能写作、翻译、社交推广等功能都是基于OpenAI。而荟网的智营项目也是基于这个平台的使用和支持。
但是从我们过去一年的观察来看,虽然AI现在已经具备了超乎我们想象的水平和能力,但是针对现在中国卖家或者跨境电商卖家而言,还有“最后一公里”需要打通,这主要边现在:
OpenAI和ChatGPT实际应用中的缺陷
1. 文案写作的前提是使用者(人)对于各个语种的绝对精通,AI有10%的错误几率也会造成较大的影响
2. 图片制作中的基本操作,例如:去背景、做模版已经非常成熟,但是还不能真正做到Photoshop的光线、色调一致
3. 视频制作中的人物和声音基本可以以假乱真,但是无法做到身体语言、手势、产品实际使用效果
4. AI在亚马逊广告的应用已经非常普遍,荟网通过AI一次性给荟员创建并调整的广告成功率大概只有30%,原因是AI一般需要大量的广告支出获得数据后进行调整,同时需要结合利润进行评估
5. AI的数据分析,包括选品工具实际还没有问世,主要的原因是在于OpenAI仅仅只是在2015年成立,现在还处于大数据的收集阶段,但是大家可以想象按照OpenAI和ChatGPT现在每秒每个用户向其传输的数据量,真正做到与时俱进甚至达到精准预测,也许不会超过1年的时间。
第五部分
OpenAI和ChatGPT对电商的影响
与OpenAI和ChatGPT形成鲜明对比的还是亚马逊为代表的传统电商。2月1日亚马逊发布了去年的全年财报,几点我们可以注意:
亚马逊最近财报透露的信息
1. 在线市场销售额以2%逐年下滑
2. 广告收入每年19%提升
3. 第三方卖家服务收费每年20%提高
4. FBA和配送每年4%提高
5. 线下实体店收入,年增6%
6. 雇员每年4%递减
7. Prime收费较去年涨13%
从以上趋势可以看到,卖家的成本和最终消费者给亚马逊的支出上涨的趋势不会有明显改善。无论是消费者还是卖家都在寻找新的购物方式。
而ChatGPT和OpenAI将会以日新月异的步伐深刻、快速、彻底的改变现有的电商模式。最近微软投入了100亿美元入股OpenAI,在我们期待不断耳目一新的改变的同时,以下几个基础技术在此时此刻正在开始真正改变销售和购买模式:
3个OpenAI和ChatGPT正在改变的现实
1. AI生成网页技术,将让独立站的数量迅速增长
2. AI生成视频,将会让“讲解视频”成本大幅降低,网站去文字化和“互动式视频”展示的形式将大行其道
3. ChatGPT基本已经可以实现类似真人的交互式对话,产品推荐、卖点说明、折扣促销将由AI机器人完成并大幅提升转化率
如果说2009年我们不相信手机会改变我们的生活,那么现在也许我们还会认为OpenAI和ChatGPT只是一个可用可不用的工具,但是相信随着时间的推移,我们会看到它们真正改变了一切。