从GPT到chatGPT(三):GPT3(二)
热门文章
0
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
因为上一篇文章 从GPT到chatGPT(三):GPT3(一)阅读量挺高,给了我继续更新对该论文进行解读的莫大动力。这篇文章主要讲原论文的第三章(Results),讲的是GPT3在9个不同类型的数据集上表现如何。其实对于包括我在内的大多数读者或工程师来说,模型的实际效果才是最重要的,所以也很有必要好好地来看看这一章的内容。另外,下文中我尽可能以翻译为主,个人理解为辅的方式来进行,所以会以作者的第一人称来叙述。 在前文中 从GPT到chatGPT(三):GPT3(一)我们提到了有8个参数量大小不同的GPT3模型,除此以外,再加上6个更小的语言模型,我们可以去验证 [KMH+20]提出的模型在有效训练后,语言建模性能(由交叉损失函数度量)和模型参数大小遵循幂律,如图一所示。人们可能会担心,交叉熵损失的提升仅仅来自于对训练语料库的虚假细节进行建模。然而,我们将在以下几节中看到,交叉熵损失的改善会在广泛的自然语言范围内带来一致的性能提高。 图一 接下来,我们将用8个GPT3模型在9个不同类型的数据集上测试性能。 在本节中,我们测试GPT-3在传统的语言建模任务上的性能,以及涉及预测单个感兴趣的单词、完成句子或段落,或在可能完成的文本之间进行选择的相关任务 1.1 Language Modeling 我们在[RWC+19]中测量的Penn Tree Bank(PTB)[MKM+94]数据集上计算zero-shot困惑度(perplexity)。我们在这项工作中省略了4个与维基百科相关的任务,因为它们完全包含在我们的训练数据中,我们还省略了10亿个单词的基准测试,因为我们的训练集中包含了大量数据集。PTB避开了这些问题,因为它早于现代互联网。 我们最大的GPT3模型在PTB上到达了新的SOTA,比原SOTA模型大幅提高了15%,达到了20.50的困惑,表一所示。注意,由于PTB是一个传统的语言建模数据集,因此它没有明确的示例来定义one-shot或few-shot评估,因此我们只测量zeo-shot。 表一 1.2 LAMBADA LAMBADA数据集[PKL+16]测试了文本中长期依赖性的建模――该模型被要求预测需要阅读一段上下文的句子的最后一个单词。最近有人提出,语言模型的不断扩展正在使这个困难的基准任务的回报率逐渐下降。[BHT+20]反思了最近两项最新研究成果([SSP+19]和[Tur20])之间模型尺寸翻倍所取得的1.5%的微小改进,并认为“继续以数量级的方式扩展硬件和数据尺寸不是前进的道路”。但是,我们发现,这条路仍然充满希望,在zero-shot设置下,GPT-3在LAMBADA上达到76%,比以前的技术水平提高了8%!!!如表二所示: 表二 LAMBADA还展示了少镜头学习的灵活性,因为它提供了一种解决该数据集典型问题的方法。虽然LAMBADA中的完成总是句子中的最后一个单词,但标准语言模型无法知道这个细节。因此,它不仅为正确的结尾赋予了概率,也为段落的其他有效延续赋予了概率。这个问题在过去已经通过停止词过滤器[RWC+19](禁止“继续”词)得到了部分解决。少数镜头设置反而让我们将任务“框”成完形填空测试,并让语言模型从示例中推断出只需要完成一个单词。我们使用以下空白格式填写: GPT-3在few-shot设置中实现了86.4%的准确率,比以前的SOTA提高了18%以上。我们观察到,few-shot性能随着模型尺寸的增加而显著提高,如图2所示。另外,one-shot总是比zero-shot的效果更差,也许这是因为所有模型仍然需要几个示例来识别模式。 图二 值得注意的是,对测试集污染的分析表明,我们的训练数据中似乎存在大量LAMBADA数据集――然而,第4章中进行的分析表明对性能的影响微不足道。 (这个坑看来只能以后再填了) HellaSwag数据集[ZHB+19]涉及选择故事或指令集的最佳结尾。这些例子对语言模型来说是困难的,而对人类来说是容易的(准确率达到95.6%)。GPT-3在zero-shot中实现了78.1%的准确性,在few-shot中达到了79.3%的准确性,超过了fine-tune的1.5B参数语言模型[ZHR+19]的75.4%的准确性,但仍远低于fine-tune的多任务模型ALUM实现的85.6%的SOTA效果,如表二所示。 我们接下来在StoryCloze 2016数据集[MCH+16]上评估GPT-3,这涉及为五个句子长的故事选择正确的结尾句子。这里,GPT-3在zero-shot中达到83.2%,在few-shot中(K=70)达到87.7%。这仍然比使用基于BERT的模型[LDL19]的微调SOTA低4.1%,但比之前的zero-shot模型提高了大约10%,如表二所示。 在本节中,我们衡量GPT-3回答有关广泛事实知识的问题的能力。 由于可能的查询量巨大,通常通过使用信息检索系统和文本生成模型(根据输入的query和检索系统召回的文本)来查找/生成相关文本来完成此任务。由于此设置允许系统搜索并条件化可能包含答案的文本,因此称为“开卷”。[RS20]最近证明,一个大型语言模型可以在不依赖辅助信息的情况下,以惊人的速度直接回答问题。他们将这种限制性更强的评估设置称为“闭卷”。他们的研究表明,更高容量的模型也可以表现得更好,我们用GPT-3测试了这一假设。 我们在[RS20]中的三个数据集上评估GPT-3:Natural Questions[KPR+19]、WebQuestions[BCFL13]和TriviaQA[JCWZ17],使用相同的分割。请注意,我们使用的few-shot、one-shot和zero-shot评估比以前的闭卷QA工作更为严格:除了不允许外部内容辅助外,也不允许对问答数据集本身进行微调。 GPT3和一些SOTA模型的对比如下表三所示: 表三 可以看到,在TriviaQA数据集上,GPT3甚至超过了fintune的模型和"开卷"的模型。 但是在NAtrualQS和WebQS数据集上,效果要差一些,而且我们发现从zero-shot到few-shot,效果提升十分明显。我们猜测可能是GPT3的训练数据分布和这两个数据集差距较大,所以效果较差,而且通过few-shot,GPT3也在努力试图适应这两个数据集的分布。 如第上一篇文章所述,我们的大部分数据都是从原始Common Crawl中导出的,只有基于质量的过滤。尽管GPT-3的训练数据仍然主要是英语(按字数计算占93%),但它也包含7%的其他语言文本。这些语言记录在补充材料中。为了更好地理解翻译能力,我们还扩展了我们的分析,以包括另外两种常用语言,德语和罗马尼亚语。 现有的无监督机器翻译方法通常将一对单语数据集上的预处理与反向翻译[SHB15]结合起来,以受控的方式桥接两种语言。相比之下,GPT-3从以自然方式将多种语言混合在一起的训练数据中学习,在单词、句子和文档级别将它们组合在一起。GPT-3还使用一个单独的训练目标,该目标不是为任何任务特别定制或设计的。然而,我们的一次/几次拍摄设置与之前的无监督工作没有严格的可比性,因为它们使用了少量成对的示例(1或64)。这对应于多达一页或两页的上下文训练数据。(个人理解这段话,就是说GPT3不是专门拿来做翻译任务的,所以和专门的翻译模型进行对比不太公平,而且GPT3训练语料是多国语言,且英语占了绝大部分,所以效果差是很正常的。) 结果见表四。zero-shot的GPT-3,仅接收任务的自然语言描述,仍然不如最近的无监督NMT结果。然而,仅为每个翻译任务提供一个示例演示,就可以将性能提高7个BLEU以上,并与之前的工作接近竞争性能。GPT-3在few-shot下进一步提高了另一个4 BLEU,达到先前的无监督NMT工作的平均性能。GPT-3在性能上有明显的偏差,这取决于语言方向。对于所研究的三种输入语言,GPT-3在翻译成英语时显著优于先前的无监督NMT工作,但在另一方向翻译时表现不佳。En-Ro的性能是一个明显的异常值,比之前的无监督NMT工作差很多。由于重复使用GPT-2的字节级BPE标记器,这可能是一个弱点,GPT-2是为几乎完全英语的训练数据集开发的。对于Fr-En和De-En来说,few-shot的GPT-3能够超过我们所能找到的最佳监督结果,但由于我们对文献的不熟悉,以及这些是非竞争性基准,我们怀疑这些结果是否代表了真正的技术水平。对于Ro-En,few-shotGPT-3只比SOTA少不到0.5BLEU,这是通过组合无监督预训练、对608K标记示例的监督微调和反向翻译实现的[LHCG19b]。 表四
chatgpt会取代搜索引擎吗 chatgpt算是高级搜索工具吗
ChatGPT会取代搜索引擎吗作者?| 张俊林原文地址:https://zhuanlan.zhihu.com/p/589533490作为智能对话系统,ChatGPT最近两天爆火,都火出技术圈了,网上到处都在转ChatGPT相关的内容和测试例子,效果确实很震撼。我记得上一次能引起如此轰动的AI技术,NLP领域是GPT 3发布,那都是两年半前的事了,当时人工智能如日中天如火如荼的红火日子,今天看来恍如隔世;多模态领域则是以DaLL E2、Stable Diffusion为代表的Diffusion Model,这是最近大半年火起来的AIGC模型;而今天,AI的星火传递到了ChatGPT手上,它毫无疑问也属于AIGC范畴。所以说,在AI泡沫破裂后处于低谷期的今天,AIGC确实是给AI续命的良药,当然我们更期待估计很快会发布的GPT 4,愿OpenAI能继续撑起局面,给行业带来一丝暖意。说回ChatGPT,例子就不举了,在网上漫山遍野都是,我们主要从技术角度来聊聊。那么,ChatGPT到底是采用了怎样的技术,才能做到如此超凡脱俗的效果?既然ChatGPT功能如此强大,那么它可以取代Google、百度等现有搜索引擎吗?如果能,那是为什么,如果不能,又是为什么?本文试图从我个人理解的角度,来尝试回答上述问题,很多个人观点,偏颇难免,还请谨慎参考。我们首先来看看ChatGPT到底做了什么才获得如此好的效果。整体技术路线上,ChatGPT在效果强大的GPT 3.5大规模语言模型(LLM,Large Language Model)基础上,引入“人工标注数据+强化学习”(RLHF,Reinforcement Learning from Human Feedback ,这里的人工反馈其实就是人工标注数据)来不断Fine-tune预训练语言模型,主要目的是让LLM模型学会理解人类的命令指令的含义(比如给我写一段小作文生成类问题、知识回答类问题、头脑风暴类问题等不同类型的命令),以及让LLM学会判断对于给定的prompt输入指令(用户的问题),什么样的答案是优质的(富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等多种标准)。在“人工标注数据+强化学习”框架下,具体而言,ChatGPT的训练过程分为以下三个阶段:(ChatGPT:第一阶段)第一阶段:冷启动阶段的监督策略模型。靠GPT 3.5本身,尽管它很强,但是它很难理解人类不同类型指令中蕴含的不同意图,也很难判断生成内容是否是高质量的结果。为了让GPT 3.5初步具备理解指令中蕴含的意图,首先会从测试用户提交的prompt(就是指令或问题)中随机抽取一批,靠专业的标注人员,给出指定prompt的高质量答案,然后用这些人工标注好的<prompt,answer>数据来Fine-tune GPT 3.5模型。经过这个过程,我们可以认为GPT 3.5初步具备了理解人类prompt中所包含意图,并根据这个意图给出相对高质量回答的能力,但是很明显,仅仅这样做是不够的。(ChatGPT:第二阶段)第二阶段:训练回报模型(Reward Model,RM)。这个阶段的主要目的是通过人工标注训练数据,来训练回报模型。具体而言,随机抽样一批用户提交的prompt(大部分和第一阶段的相同),使用第一阶段Fine-tune好的冷启动模型,对于每个prompt,由冷启动模型生成K个不同的回答,于是模型产生出了<prompt,answer1>,<prompt,answer2>….<prompt,answerK>数据。之后,标注人员对K个结果按照很多标准(上面提到的相关性、富含信息性、有害信息等诸多标准)综合考虑进行排序,给出K个结果的排名顺序,这就是此阶段人工标注的数据。接下来,我们准备利用这个排序结果数据来训练回报模型,采取的训练模式其实就是平常经常用到的pair-wise learning to rank。对于K个排序结果,两两组合,形成?(k2)?个训练数据对,ChatGPT采取pair-wise loss来训练Reward Model。RM模型接受一个输入<prompt,answer>,给出评价回答质量高低的回报分数Score。对于一对训练数据<answer1,answer2>,我们假设人工排序中answer1排在answer2前面,那么Loss函数则鼓励RM模型对<prompt,answer1>的打分要比<prompt,answer2>的打分要高。归纳下:在这个阶段里,首先由冷启动后的监督策略模型为每个prompt产生K个结果,人工根据结果质量由高到低排序,以此作为训练数据,通过pair-wise learning to rank模式来训练回报模型。对于学好的RM模型来说,输入<prompt,answer>,输出结果的质量得分,得分越高说明产生的回答质量越高。(ChatGPT:第三阶段)第三阶段:采用强化学习来增强预训练模型的能力。本阶段无需人工标注数据,而是利用上一阶段学好的RM模型,靠RM打分结果来更新预训练模型参数。具体而言,首先,从用户提交的prompt里随机采样一批新的命令(指的是和第一第二阶段不同的新的prompt,这个其实是很重要的,对于提升LLM模型理解instruct指令的泛化能力很有帮助),且由冷启动模型来初始化PPO模型的参数。然后,对于随机抽取的prompt,使用PPO模型生成回答answer, 并用上一阶段训练好的RM模型给出answer质量评估的回报分数score,这个回报分数就是RM赋予给整个回答(由单词序列构成)的整体reward。有了单词序列的最终回报,就可以把每个单词看作一个时间步,把reward由后往前依次传递,由此产生的策略梯度可以更新PPO模型参数。这是标准的强化学习过程,目的是训练LLM产生高reward的答案,也即是产生符合RM标准的高质量回答。如果我们不断重复第二和第三阶段,很明显,每一轮迭代都使得LLM模型能力越来越强。因为第二阶段通过人工标注数据来增强RM模型的能力,而第三阶段,经过增强的RM模型对新prompt产生的回答打分会更准,并利用强化学习来鼓励LLM模型学习新的高质量内容,这起到了类似利用伪标签扩充高质量训练数据的作用,于是LLM模型进一步得到增强。显然,第二阶段和第三阶段有相互促进的作用,这是为何不断迭代会有持续增强效果的原因。尽管如此,我觉得第三阶段采用强化学习策略,未必是ChatGPT模型效果特别好的主要原因。假设第三阶段不采用强化学习,换成如下方法:类似第二阶段的做法,对于一个新的prompt,冷启动模型可以产生k个回答,由RM模型分别打分,我们选择得分最高的回答,构成新的训练数据<prompt,answer>,去fine-tune LLM模型。假设换成这种模式,我相信起到的作用可能跟强化学习比,虽然没那么精巧,但是效果也未必一定就差很多。第三阶段无论采取哪种技术模式,本质上很可能都是利用第二阶段学会的RM,起到了扩充LLM模型高质量训练数据的作用。以上是ChatGPT的训练流程,主要参考自instructGPT的论文,ChatGPT是改进的instructGPT,改进点主要在收集标注数据方法上有些区别,在其它方面,包括在模型结构和训练流程等方面基本遵循instructGPT。可以预见的是,这种Reinforcement Learning from Human Feedback技术会快速蔓延到其它内容生成方向,比如一个很容易想到的,类似“A machine translation model based on Reinforcement Learning from Human Feedback”这种,其它还有很多。但是,我个人认为,在NLP的某个具体的内容生成领域再采用这个技术意义应该已经不大了,因为ChatGPT本身能处理的任务类型非常多样化,基本涵盖了NLP生成的很多子领域,所以某个NLP子领域如果再单独采用这个技术其实已经不具备太大价值,因为它的可行性可以认为已经被ChatGPT验证了。如果把这个技术应用在比如图片、音频、视频等其它模态的生成领域,可能是更值得探索的方向,也许不久后我们就会看到类似“A XXX diffusion model based on Reinforcement Learning from Human Feedback”,诸如此类,这类工作应该还是很有意义的。另外一个值得关注的采取类似技术的工作是DeepMind的sparrow,这个工作发表时间稍晚于instructGPT,如果你仔细分析的话,大的技术思路和框架与instructGPT的三阶段基本类似,不过明显sparrow在人工标注方面的质量和工作量是不如instructGPT的。反过来,我觉得sparrow里把回报模型分为两个不同RM的思路,是优于instructGPT的,至于原因在下面小节里会讲。既然看上去ChatGPT几乎无所不能地回答各种类型的prompt,那么一个很自然的问题就是:ChatGPT或者未来即将面世的GPT4,能否取代Google、百度这些传统搜索引擎呢?我个人觉得目前应该还不行,但是如果从技术角度稍微改造一下,理论上是可以取代传统搜索引擎的。为什么说目前形态的ChatGPT还不能取代搜索引擎呢?主要有三点原因:首先,对于不少知识类型的问题,ChatGPT会给出看上去很有道理,但是事实上是错误答案的内容(参考上图的例子(from @Gordon Lee),ChatGPT的回答看着胸有成竹,像我这么没文化的基本看了就信了它,回头查了下这首词里竟然没这两句),考虑到对于很多问题它又能回答得很好,这将会给用户造成困扰:如果我对我提的问题确实不知道正确答案,那我是该相信ChatGPT的结果还是不该相信呢?此时你是无法作出判断的。这个问题可能是比较要命的。其次,ChatGPT目前这种基于GPT大模型基础上进一步增加标注数据训练的模式,对于LLM模型吸纳新知识是非常不友好的。新知识总是在不断出现,而出现一些新知识就去重新预训练GPT模型是不现实的,无论是训练时间成本还是金钱成本,都不可接受。如果对于新知识采取Fine-tune的模式,看上去可行且成本相对较低,但是很容易产生新数据的引入导致对原有知识的灾难遗忘问题,尤其是短周期的频繁fine-tune,会使这个问题更为严重。所以如何近乎实时地将新知识融入LLM是个非常有挑战性的问题。其三,ChatGPT或GPT4的训练成本以及在线推理成本太高,导致如果面向真实搜索引擎的以亿记的用户请求,假设继续采取免费策略,OpenAI无法承受,但是如果采取收费策略,又会极大减少用户基数,是否收费是个两难决策,当然如果训练成本能够大幅下降,则两难自解。以上这三个原因,导致目前ChatGPT应该还无法取代传统搜索引擎。那么这几个问题,是否可以解决呢?其实,如果我们以ChatGPT的技术路线为主体框架,再吸纳其它对话系统采用的一些现成的技术手段,来对ChatGPT进行改造,从技术角度来看,除了成本问题外的前两个技术问题,目前看是可以得到很好地解决。我们只需要在ChatGPT的基础上,引入sparrow系统以下能力:基于retrieval结果的生成结果证据展示,以及引入LaMDA系统的对于新知识采取retrieval模式,那么前面提到的新知识的及时引入,以及生成内容可信性验证,基本就不是什么大问题。基于以上考虑,在上图中展示出了我心目中下一代搜索引擎的整体结构:它其实是目前的传统搜索引擎+ChatGPT的双引擎结构,ChatGPT模型是主引擎,传统搜索引擎是辅引擎。传统搜索引擎的主要辅助功能有两个:一个是对于ChatGPT产生的知识类问题的回答,进行结果可信性验证与展示,就是说在ChatGPT给出答案的同时,从搜索引擎里找到相关内容片段及url链接,同时把这些内容展示给用户,使得用户可以从额外提供的内容里验证答案是否真实可信,这样就可以解决ChatGPT产生的回答可信与否的问题,避免用户对于产生结果无所适从的局面。当然,只有知识类问题才有必要寻找可信信息进行验证,很多其他自由生成类型的问题,比如让ChatGPT写一个满足某个主题的小作文这种完全自由发挥的内容,则无此必要。所以这里还有一个什么情况下会调用传统搜索引擎的问题,具体技术细节完全可仿照sparrow的做法,里面有详细的技术方案。传统搜索引擎的第二个辅助功能是及时补充新知识。既然我们不可能随时把新知识快速引入LLM,那么可以把它存到搜索引擎的索引里,ChatGPT如果发现具备时效性的问题,它自己又回答不了,则可以转向搜索引擎抽取对应的答案,或者根据返回相关片段再加上用户输入问题通过ChatGPT产生答案。关于这方面的具体技术手段,可以参考LaMDA,其中有关于新知识处理的具体方法。除了上面的几种技术手段,我觉得相对ChatGPT只有一个综合的Reward Model,sparrow里把答案helpful相关的标准(比如是否富含信息量、是否合乎逻辑等)采用一个RM,其它类型toxic/harmful相关标准(比如是否有bias、是否有害信息等)另外单独采用一个RM,各司其职,这种模式要更清晰合理一些。因为单一类型的标准,更便于标注人员进行判断,而如果一个Reward Model融合多种判断标准,相互打架在所难免,判断起来就很复杂效率也低,所以感觉可以引入到ChatGPT里来,得到进一步的模型改进。通过吸取各种现有技术所长,我相信大致可以解决ChatGPT目前所面临的问题,技术都是现成的,从产生内容效果质量上取代现有搜索引擎问题不大。当然,至于模型训练成本和推理成本问题,可能短时期内无法获得快速大幅降低,这可能是决定LLM是否能够取代现有搜索引擎的关键技术瓶颈。从形式上来看,未来的搜索引擎大概率是以用户智能助手APP的形式存在的,但是,从短期可行性上来说,在走到最终形态之前,过渡阶段大概率两个引擎的作用是反过来的,就是传统搜索引擎是主引擎,ChatGPT是辅引擎,形式上还是目前搜索引擎的形态,只是部分搜索内容Top 1的搜索结果是由ChatGPT产生的,大多数用户请求,可能在用户看到Top 1结果就能满足需求,对于少数满足不了的需求,用户可以采用目前搜索引擎翻页搜寻的模式。我猜搜索引擎未来大概率会以这种过渡阶段以传统搜索引擎为主,ChatGPT这种instruct-based生成模型为辅,慢慢切换到以ChatGPT生成内容为主,而这个切换节点,很可能取决于大模型训练成本的大幅下降的时间,以此作为转换节点。推荐阅读西电IEEE Fellow团队出品!最新《Transformer视觉表征学习全面综述》润了!大龄码农从北京到荷兰的躺平生活(文末有福利哟!)如何做好科研?这份《科研阅读、写作与报告》PPT,手把手教你做科研一位博士在华为的22年奖金675万!3位科学家,斩获“中国诺贝尔奖”!又一名视觉大牛从大厂离开!阿里达摩院 XR 实验室负责人谭平离职最新 2022「深度学习视觉注意力 」研究概述,包括50种注意力机制和方法!【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!2021李宏毅老师最新40节机器学习课程!附课件+视频资料欢迎大家加入DLer-计算机视觉技术交流群!大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)👆?长按识别,邀请您进群!
会展大咖说 | 周景龙:ChatGPT等AIGC应用对会展业是喜是忧?
近期,ChatGPT刷爆了科技圈,而它属于一个领域――AIGC。AIGC全称为AI-Generated Content,即利用人工智能技术来自动生产内容。藉此,笔者与会展业界人士探讨AIGC会对会展业产生哪些影响?会展人将如何应对?AIGC可以通过大量的训练数据和生成算法模型,自动生成文本、图片、音乐、视频、3D交互内容等各种形式的内容。当前流行产品有ChatGPT、Stable DIffusion、ElevenLabs等。ChatGPT已是众所周知的一款人工智能语言模型。Stable Diffusion 是一款文本到图像的人工智能产品模型,它将使普通人在几秒钟创作出令人惊叹的艺术作品。ElevenLabs被认为是最接近真人的一款AI语音生成工具产品。将这些应用结合起来使用,可产生“无中生有”“以假乱真”的音视频作品。那么,AIGC会不会对会展业造成影响呢?笔者的答案是不会。可以说,会展业是一个很难被人工智能冲击的行业。但AIGC会对会展从业群体带来一定影响。众所周知,机器替代人是一个未来的趋势。在笔者看来,AIGC将成为会展人最好的工作伙伴和助手。虽然AIGC已经可以“无中生有”或“弄虚作假”。但有假必有真,只要有假的东西存在,真实的东西就会变得越来越有价值。会展活动现场的亲身体验,面对面的真实社交是建立商业信任的基石,会展营销是企业拓展市场树立品牌影响力的刚需,三年新冠疫情也证明了这一点,即线上交流是无法达到真人社交场景而产生的效果。AIGC应该为会展业释放出更好、更快、更便宜的创造力,把创作内容工作的边际成本降为零,从而创造出较高的劳动生产率和商业价值。会展人的工作是复杂的,综合性很强,不仅要产生营销内容及策划方案,还要有具体运营执行的行动力。人工智能产生的内容只是会展工作的一小部分,不能完全替代人工。另外,AI产生的内容只是基于已经存在的知识和经验,产生内容本质上是元素的检索及模仿人类思维的一种重构,只能替代低水平的重复内容工作。而会展工作需要新颖的创意和持续的创新,高水平的思维还是需要人来完成。还有一个关键点,就是ChatGPT交互起来虽然已经有了一些人性,但还是缺乏真正的“人情”。情感是人类社交的重要元素,并且复杂且多样。即使人工智能想要模仿,也很容易被拆穿。综上所述,对于大多数会展人来说,ChatGPT是不会影响到我们的“饭碗”的,原因在于合格的会展人有着良好的策划能力和社交沟通能力,具备较高情商。接下来,我们也应该学会与AI协同合作的能力,提高我们的效率。具体要怎么做呢?首先,要提升学习能力。要知道为什么学习以及学习什么。未来,学习知识将越来越不重要,因为AI助手是可以让我们快速便捷获得所需知识,所以要通过学习提升我们的领导力、协同力、想象力、行动力和创新力。其次,要提升提问能力。要学会向人工智能提问,通过向ChatGPT提出合适问题,获得以往各领域专家取得的成果和经验。再次,不要将ChatGPT的观点当做依据。由于AI搜索及重构得出的结论也很有可以是错误的,因此,我们更要具备成长型思维和批判性思维,只将ChatGPT的结果当做参考,要有独立思考的能力。最后,行动力将变得越来越重要。一方面,随着优秀AIGC应用不断涌现,普通人也可以很便捷、很容易地使用AI。我们应该积极拥抱它们,将AI应用变成会展人的工作助手,高效解决问题。另一方面,AI助手让我们很容易地获得新知识、新思路、新方案,也容易让人迷惑,因此,最重要的是,要去实践、去验证,提高行动力,既要知道又要做到。AIGC应用的发展与之前移动互联网应用的发展是很相似的,这将是真正的新一代平台级的机会。互联网领域一直不缺少“噱头”,却多年没有出现像ChatGPT这么令人兴奋而充满想象的应用。会展人要抓住AIGC给我们带来的巨大机会,推动会展数字化融合发展。【作者简介】道同共创(北京)科技有限公司CEO兼创始人 责任编辑:葛岩
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。