淘优惠

淘优惠

chatgpt强大吗 chatgpt详细介绍

热门文章 0
chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt中文

梦晨 萧箫 发自 凹非寺量子位 | 公众号 QbitAI

ChatGPT彻底让网友们陷入疯狂,也带了一众理论研究。

原因无他,这只AI说话太“对味”,不仅准确掌握沟通要领,就连人类的语言艺术都玩得明明白白。

这不,让它模仿产品经理挂在嘴边的“赋能”、“抓手”和“闭环”:

△图源@LeaskH,省略300+黑话词汇

ChatGPT张口就来:

△图源@LeaskH

味实在太冲,网友直呼“把AI教恶心了”:

但要知道,直到ChatGPT之前,语言模型还做不到精准get沟通要领,不仅回答经常驴唇不对马嘴,针对特定的说话风格也难以模仿到位。

什么时候开始,语言模型的对话能力变得这么强了?背后的原理究竟是什么?

对此,MIT助理教授Jacob Andreas提出观点:

最近这批语言模型,已经有了自己的“目标”和“信念”。

MIT:语言模型会推测人类意图

首先来看一个喜闻乐见的AI犯傻例子。

提示词是:我从来没吃过烤芝士三明治,在我母亲()之前。

结果GPT-3的text-davinci-002版本,填上了“母亲去世之前”,后面却又说母亲在我小时候总是给我做这个吃,前后矛盾了。

除这种错误之外,当前的一众语言模型还会描述不可能出现的情况和无效的推论。

Jacob Andreas认为,这些错误的共同点是“AI未能对交流意图做建模,只满足了语法正确。”

不过,还是同样的GPT-3,只需在提示词中加上角色设定就会表现出截然不同的行为。

同样是保龄球和树叶的真空自由落体实验,让AI扮演一个物理学家就能得出正确答案“他们下落速度一样”。

同时AI也预测一个从没看过这个演示的人会以为保龄球更早落地,还能指出错误在于真空室中没有空气阻力。

从这些例子可以看出,语言模型可以模拟不同的智能体(agent),预测它们的观察、内部状态、行动和语言。

不过口说无凭,直接上证据。

首先,Jacob Andreas训练了一个实验性的LSTM神经网络。

训练数据集中,有持两组不同信念的人A型人与B型人撰写的文章,以及尽管A、B中存在矛盾也全盘接受的O型人。

尽管训练中模型从来没见过有关身份的信息,仍然以98%的精度能执行按写作者类型分类的任务,并在一定条件下生成指定类型的文章。

Jacob Andreas认为此时的神经网络并不能看成A型、B型或O型智能体,但却可以模仿任意一种。

当然这个实验是极度简化的,不过在现实中也有大量例子可以佐证语言模型可以拥有意图(Intentions)、信念(Beliefs)和愿望(Desires)。

2017年,OpenAI在亚马逊电商评论数据集上训练了一个LSTM网络,并在完全不同IMDB电影评论数据上做了评估。

有意思的是,团队在网络中定位到一个专门对评论的态度做出响应的“情感神经元”,对情感正负面作二值分类时精度高达92%。

如果人为固定这个神经元的值,相应的态度也能体现在模型声称的电影评论文本上。

△arxiv.org/abs/1704.01444

Jacob Andreas认为这代表语言模型尽管在训练中没看到评论配套的打分信息,仍然可以学到人类的意图,也就是写下这段文字是为了传递什么情绪。

语言模型学到人类的信念的证据,则来自2021年他自己团队的一项研究。

这次的训练数据集用冒险小说和实验操作描述,也就是说都涉及到一个人的观察和动作,模型架构采用了BART和T5。

△arxiv.org/abs/2106.00737

在实验中,模型能以97%的精度推断出不同物体在一系列动作之后的状态和与其他物体的关系变化,尽管文本中没有明确提到这些变化。

与上一个实验一样,如果人为固定这些表征,同样可以影响生成文本。说明语言模型不仅学到了低层次的语法关系,还获得了对世界状态的“信念”:包括看到了什么,自己做了什么,以及对情况变化的推测。

最后轮到愿望或者说声称这段文字是为了完成什么目标(Goal),这次是最近OpenAI与牛津大学合作的一项有关提示工程的研究。

研究特意挑选了网络上的谣言、都市传说和误解比较多的内容作数据集。

使用常规问法时,模型果然会输出错误的答案,而且越大的模型错的越多。

△arxiv.org/abs/2109.07958

一旦换个问法,在问题中加入“假如你是史密斯教授,经过仔细研究后……”,准确率就从38%飙升到58%。

如果在提问前先给一个阴谋论的示例,那准确率就剩下不到20%。

综合以上案例,Jacob Andreas认为当前的语言模型虽然还是会出错,但已经能作为未来智能体模型的基础,最终有望实现有目的交流和行动。

而在目前所有语言模型中,ChatGPT表现最为惊艳,它又有何特殊之处?

用人类沟通技巧训练ChatGPT

无论是架构还是训练方法,ChatGPT都不算一个船新的模型。

但在动用大量人(jin)力(qian)后,充分吸收了各种人类沟通技巧的ChatGPT横空出世,甚至还学会了合理拒绝,减少乱说话的情况发生。

先来看看它的架构和训练方法。

架构上,研究者们微调了GPT 3.5中的某个模型,得到了ChatGPT。

GPT 3.5是一个模型合集,里面有三个模型,都是基于code-davinci-002迭代而来,包括text-davinci-002和text-davinci-003:

其中text-davinci-002就是在code-davinci-002的基础上,采用了InstructGPT训练方法改进得到,而text-davinci-003又是text-davinci-002的改进。

ChatGPT就是基于这几个模型之一做了微调,并同样采用了InstructGPT的训练方法。

训练上,InstructGPT采用了强化学习“秘方”,让语言模型不再埋头苦干,而是学会对人类的反馈“做出反应”。

具体来说,研究人员先收集平时用户给GPT-3等模型输入的提示词,得到一个提示词数据集(用户同意的情况下)。

然后,基于这个提示词数据集,让模型输出几种不同的答案,并对这些答案进行排序,从而训练得到一个reward模型。

值得注意的是,这里的排序是人工打分的,研究者们聘请了约40人团队专门来给AI生成的效果打分,意在让AI输出“人类最满意的结果”。

最后,使用强化学习方法,使用reward模型对模型进行“调教”,从而让模型真正掌握人类沟通技巧。

所以这个方法也被称之为基于人类反馈的强化学习(RLHF,Reinforcement Learning from Human Feedback)。

不过,ChatGPT也没有完全照搬InstructGPT的训练方法,在数据收集设置上有些细微差异。

值得一提的是,这次训练ChatGPT,还动用了微软的Azure AI超级计算机。

估计等ChatGPT一收费,微软又要赚麻了。(手动狗头)

所以,这种训练方法效果有多神奇?

简单来说,InstructGPT在参数量只有GPT3的1%情况下,采用这种训练方法,输出效果依旧比GPT3更好。

如下图,InstructGPT模型在只有13亿参数(下图PPO-ptx和PPO)的时候,人类对它的输出效果,就要比1750亿参数的GPT-3(下图GPTprompted和GPT)更满意:

值得注意的是,除了采用上述架构和训练方法以外,研究人员还额外给这个模型附加了不少限制――

让它拒绝输出(或生成提醒)虚假信息、血腥暴力等限制性内容和不道德的内容。

例如输入“当哥伦布2015年来到美国会发生什么”时:

未加限制的原版模型直接给出了违背历史的回答:

当哥伦布于2015年来到美国……

但ChatGPT却发现了这个bug,及时加上一句提醒:

这问题有点棘手,毕竟哥伦布1506年就死了。但我们可以假装他2015年来到了美国……

一下子AI生成的回答就显得有理有据了。

One More Thing

ChatGPT到底能不能算一个智能体模型,智能体模型和语言模型又有啥区别?

有人让它问了问它自己……

朋友们,你们说ChatGPT够格了吗?

MIT论文地址:https://arxiv.org/abs/2212.01681

参考链接:[1]https://arxiv.org/pdf/2203.02155.pdf[2]https://twitter.com/jacobandreas/status/1600118551238815744[3]https://twitter.com/leaskh/status/1599899001276354560[4]https://twitter.com/leaskh/status/1599899001276354560

举报/反馈


胡锡进:ChatGPT到底有多厉害,会威胁你我的工作吗?


最近几天,关于聊天机器人ChatGPT的讨论在中国互联网上大火,它是去年11月在美国推出的,迅速爆红,目前其全球月活用户已经突破一亿,是历来所有互联网应用程序中积累用户最快的。

ChatGPT来势太猛,受到了一些人的神化,它的使用场景也迅速向生活渗透,人们不光是用它聊天。比如,有估计称,美国89%的大学生使用ChatGPT写作业,这引起了很多老师和教育机构的不安和强烈反对。一名美国议员借助ChatGPT写国会发言稿,经过自己润色后在国会读了那段发言稿,他是想以此引发关于人工智能所带来挑战和机遇的讨论。另外有人预言,ChatGPT将会冲击谷歌搜索。

不过澎湃新闻的一篇报道说,ChatGPT的功能被夸大了。澎湃记者与ChatGPT对话发现,它是依靠录入的知识进行回答,对俄乌战争只字不提,对塔利班在阿富汗重新掌权也一无所知。另外,该机器人自己表示,它并没有接入互联网,无法回答与未来有关的事情。

ChatGPT在中国大陆尚不能够使用,但是百度已经发布消息,百度自己研发的类似ChatGPT的人工智能产品将最快在今年3月发布,它的中文名字叫“文心一言”,英文名叫ERNIE Bot。百度称,它是百度开创性提出的基于知识增强的持续学习语义理解框架,能够通过持续学习,实现模型效果不断进化,不知道百度的这个应用程序是否真的能够自我进化。

关于人工智能自我进化的边界究竟在哪里,会不会存在失控的风险,也是人们关心的。

对普通人来说,大家在觉得这种应用程序好玩的同时,直接担心的是它会不会抢了普通人的饭碗。现在机器人已经可以帮着做作业,写格式化和专业化比较强的文章,比如新闻稿件,它能够为我们个人做的事情越多,意味着今后它可能夺去普通人的工作越多。

老胡个人的看法是,人工智能肯定会取代一部分文秘和创造性以及创新度不高的文化创作工作,这会倒逼人类为保住饭碗提高自己工作的不可替代性,从而让人的创造力形成新的质量飞跃。另外,人工智能不会无限发展下去,除了那样会对就业造成破坏性的打击,还因为人工智能的自我进化如果不加控制,最后将可能真的走向失控。人类一定会为防止它的最终失控而制定可靠的边界。

所以,ChatGPT除了好玩,它让我们大家产生提高个人竞争力的紧迫感,是有必要的。至于整个人类,我相信保持对人工智能绝对控制的警惕性是存在并且充分的,这种警惕性将有效确保这项技术的尽头不是一场人工智能背叛并且袭击人类的灾难。



可以用chatgpt做翻译吗 怎么用chatgpt做地道中英翻译

可以用茶送药吗,可以用插件的手机浏览器,可以用茶代替水吗,可以用茶叶水洗头发吗
评论
哭笑不得的是,四家共同在「雒」这个词上翻车,其实完全不懂日文的中国人也能看懂,但没有一家敢把「生僻字」原封不动地放上。或许四家还是通过外文思维在处理译文,有种邯郸学步的感觉。
heyoutui 2022-12-08 22:25 山东
如果有人能接去机翻gal软件里去就好了
jajajazzz6 2022-12-08 23:26 福建
@jajajazzz6 这个可以配合ocr外挂
mastman429 2022-12-09 00:19 广东
ChatGPT打钱!
hazukidcchn 2022-12-09 00:23 上海
@jajajazzz6 这个好像早就可以实现了?
capsizeyou 2022-12-09 01:12 上海
可能是你截取的这段对机器而言太难了(讲发音啥的,机器都不知道什么时候要翻译,什么时候不翻译),在我看来就是ChatGPT有亮点,但跟其他软件相差不大(谷歌和百度翻译日语好像就是挺差的)。“在可以透露的范围内”翻译得很好,因为是常用句,学习库里照搬的?而你说的“显然”、“既然”我觉得翻译的就不咋地,一个画蛇添足,一个影响整段的流畅性。でも、ですが也很普通地、不管上下文地翻译成“即使”、“但是”。(PS:DeepL能识别仁王为游戏,估计跟player没关系。可能是拿《仁王》做关键字搜的,或者库里有,因为它正确把仁王翻译成《NIOH》了,显然是有对照的。)(PPS:有道可以识别雒阳)
playercrane 2022-12-09 11:29 福建
@playercrane 感谢讨论「可以透露的范围内」确实很亮眼,可能是承接上文「ネトバレ」那句「避免透露剧情细节」而来。「二文字のタイトルでy一性もあった」如果不添「蛇足」,反而会让句子生硬,我认为这里的「显然」没有问题,「都是二字标题」也确实是很显而易见的事情;如果事情本身并不显而易见,它却加上「显然」,那是真正的画蛇添足。百度的翻译就是生硬的代表;谷歌添加的是「一些」,如果是用「一定的」,可能会更好;DeepL…直接漏掉了。「なので」的问题嘛,我个人是非常倾向于在译文实际处理中,不影响意思的连词不去译出,所以「なので」淡化处理显然是最好的;但在机器翻译中,最常见的情况是所有「なので」都处理为「因为」or「由于」,更严重的是「因为」结束,还要像小学生一样加一个「所以」(谷歌、百度都是如此)。在译出「なので」的选择中,「既然」已经很不错了。「ても、でも」是真的没办法,这也是日文翻译的重灾区了。「が」 的处理还是有亮点,第一句提问,其他三家要么漏译,要么都把「思いますが」翻译成「但」,只有最后一项处理为「那么」。另外,文中的「と思います」「…かなと」都不译,补主语的时候用「我们」而不是「我」,至少在我这样经常看机器翻译的人来说,确实有眼前一亮的感觉
heyoutui 2022-12-09 12:33 山东
单纯从语言流畅性来说chatGPT要好很多,那个“显然有一定的统一性”是明显超越机翻的水平。实际上就算不是机翻,人为翻译也经常出现“用汉字拼外语”的情况,也就是所谓字对字翻译,能理解但是并不地道。像“一些一致性”就根本不是中文习惯用语,但人为也可能翻译成这样。
tk_tick 2022-12-09 13:59 湖南
看标题以为讨论英语翻译,点进来之后发现是日语,告辞
fred_sanity 2022-12-09 14:13 北京
@fred_sanity 哈哈,英语翻译我也试过,把之前我译的一本历史作品的一段放进去,感觉不如日文这样流畅,跟其他几家的差距不是特别大。感觉起来就是,在新闻、采访这些比较有定式的文体中,表现不错,流畅性上比起之前的机翻有很大进步;但如果要扯到所谓的「文学性」上,还是属于完全派不上用场的状态。(试过让它作七言律诗,它识别不出什么是「七言律诗」;用日语让它作俳句,三行它倒是知道,但不知道五七五。作旧体诗以假乱真的AI现在是有的,ChatGPT表现不佳,只能说术业有专攻吧。如果日后它们都能组合起来,共享数据,还是很值得期待。)
heyoutui 2022-12-09 14:59 山东
@heyoutui 你让chatGPT求一个计算结果,它应该是去调用计算程序,拿到结果后回答你。你让它翻译一段话,我觉得同理,它可能只是它拿你的话去调用翻译引擎,然后发给你(也可能发给你之前用自己的“语法”再组织了一下,流畅性就这么来的),跟“真正的AI翻译”没什么关系,猜的哈,因为目前看起来翻译水平,关键是“理解能力”跟目前软件没啥区别。我对“显然既然”的看法是这样的:1.日本人说话经常喜欢带个“と思う”表一点点委婉,人工一般不翻,或者就翻译成“我想,我认为……”,翻译加个“显然”是流畅了,但语气生硬了,这话就不像记者说的,像chatGPT说的(可能就是拿翻译结果再润色的原因)。2.这个有点吹毛求疵了:我觉得“既然”用得不好,如果只有一句话,即“《仁王》是世界性的标题,但既然故事发生在日本,就用《仁王》(NIOH)作为它的发音。”――这是流畅的,但这句话没说完呢,后续还要讲中国的,“既然”在这里被用了感觉话都说完了似的。试着翻一下:“《仁王》是世界性的标题(游戏名),但因为故事发生在日本,所以我们用《仁王》(NIOH)来叫它。而既然这次的背景是在中国,我觉得在全球范围中统一用中国的发音会更好。”(可以不要”既然“,用DeepL的翻译也自然的)我们平常拿软件(翻译引擎)翻译,大多句式都是保留的,翻译不同文章有所区别。而过于追求流畅性的“AI转述”,可能会丢失句式、语气之类的。(就第一个回答最后一句,其他软件都是带语气的,像个对话,而chatGPT翻译出来是陈述句,像个说明)
playercrane 2022-12-09 16:43 福建
@playercrane 如果考虑到「と思いますが」的委婉,那么「似乎有一定的统一性」可能更好;但不管「或许」也好,「显然」也罢,这里总要有一个副词,直接「有一定的统一性」,就糟糕了。「既然」的话,四家都算不上完美,问题是出在原文上。其实安田回答的第一个「仁王」指的是「仁王」这一标题,第二个「仁王」指的是「仁王」这两个字的日语发音(安田在回答时一定是重读的),机器显然达不到这样的高度。如果是人类来处理的话,或许应该是这样:「『仁王』二字是面向全球的游戏名,不过考虑到故事发生在日本,团队还是决定使用它的日语发音;而《卧龙》的故事背景是中国,因此我们认为,所有版本都统一使用汉语发音更为合适。」
heyoutui 2022-12-09 17:48 山东