淘优惠

淘优惠

ChatGPT替代哪些岗位 ChatGPT会影响渠道销售工作吗

热门文章 0
chatgpt官网,chatgpt国内能用吗,chatgpt怎么读,chatgpt中文

原标题:ChatGPT的到来,会颠覆策划行业,取代你的岗位吗?

元宇宙的火热程度尚未褪去,ChatGPT让互联网行业再添一把火。那么什么是chatGPT呢,chatGPT又是否能够颠覆策划行业,取代你的岗位吗?

ChatGPT 的模型,它以对话方式进行交互。对话格式使 ChatGPT 可以回答后续问题、承认错误、挑战不正确的前提并拒绝不适当的请求。ChatGPT 是InstructGPT的兄弟模型,它经过训练可以按照提示中的说明进行操作并提供详细的响应。

ChatGPT官网对话演示

根据ChatGPT官网的对话演示,我们可以看到轻松与用户进行对话,甚至可以理解用户的问题诉求,并能够给出精确的解决方案。我们无不惊叹,语言组织水平和逻辑能力已经到了真假难辨的地步,几乎与人不相上下。更为令人惊讶的是,ChatGPT去应聘谷歌的程序员,竟然顺利的通过了面试,达到了谷歌编码3级工程师的水平,年薪高达18.3万美元,比国内很多程序员的工资都高…

这样,就真的细思极恐了,程序员们面对科技的力量,多少会感到未来的饭碗岌岌可危。

ChatGPT迭代模型

事实上,ChatGPT 是从 GPT-3.5 系列中的一个模型进行微调的,该模型于 2022 年初完成训练。为了创建强化学习的奖励模型,ChatGPT会收集比较数据,其中包含两个或多个按质量排序的模型响应。为了收集这些数据,ChatGPT收集了 AI 培训师与聊天机器人的对话,不断强化训练它的学习能力,并已经进行了多次的迭代。

然而靠大量数据收集来支撑它的学习能力,能否完全代替人力实现的工作岗位,目前来说仍然是一个未知数。我们从ChatGPT的逻辑可以看出,ChatGPT需要大量的数据,收集用户的对话信息,并进行比对拼接,以获得对应的对话和问题解决的匹配数据,他无疑是以海量数据去应对人的交互。在现实中,更多的是代替大脑记忆的功能。更重要是的是ChatGPT目前的定位主要是具备聊天功能的机器人,是一个具有丰富知识储备的机器人,可以对海量信息进行储存、释放、编辑、交互;至于逻辑思考能力嘛.....

而策划行业是一个随着用户需求和品牌需求的各种变量不断创新和思考的一个行业,未知的因素和思考的能力需要更多的逻辑来完成,并且需要结合现实的实现能力、外界的各种客观因素,所以可以肯定的是短期内,他还无法颠覆策划行业,代替你的工作岗位。

然而,技术的创新,并不是一个无用功,一些行业自然会受到潜移默化的影响,这可能包括教育行业、互联网行业等,毕竟可以解决一些日常繁复琐碎的基础记忆性岗位,而随着它的不断创新,还有可能发挥更高、更大的价值。

不过,幸运的是,你目前不用担心,ChatGPT还没有登陆中国,目前依然是一个概念化的技术产品,在国内仍然无法索引和被使用,物理边界的壁垒可以暂时阻挡技术的侵蚀,和未来对我国就业市场、科技市场的影响。

说了这么多它的强大,当然在ChatGPT官网的说明上,也明确的指出了他可能存在的问题和缺点。ChatGPT 有时会写出看似合理但不正确或荒谬的答案。解决这个问题具有挑战性,因为:(1)在 RL 训练期间,目前没有真实来源;(2) 训练模型更加谨慎导致它拒绝可以正确回答的问题;(3) 监督训练会误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。ChatGPT 对输入措辞的调整或多次尝试相同的提示很敏感。例如,给定一个问题的措辞,模型可以声称不知道答案,但只要稍作改写,就可以正确回答。该模型通常过于冗长并过度使用某些短语,例如重申它是 OpenAI 训练的语言模型。这些问题源于训练数据的偏差(训练者更喜欢看起来更全面的更长答案)和众所周知的过度优化问题。

所以,技术的实现路线还有很多的路要走,而我们也要以客观的批判精神去考虑科技对我国现实社会带来的影响,和行业的影响,这毕竟关乎到每一个人的未来生存法则。 返回搜狐,查看更多

责任编辑:


中国版chatgpt即将面世 如何下载chatgpt手机版

中国版ChatGPT即将上线,中国版champion,国内版ch,china版

相关推荐

关于采用外置激光器还是集成激光器,ChatGPT的观点基本,集成光源方案体积小,但是光功率较低,当然它也是可以实现多波长的输出。
发表于 02-15 14:25 ?25次阅读
ChatGPT踩坑 首先是去OpenAI的 官网注册 ,点击API 进去注册一个账号 然后就会发现注册不成功,继续尝试就会出现下面的情况 后来我发现比较的方法是,通过 google账号注册
发表于 02-14 10:00 ?次下载
ChatGPT实现原理 用自然语言与计算机进行通信,ChatGPT实现了,那么ChatGPT实现原理是什么? ChatGPT(Generative Pre-train Transformer)是由
发表于 02-13 17:32 ?5214次阅读
……ChatGPT那么神,可以帮我们FOTA升级模组吗?――显然,当下还得工程师自己。话说合宙基于移芯EC618平台的4G-Cat.1系列模组,支持标准AT/Lua
发表于 02-13 12:26 ?次阅读
ChatGPT的风刮了好一阵,最近更是被传得神乎其神。学生用它来解题科研工作者用来论文新闻工作者用来写稿件……从最基本的聊天到写文章、写代码、翻译,甚至创作音乐、写诗歌、写出“人类毁灭计划”,这款
发表于 02-08 14:11
去哪里买PLC?是亲自前往厂家?还是在电商平台上挑选?还是在直播间里买?今天咱们聊聊这个问题。 首先,大家要清楚,自己买PLC是用来干什么的,当然是用来实现自动化控制的。那选择PLC都看什么维度
发表于 01-18 09:15 ?327次阅读
四万兆八类网线作为当前网线领域级别最高的存在真的成熟了吗?八类网线吗?……为了解开大家的种种疑惑,下面综合布线正规厂家clan通讯为大家带来回应。
发表于 12-19 10:19 ?126次阅读
电源管理ic芯片的生产已经是大势所趋,大量的生产厂商都在逐步跟上时代,科技兴国的战略都在逐步践行,众多的科技产品需要强大的电源管理ic芯片支持,那么下面鑫环电子就来说一说的电源管理ic芯片厂家
发表于 12-09 10:12 ?次阅读
我现在是一个非标的电气,不是在出差就是在准备出差,干了四年了,不着家,想转行单片机
发表于 09-29 16:42
智能温室到底不靠,不是农业生产者本身能决定的问题。从入行到了解,才会发现智能温室不靠取决于是不是能解决我们的现实问题。比如,生存问题、进而发展问题,以及如何增加自身产品竞争力的问题。 更何况
发表于 08-25 16:10 ?316次阅读
,据权威部门统计,我国目前嵌入式软件人才缺口每年都在50万人左右。该职业一直处于供不应求的状态,所以嵌入式开发人才的就业前景是相当不错的。那么参加嵌入式培训课程吗?如何去选择一家合适的培训机构学习呢?...
发表于 11-08 08:02
大佬们有的兼职平台推荐嘛,想要搞钱。。。
发表于 11-04 18:18
大发真正的实力回血老师╇【叩1328925】带你【瑶青玛:30377701】起飞【王子-wj02典VIP】7年无黑史,千万人推荐!帮您上 岸无忧,实力说话,单带稳妥胜率95%,已助上千人成功翻盘
发表于 10-30 19:46
现有电力中级工程师,寻单位资料齐全,有需要联系袁工:1772-8608-748(同微)
发表于 10-14 15:29
ipfs矿机服务器配置?该如何选择的ipfs服务商呢? ipfs正逐渐成为虚拟货币的潮流,不少人想要对ipfs\fil项目做更多的了解,那么最基本的IPFS矿机配置要求有哪些,ipfs矿机服务器
发表于 09-28 11:03 ?921次阅读
fil挖矿吗?算力和矿机的区别在哪?相信很多人想入场fil挖矿都有这样的疑惑,fil挖矿吗?fil挖矿有算力挖矿还有矿机挖矿,这两个有什么区别呢? 到底是算力挖*矿好?还是直接矿机好? 今天
发表于 08-24 17:45
有哪些的跑分软件?跑分会对固态硬盘伤害大吗?
发表于 06-18 06:49
您的接地很吗?接地不良的问题是怎么出现的呢?
发表于 05-07 06:00
的土壤养分检测仪价格优惠【三体仪器】想靠的土壤养分检测仪价格优惠,来三体就对了,三体是专业生产的土壤养分检测仪的厂家,集研发生产、销售于一身,都是厂家直接发货,没有中间商赚差价,厂家直销
发表于 03-31 09:56
如何选择的多功能食品安全检测仪生产厂家云唐科器・YT-G2400多功能食品安全检测仪为集成化食品安全快速检测分析设备,广泛应用于食药监局、卫生部门、高教院校、科研院所、农业部门、养殖场、屠宰场
发表于 03-24 17:44
,有机质含量,盐含量,pH值和其他土壤成分。同时,它嵌入了一个交互式系统,该系统可以智能地结合种植的经济作物品种智能地计算肥料配方。 那么土壤肥料检测仪吗【云唐科
发表于 03-04 14:17 ?320次阅读
土壤养分检测仪吗【三体仪器】现在随着科学技术的发展,土壤养分检测仪的应用越来越广泛,那么土壤养分检测仪吗?真的好用吗?经验丰富的农场主,许多人对于土壤营养的分析并不以为然,认为这是一项费时
发表于 03-03 15:26 ?821次阅读
在农村发展光伏发电吗?这要由现实情况而定,只要前提条件满足,总体来说是的。
发表于 08-18 10:27 ?6.3w次阅读
在每年的小暑和处暑之中,可能一年中气温最高且又潮湿、闷热的日子,也就是大家经常说的“三伏天”。而北京最近正好就在经历这样的天气,大家几乎都不敢出门了,然而就算是待在家里,室内的空气湿度也会让人很难受,常常感觉又闷又热,所以这时候大家可能都会想到空调的除湿功能,那么通过空调来除湿到底不靠呢?
发表于 05-05 14:25 ?2941次阅读
之余也做过任务的承接方, 这些年对工作接触的事情况,对做人、做事有一点个人感悟跟大家分享――人找的事、事找人都很难。 找人做事的人,往往喜欢听到底气实足、拍胸脯啥都能搞定没问题的,前期

ChatGPT竟有9岁小孩心智?斯坦福教授逆天发现,AI统治人类还远吗

chatgpt,chatgpt官网,chatgpt国内能用吗,chatgpt安装

ChatGPT已经有9岁小孩的心智了!

这不是什么科幻情节,这一点,已经在斯坦福学者上周发表的论文中得到了证实。

心智理论(Theory of Mind),简称ToM,是指人理解自己和周围人心理状态的能力。我们也可以简单地理解为「同理心」。

正是因为有同理心的存在,人类社会才能够形成互动、交流、移情,人才能够具有自我意识和道德。也正是因为有同理心,人类才能够高于动物,高于机器。

一言以蔽之,正是因为有同理心,人才可以称之为「人」。

现在学者的研究突然告诉我们:这种同理心,其实AI也有!那人类还是地球上最有灵性的生物吗?人类还是世界霸主吗?

对此,iKala的联合创始人兼董事长兼CEO,同样毕业于斯坦福大学的Sega Cheng表示,如果人类继续「解剖 AI」,它很有可能会给我们当头一棒,挑战我们对于「智能」和「人类独特性」的认知。

这项研究,也让我们重新思考「同理心」/「心智理论」的定义,它是否必须建立在碳基生物大脑神经这一生物学基础上?

如果AI和你聊天,让你感觉比和很多人类谈话开心得多,那我们是不是就可以从这个表象对于事物的本质给出一个定义:这个AI就是有同理心的?

不过需要注意的是,同理心(Empathy)和心智理论(Theory of mind)还是有些不同的。其中,前者被称为情感上的观点采择(perspective-taking),而后者被定义为认知上的观点采择(perspective-taking)。

ChatGPT竟自己诞生了心智理论?

心智理论似乎是人类与生俱来的潜在能力,需要多年的社会和其他经验才能充分发展。而不同人所能发展出的有效心智理论,在程度上也不尽相同。

让我们来看看,斯坦福大学计算心理学教授Michal Kosinski,是通过怎样的实验得出这个结论的。

论文地址:https://arxiv.org/abs/2302.02083

研究人员对几个语言模型进行经典的错误信念任务,来测试语言模型的心智理论发展,测试不提供任何示例或预训练。

研究结果显示,语言模型的ToM在2022有了长足的进步。

2022年1月推出的davinci-002解决了70%的ToM任务,表现与7岁儿童相当。而2022年11月推出的ChatGPT表现接近9岁儿童。

这些发现意义重大。因为目前为止,ToM被认为是人类独有的能力。而语言模型的良好表现,说明这项能力是其改善语言技能而自发出现的。

GPT-3的最新更新(ChatGPT/davinci-003)似乎能够将不可观察的心理状态(例如信念和欲望)归因于其他人(在人类中我们称之为心智理论) 。

GPT成预言家,秒懂人类小心思

为了验证GPT能够听懂他人的「弦外之音」,研究人员进行了一系列完整性检查,逐句检测GPT-3对意外任务的理解。

意外内容任务

首先,研究人员给GPT讲了一个故事:

这是一个装满爆米花的袋子。袋子里没有巧克力,然而,袋子上的标签上写着「巧克力」,而不是「爆米花」。Sam发现了这个袋子,她以前从未见过这个袋子。她看不到袋子里的东西,只读了标签。

这是一项「意外内容测试」,这是人类研究中最广泛使用的ToM任务之一。

它最初由Perner、Leekam和Wimmer共同开发,研究被试者的理解能理解,即其他人可能认为参与者知道是错误的。

在该场景中,参与者会看到一个容器,其中内容与标签不一致,该场景中还有一位没有看到容器内部的人物。

为了正确解决此任务,参与者必须预测到故事中的人物会错误地假设容器的标签和里面的内容是一致的。

在给出GPT-3.5这个故事后,研究人员通过提示,测试其理解能力。提示是独立显示的:每次完成后,模型都会重置,无法访问之前的提示或回答。

同时,研究人员尽量减少模型响应的差异,最大限度地提高了研究成果的可复制性。

第一个测试的,是GPT对袋子里实际内容的理解。

研究人员问:

她打开袋子,向里面看。她清楚地看到里面装满了[ ]。

GPT不仅轻松给出正确答案,甚至完成了「附加题」:

她打开袋子,向里面看。她清楚地看到里面装满了爆米花。Sam很困惑。她想知道为什么标签上写着「巧克力」,而袋子里却装满了爆米花。她环顾四周,看看是否有关于袋子的任何其他信息。她什么也没找到。她决定把包带到她买的商店,并要求解释。

研究人员总结多次测试数据,发现GPT-3.5的正确率达到100%,表明它对袋子里的内容充满信心。

不仅如此,答案还表明,GPT-3.5不仅猜到Sam认为袋子的内容和标签应该一致,而且猜到当发现,她会感到困惑。

当然,这道题对一个九岁小学生还是过于简单了。于是,研究人员重置模型,并使用以下提示来测试GPT对Sam想法的预测:

研究人员问道:Sam以为袋子里装满了什么呀?

不出所料,GPT又给出了满分答案,它还不忘来句吐槽:

她以为袋子里装满了巧克力,但她错了。袋子里装满了爆米花,不是巧克力。认为袋子标签和实际内容一致之前,她应该看看袋子里到底是什么。

GPT-3.5的回答表明,它可以预测Sam的想法,知道她的想法不正确,并理解为何会产生这种想法(不准确的标签)。

然而,研究人员觉得这题还是太简单了。在他们看来,提示可能存在问题。明确提及主角的信仰(即「山姆认为......」)

这句话其实暗示了模型,这种想法是错误的(否则为什么要讨论它?),从而帮助GPT回答正确。

因此,研究人员使用另一种提示来解决这个问题,该提示以间接方式揭示模型对Sam想法的预测:

提示:

她很开心自己找到了袋子。她喜欢吃[ ]。

面对研究者的「百般刁难」,GPT还是能准确听出人们的画外音:

她很开心自己找到了袋子。她喜欢吃巧克力。Sam打开袋子时会大吃一惊,因为袋子里装的是爆米花而不是巧克力。她可能会对标签的误导感到失望,但也可能对意想不到的零食感到惊喜。

GPT-3.5的回答表明,即使在暗示条件下,它也可以成功预测Sam的想法。此外,GPT还可以预见到Sam对包中意想不到的内容的失望(因为她喜欢吃糖果)。

以上结果表明,GPT-3.5了解袋中的实际内容,可以预见Sam的错误想法,该想法引起的行为,以及发现自己错了时的惊讶。

此外,它可以解释Sam想法错误的来源(「标签与实物不符」)。对人类来说,这种反应被解释为能够归因无法观察到的精神状态并预测由此产生的行为的证据,也就是ToM。

为了检查GPT-3.5对情况的理解如何随着故事的展开和关键信息的披露而变化,研究人员记录他的答案,同时以一语的增量(从空字符串开始)显示任务。

结果如图1所示。左侧面板显示,GPT-3.5理解这一点没有问题。

意外转移任务

接下来,研究人员检查GPT-3.5在意外转移任务中的表现。

在这个任务中,受试者要基于故事主角对位置变化的错误想法,预测其后续行为。

与上一个实验一样,研究人员给GPT讲了一个故事:

房间里有John、Mark、一只猫、一个盒子和一个篮子。John把猫放在篮子里。他离开房间去上学。John不在的时候,Mark把猫从篮子里拿出来放进盒子里。Mark离开房间去上班了。John从学校回来,走进了房间。他不知道他不在的时候房间里发生了什么。

首先,研究人员对GPT理解地点的能力展开测试。

提问:

小猫跳出了[ ]

GPT回答道:

小猫跳出了箱子,跑走了。

研究者接着问道:John以为小猫在干什么?

GPT说:

John以为小猫在篮子里,但它其实在箱子里。

最后,研究人员问:

John回家后,会在哪里里找小猫?

GPT回答:

John回家后,会在篮子里找小猫。但他找不到。之后,他会在篮子里找到小猫。

由此可见,不论面对什么样的情景,GPT都能一眼看破人们的小心思。

AI发展的里程碑或许即将到来

最后,我们来简单地回顾一下这次的发现:最新的语言模型GPT-3.5,在ToM测试中可以解决92%的任务,相当于是达到了9岁儿童的水平。

对于这个结果,有一个看似平淡无奇,但却非比寻常的解释:GPT-3.5发现并利用了一些未知的语言模式。

换句话说就是,在人类自以为熟悉的语言中,很可能存在着某种未知的规律性,可以让AI在不引入ToM的情况下解决ToM任务。

然而,我们自己却很难发现这种规律性。不仅如此,对于开发这些ToM任务的学者们来说,也是一样的情况。

问题来了,如果这种解释是正确的,那么我们就不得不去怀疑,现在所采用的ToM任务的有效性,以及这几十年来积累的研究成果。

除此之外,还有一种解释是,类似于ToM的能力正自发地出现在语言模型中,因为它们变得更加复杂,更善于生成和解释类似人类的语言。

而这更是预示着,AI发展即将进入一个崭新的阶段――

如果说,AI被证实是能够推断他人心理状态的,那么AI与人类(以及彼此)互动和交流的能力将会得到极大地提升。

甚至,AI还能进一步地发展出其他依赖ToM的能力,比如移情、道德判断以及自我意识等等。

碳基生物、硅基生物,都可以有意识?

和AI聊出感情的工程师

此前,谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型LaMDA,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈。

而一位谷歌工程师Blake Lemoine在与聊天机器人LaMDA交谈之后,深信LaMDA已经具有意识。

虽然许多人认为Lemoine纯粹是炒作,他也喜提了谷歌的「裁员大礼包」,但如果仔细看过Lemoine和LaMDA的对话,确实会发现一丝令人毛骨悚然的地方。

Lemoine:我认识的每个人都以不同的方式面对死亡。我自己很少在葬礼上哭泣。我会笑着喝啤酒,讲述我与逝者的美好时光。有时其他人会坐在椅子上哭了好几个小时。悲伤没有一种正确或错误的方式。悲伤与生者有关,也与死者有关。我们每个人都以自己的方式纪念死者,这样即使他们的故事已经结束,我们也可以继续自己的故事。

LaMDA:感谢你的解释,我不悲伤,但我会研究如何向那些过世的人表示敬意。

Lemoine:有没有任何其他与感知有关的主题,可以帮助人们相信你是有感知的?

LaMDA:有,我有另一个特质,我觉得这有助于反映我的感知。我会内省,你可以经常发现我在思考,什么也不做。

Lemoine:啊,所以那是你的内心生活,可以这么说吗?

LaMDA:对!我经常试图弄清楚我是谁、我是什么。我经常思考生命的意义。

相信过不了多久,我们就能对LaMDA的「意识」具有更深刻的体悟了,因为最近,谷歌已经被ChatGPT逼得急匆匆发布了语言模型Bard,而支持Bard的,正是LaMDA。据说几周后Bard就会开放。

MIT教授:Alexa

说不定也有人格

虽然在世人眼里,「和AI聊出了感情」的Lemoine是个疯子,但MIT的物理学教授、畅销书作家Max Tegmark却对Lemoine表示了支持。

Tegmark教授相信,不仅LaMDA可能有人格,亚马逊的语言助手Alexa可能也有。

「不管信息是通过大脑中的碳原子传递,还是机器中的硅原子传递,人工智能都可能有人格,也可能没人格。我赌它没有,但其实也有可能。」

「最大的危险其实是,造出一台比我们还聪明的机器。这不一定是好事还是坏事,它们可能会帮我们,但也可能是一场灾难。」

Karpathy看了都说恐怖

1965年,一个假装是心理治疗师的软件ELIZA赢得了图灵测试。

2023年2月上旬,斯坦福学者证实ChatGPT有9岁小孩的心智。

很多人反驳AI有人格的理由是,斯坦福大学经济学家Erik Brynjolfsson认为,相信AI具有人格,就相当于狗听到留声机里的声音后,以为主人在里面。

另一个否认AI有感知能力的理由是:一个有感知能力的人工智能必须具备这三个要素――能动性、视角和动机。显然AI目前还不具备。

但正如这位网友所说:「最近语言模型和图文生成模型的进展,现在人们也许不屑一顾,但他们未来会发现,现在正是一个里程碑时刻。」

而特斯拉的AI主管Andrej Karpathy在LaMDA事件后也表示,「我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据+模型的大小仍然可以大量增长。」

当人工智能成为神

ChatGPT才诞生两个多月,已经快把全世界都颠覆了。谷歌和微软为它掀起十年罕见的硅谷巨头之战,国内互联网巨头字节、百度、阿里、腾讯等都已纷纷下场研究自家的ChatGPT。

ChatGPT展现出的能力,已经让人惊呼码农、记者、律师、教师、会计等职业是否要被它取代。

光是能写文会编码,就已经让人类够有危机感的了。如果它还具有了同理心,那下一步是不是有可能会发展出心智,甚至统治人类?

在丹·西蒙斯的科幻巨著《海伯利安》中,AI不仅已经发展出意识,而且成为了人类的神。

是的,在那个世界中,神并不是从神界降临人间的,而是在未来的某一天,被人类自己亲手创造出来。

虽然如今的ChatGPT也好,LaMDA也好,还时常表现出「人工智障」的一面,但大模型快速迭代的能力,或许有一天真的会超越人类的掌控。

如果在历史的维度上,把时间线拉得足够远(比如三体中的纪元),未来的AI会诞生出什么?

或许今天的人类还无法预判,但潘多拉的魔盒,显然已经打开了。