chatgpt是目前最先进的人工智能吗 chatgpt人工智能全解析
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
原创 王培 返朴 收录于合集 #AI那厮 13个
继ChatGPT以近乎摧枯拉朽的气势席卷社会之后,3 月 14 日,OpenAI又发布了 GPT-4,宣称其可以更准确地解决复杂问题,是“最先进的人工智能系统”。那么,取得了现象级成功的由深度学习开发而来的此类智能聊天机器,有很大希望成为人类梦寐以求的通用人工智能吗?本文将从理论上分析ChatGPT的若干根本局限,及各界对其存在的几个普遍误读。此外,尽管本文针对的是ChatGPT,但结论适用于其他大语言模型。
撰文 | 王培(美国天普大学计算机系)
ChatGPT问世以来,在引起全社会关注的同时也触发了很多争论。很多人被它似乎无所不知的内容储备和流畅的语言表达能力所震惊,但也有不少人因为它不时冒出来的 “一本正经的胡说八道” 而断定其不堪大用。关于对未来社会的影响,有人欢欣鼓舞地憧憬脑力劳动的效率提升,而另一些人则在忧心忡忡地预测就业机会的减少。一时间众说纷纭,蔚为大观。本文无意于讨论这些问题,而只准备集中分析一个话题:这种系统会成为所谓 “通用人工智能” 吗?
ChatGPT是什么?
网上已经有对 ChatGPT的很多介绍材料,所以我这里只谈和本文的话题直接相关的。ChatGPT属于 “大语言模型” (Large Language Model,LLM),其直接目标是总结人类语言使用的统计规律。其构造过程主要包括两个阶段:首先,利用互联网等来源提供的语言材料训练一个巨型人工神经元网络,直接在字词、语句等水平上总结语言使用者的习惯。最简单的情况就是统计一个词出现在另一个词之后的频率,比如在 “这” 出现之后,有多少次下一个字是 “里” 。既然一个语言的词汇量是有限的,这种统计就完全可能进行,只是由于计算量极大,没有人会这样学习语言而已。以此为基础,可以进一步根据一个句子的开头计算其各种结尾的出现频率,以至于在一句话之后出现另一句话的可能性,如此等等。这和很多输入法根据已经打出的字猜测后面的字的做法基于相同的原理,只是海量的语言材料和超人的计算能力使得这种模型取得了任何人类都无法企及(甚至难以想象)的结果。这就直接解释了ChatGPT的内容广度和语言流畅性,因为它所说的话就是该语言的使用者们在相同的语境下最可能说的。
在上述 “预训练” 的基础上,ChatGPT又经过了一个 “强化学习” 过程,在其中人类训练者为它提供了大量典型问题,并对其回复进行 “奖励” 或 “惩罚”,通过调整模型的参数使得其行为符合人类要求。这就解释了它为什么会在某些问题上提供背离统计数据的回复,尤其是当那些统计结果可能引起伦理或政治麻烦,或者不符合其作为聊天程序的 “身份” 的时候。
尽管上述过程已经覆盖了非常大的范围,但总还有问题超出其外,就是说既没有来自语言材料的显著统计结论,也没在后续训练中出现过。在这种情况下,ChatGPT(或者说作为其基础的人工神经元网络技术)就会根据最类似的已知问答做出反应。这里 “类似” 的标准也是统计性的,比如说 “这” 的统计特征(即前面提到的各种频率)和 “那” 会很接近,而和 “和” 就不会那么接近。这种处理方式当然有道理,但也正是各种 “一本正经的胡说八道” 的来源,因为如果类似程度不够高,这种替换结果的可信性就很成问题,而且这种 “统计上的类似” 和 “含义上的类似” 毕竟不完全是一回事。
虽然上面的介绍包括了大量简化,从中已经可以看出ChatGPT的一些根本局限。由于训练材料不可能穷尽一个语言的所有用法,而基于统计相似性的解决方案并不可靠,其答案的可信性就不可能仅靠更多的训练来彻底解决。对于那些超出当前人类共识的问题,它就更是力所不逮了,因为这种技术对知识的有效拓展办法甚少,尽管它常常可以出色地总结和表达现有的人类知识。但既然这种模型的目标是 “再现一般人类的平均行为” ,所以对一个问题而言,即使其训练材料中确有真知灼见,也完全可能被陈词滥调所淹没。同理,所谓 “AI的偏见” 往往都是社会的偏见,不能怪在ChatGPT 的头上。另外要注意的是,所有所谓 “ChatGPT认为” 实际上都是 “人们认为”,而ChatGPT是没有 “个人观点” 可言的。很多网友热衷于询问ChatGPT对各种价值评价问题的看法,然后将其回复理解为 “反映了人工智能系统的世界观和价值观”,这对于大语言模型来说完全是一种误读。
什么是通用人工智能(AGI)?
现在来看问题的另一端。
众所周知, “人工智能” 一直没有一个公认的定义,但这绝不意味着随便怎么说都行。我在参考文献[1]里对此有详细讨论,在参考文献[2]中也有简略介绍,其主要结论是说 “人工智能” (AI)是对 “人类智能” 某一个方面(但不可能是所有方面)的再现。对于不同的研究者而言,这个方面会是下列选项之一:
结构,即AI应该基于一个人脑模型,从而实现 “类脑智能” ;
行为,即AI应该在外部表现上,尤其在言语行为上,做到与人一致;
能力,即AI应该能解决以前只有人类才能解决的实际问题;
功能,即AI应该具备人的各种认知功能,如学习、推理、感知、运动、通信等;
原则,即AI应该遵循体现在人类思维当中的理性原则。
我的结论是上述五个研发目标均有其理论和应用价值,但彼此并不相同,也不能相互包括,尽管因为历史原因常常都被称为 “人工智能”。
那么,“通用” 又是怎么加上去的呢?
在开始时,人工智能研究是以研发与人类智能具有一般可比性的计算机系统为目标的,这在图灵的文章(参考文献[3])和其它早期AI文献中几乎是不言而喻的,因此不必特别申明。但后来构建通用系统的努力屡屡受挫,导致大部分AI研究者转向专用的工具和问题解决方案,而视对通用智能系统的研究为死路,并将其斥之为 “白日梦” 甚至 “伪科学”。大约二十年前,一些对这个潮流持不同意见的AI研究者(包括我自己)开始 “抱团取暖”,并在需要一个新的 “旗号” 时选择了【【微信】】elligence(AGI)。当时的一个主要考虑是 “g-factor” (“通用因素”)以及相应的 “general intelligence” (“通用智能”)在心理学关于 “智商” 的研究中已经是广为人知的概念,加上 “人工” 以后可以自然地引入到AI 中来。与其相比,其它的候选方案,如 “Real AI”(“真正的人工智能”)、“Strong AI”(“强人工智能”)、“Human-level AI”(“人类水平人工智能”)等等,都有比较大的缺陷。在我们确定了这个名称之后,于2007年出版了第一本AGI文集(参考文献[4]),并在随后的几年里开始了AGI年会和学报,从而标志着这个与主流AI分道扬镳的研究社群的建立。当这个概念被译为中文时,“通用人工智能” 显然比 “人工通用智能” 更符合中文的构词习惯和直观理解,而 “General Artificial Intelligence” 在英文里往往会被理解成 “人工智能概论/综述”,所以从没有被我们作为一个选项。在这里,中、英文的词序差异完全是语言差别而造成的,并非某些人所说的误译。
随着深度学习的兴起,几家大公司开始用 “迈向AGI的重要一步” 来称呼他们的技术进展。由于他们的巨大影响力,AGI这个概念在公众的印象中和深度学习建立了密切关系。比如有些人以为既然深度学习可以用于很多领域解决不同的问题,这就已经是AGI了。这里的误解是混淆了 “通用技术” 和 “通用系统”。深度学习的确可以算是个通用技术,但用这个技术开发出来的计算机系统常常只能做一件事(下围棋、图片分类、语言翻译等等),因此都是专用系统。而通用系统是不能只会做一件事的,无论这件事做的有多好。
那么问题来了:“通用” 除了作为 “专用” 的反面之外,还有其它的含义吗?在目前的讨论和研究中,对 “通用人工智能系统” 的理解主要有下面几种:
能解决所有问题,
能解决所有人能解决的问题,
能解决所有能被某个模型
(例如图灵机)
所描述的问题,
能接受所有在系统感知范围内的问题并尝试解决它们
(虽然不保证一定成功)
。
在上述4种 “通用系统” 中,我不知道有任何AGI研究者是以第1种为目标的,而且我们多次明确地拒绝了这种肤浅的解读[5, 6]。实际上,在科学技术领域,提到 “通用”,一定是相对的、有条件或范围的,例如 “通用图灵机”、“通用计算机”、(心理学中的)“通用智能” 等等。
除去作为 “反面典型” 的1之外,上述2,3,4都可以算作是对 “通用系统” 的合理解读(至于能否实现则是另一个问题了)。这三种 “通用” 和前面五种 “人工智能” 有十五种可能的组合,尽管不是每种都有人在做研究,但起码说明了目前对 “通用人工智能” (AGI)理解的多样性。对于这样复杂的问题,早期的理解多样性是正常的,而这种分歧的解决只能通过长期研究的结果比较,而不是看谁的地位高或嗓门大。
ChatGPT和AGI是什么关系?
有了前面的准备,我们可以讨论这个本文中心问题了。根据前面的分类可知,虽然ChatGPT的所指相对明确,AGI可远非如此。只有对 “通用” 取前面的解释2,而对 “人工智能” 取前面的解释2时,ChatGPT 才和这种AGI(“像人那样解决人能解决的所有问题”)直接相关。对于其它理解,ChatGPT或者基本无关,或者只有轻微贡献。
以我自己的研究项目纳思(NARS, Non-Axiomatic Reasoning System)[7]为例,由于这个系统试图利用现有知识和资源合理地解决所有可感知和表达的问题,因此作为AGI对应于对 “通用” 取前面的解释4,而对 “人工智能”取前面的理解5。为了实现这个目标,纳思可能用像ChatGPT这样的大语言模型作为知识源和语言界面之一,但不会完全相信其结论,更不会靠它完成系统的核心推理和学习功能。由于本文的目的不是介绍我自己的工作,对纳思有兴趣的读者可以通过其它材料对其进行了解。
我对ChatGPT的看法可以代表一些其他AGI研究者。如前面介绍的,目前实际上存在两个分离的 “AGI研究社区”,一个以大公司为代表,大致上是基于深度学习技术的,而另一个(前面介绍的)则是仍在探索很多其它非主流途径。后者形成于深度学习出现之前,而且至今没有把深度学习做为核心技术。这其中的原因远非本文可以覆盖,我这里只是希望各位读者知道,并非所有AGI研究者都认为深度学习(包括ChatGPT和其它人工神经元网络)是实现AGI的最佳途径,而且大概不能简单地说这些人都是出于固执或嫉妒,更不是出于无知,因为早在深度学习一炮而红的2012年的两三年前,在AGI会议上已经有关于深度学习的介绍与讨论了,只是大部分与会者认为这个技术远不足以解决AGI的核心问题。与此相反,很多深度学习的研究者只知道其它AGI方案尚未做出轰动性成果,而极少花时间了解其具体内容。
行为标准的成败
现在一定有读者要问,既然ChatGPT所代表的路线并非实现AGI的唯一可能,为什么只有它取得了当下这种现象级的成功?这就要说起在智能观上的 “行为标准”(即以 “行为上像人” 为目标)的特征了。我在参考文献[8]中讨论过 “图灵测试” 和 “伊莉莎效应”,并写道 “至今以通过图灵测试为目标的工作仍只占人工智能领域中很小的一部分。” 在七年以后,这句话显然不再符合当前的情况,但我仍认同那篇文章中的其它观点,而这里只补充一些更接近现状的思考。
在前面列出的五类对人工智能的理解中,“行为” 和 “能力” 是最直观的,因此最容易被公众所接受。比如说,围棋程序AlphaGo就是 “能力” 派的代表之一,因为很多人会想,它连世界冠军都战胜了,还不够智能?而与此相比,一个AI系统是否在结构、功能和原则上像人,则即使是连专家们也不容易取得共同意见了。但这些直观的方案仍有各自的 “软肋”。就 “行为” 而言,一个明显的问题就是 “人类中心主义”。如我在参考文献[8]中指出的,“说话像人” 固然可以做为 “有智能” 的充分条件,但肯定不是必要条件(图灵在参考文献[3]看到了这一点,但没有展开讨论),否则根据这个定义,全宇宙除了人类就不可能有其它智能系统了。此外,说话是否的确 “像人” 也不是可以简单断定的。比如说有不少人开始被ChatGPT的本事所震惊,但聊了一阵子就觉得 “技止此耳” 了。
在对聊天程序进行评价时,“伊莉莎效应” (“ELIZA effect”)是不能忽视的。伊莉莎是人工智能早期(上世纪六十年代)的一个著名的聊天程序。它之所以有名,不是因为在技术上有多么先进(伊莉莎靠预制模板和固定套路进行对话),而是因为其欺骗性,即很多人误以为这个程序有智能。从此以后,“伊莉莎效应” 就指人们为计算机的行为所迷惑,而认为其已经具有了某些它其实没有的能力。对ChatGPT某评论中所说的 “能表现得理解,就是理解” 正是这种效应的一个典型形式,而类似的判断还包括说ChatGPT “有情感”、 “能进行逻辑推理”,甚至 “有一定程度的自我意识“。
从认知科学的角度来看,伊莉莎效应不难理解。当我们观察到一个新奇的现象时,总是试图用我们最熟悉的概念去解释和理解它,这和心理学家皮亚杰(Jean Piaget, 1896.8.9-1980.9.16)提出的 “同化” (assimilation)现象和逻辑学家皮尔士(Charles Sanders Peirce,1839.9.10-1914.4.19)提出的 “归因” (abduction)推理都有关系。一个典型的例子就是不少人在初次见到收音机时,会认为那个匣子里藏了个小人,因为这个解释比所谓 “无线电” 等天书般的解释好懂多了。由于人工智能的新功能往往是以前只有人类智能才能完成的,不了解内情的观察者难免会按人类行为来解释其工作原理和过程。伊莉莎效应在大语言模型中尤为显著,因为我们对他人是否具有各种认知功能(理解、推理、情感、意识等等)的判断常常是通过和这个人的对话完成的,因此如果一个系统能够很好地复现人类的对话能力,就会一揽子 “表现” 出很多其它认知功能,尽管它并不真的拥有这些功能。
一定有读者会问 “你怎么知道它没有那些功能?”,但完整回答这个问题需要对上述认知功能的详细讨论,而那是远超本文所能做的。因此,我这里只简单分析 “ChatGPT能进行逻辑推理” 这个结论。ChatGPT的确在很多例子中表现出良好的逻辑推理能力,但在另一些例子中却明显地逻辑混乱,而二者的基本差别往往是训练数据的差异,即ChatGPT关于前一种例子有大量训练数据,但对后一种例子缺乏了解。根据公认的定义,逻辑推理是基于知识的结构或者说模式的,而与其内容无关。比如说从 “A是B” 和 “B是C” 中可以推出“A是C”,而这和A,B,C各自代表什么具体概念无关,更不用说系统关于它们各有多少数据了。因此,ChatGPT在 “推理” 中表现出的话题相关性就暴露了它并不真能进行逻辑推理,而只是通过模仿人类言语行为,往往会正确描述某些推理过程。这种分析同样适用于其它认知功能。我们甚至可以说 ChatGPT “不解决问题,但总结人们对问题的解决”。这在某种意义下的确可以说成是解决问题的一个 “通用” 方法,和 “不解决问题,但解决提出问题的人” 有异曲同工之妙。
我的结论
我认为大语言模型的确有重大理论和应用价值,但和智能模型基本是两码事,因为二者的研究目标就不一样,而这又导致了许多其它差异。智能是不能仅仅通过对人类语言行为的模仿来实现的,而像PaLM-E和GPT-4那样将感知运动行为加进来也不足以解决核心问题。即使只谈对语言的处理,语言模型是把语言本身当作模拟对象,而智能模型则是把语言当作通信工具和知识来源。具体说来,大语言模型的首要目标是像一般人那样说话,而智能系统在使用语言时的首要目标是根据系统自身需要完成当前的通信任务,在这个前提之下才会考虑符合常人的语言使用习惯。由此造成的差别就是智能系统未必会用大多数人所选择的方式来完成一个句子,而是要表达自己的特定观点,即使这个观点尚未被别人表达过也是这样。我这篇文章所表达的观点显然和当前对ChatGPT的普遍评论不符,但有兴趣的读者不妨用本文的标题询问ChatGPT 或其它大语言模型,然后将其回复和本文比较一下,看看哪个更有资格被看成是由智能系统所生成的。
参考文献
[1] “On Defining Artificial Intelligence”, Pei Wang, Journal of 【【微信】】elligence, 10(2):1-37, 2019
[2] ,王培,《赛先生》 2015-08-06
[3] “Computing Machinery and Intelligence”, Alan Turing, Mind 49: 433-460, 1950
[4] 【【微信】】elligence, Goertzel, B. and Pennachin, C. (eds.), Springer, New York, 2007
[5] “Introduction: Aspects of artificial general intelligence”, Wang, P. and Goertzel, B., in Advance of 【【微信】】elligence, pp. 1C16, Goertzel, B. and Wang, P. (eds.), IOS Press, Amsterdam, 2007
[6] 计算机不是只会 “计算”,图灵机也不是一台“机器”, 王培, 《返朴》 2020-06-02
[7] Non-Axiomatic Reasoning System: Exploring the Essence of Intelligence, Pei Wang, Ph. D. Dissertation, Indiana Uni【【微信】】, 1995
[8] 王培,《赛先生》 2016-05-23
注:上述8篇文章,除有链接的外,其余皆可在作者主页 https://cis.temple.edu/~pwang/papers.html(点击左下角“阅读原文”可直达) 下载
本文受科普中国・星空计划项目扶持
出品:中国科协科普部
监制:中国科学技术出版社有限公司、北京中科星河文化传媒有限公司
版权说明:欢迎个人转发,任何形式的媒体或机构未经授权,不得转载和摘编。转载授权请在「返朴」微信公众号内联系后台。
原标题:《深度剖析:ChatGPT 及其继任者会成为通用人工智能吗?| AI那厮》
阅读原文
edge浏览器的chatgpt插件怎么用 chatgpt可以代替哪些软件
Edge浏览器的IE兼容模式,Edge浏览器的工具选项在哪里,Edge浏览器的默认主页网址,EDGE浏览器的IndexedDB送走最后一车货,最后三个工人,老王吃力的关上大铁门。左手从口袋摸出一盒烟,轻轻一颠,滑落一根,右手娴熟的夹住。掏出打火机,点燃,一丝青烟腾起,萦绕在指头。
夕阳穿过玻璃,照射在伤痕累累的旧机器上,空旷而寂静。面对空无一人的厂房,老王想起父亲带他来厂房的那个清晨:阳光明媚,厂房异常热闹,忙忙碌碌的嘈杂声格外喜庆。
转眼几十年过去了,厂子从织布到纺丝,从生产手套到加工衣服,终究还是走到了关闭的地步。他听说这是低端制造,利润少、污染大。老王不懂这些,但是他心里清楚东西不好卖了,工人也不好招。自己也老了,不愿折腾了,索性关门养老去吧。
老王是不幸的,也是幸运的,时代抛弃了老王,但是留给他一个温暖的归宿。然而,大多数人被时代抛弃时连声招呼都没有。
初见ChatGpt
大清早,我的朋友小叨激动的告诉我,又一个划时代的技术出现了,一个新时代即将来临了。比尔・盖茨、马斯克看了都说牛,你快看看,接着就是一堆链接。浏览一会后,有点明白什么是ChatGpt,直觉这是一个深度神经网络性质的进步。
OpenAI官网对ChatGpt有个描述:”optimizing Language Models for Dialogue”,简单说这是一个持续优化的用于对话的语言模型。
说到语言模型,大家应该会想到NLP(自然语言处理),ChatGpt核心就是一个自然语言处理模型。特殊之处在于:
规模大,拥有1750亿个参数,语言理解能力强;
同时,附加了互联网资源(海量信息库),增加了新特性(文本生产能力),能够以顺滑自然的方式于人类互动聊天。
从当前的信息看,ChatGpt可以编写论文、撰写求职信、编写儿童读物、聊天、写代码等等。根据ChatGpt所展现的能力,给予其时间,加以优化和升级,可以预测ChatGpt未来10年将逐步替代很多职业。
2013年,牛津大学的一项研究表明,未来20年,美国47%的工作岗位可能会被人工智能取代,今年已经是2023年了,未来十年内还会有岗位被持续取代。
容易被ChatGpt代替的岗位
那么,什么样的工作容易被人工智能或ChatGpt替代?一般认为以下三类工作容易被替代。
第一类
运营小编、律师助理、媒体人、法律咨询师、市场分析师、家庭教师等这类注重信息收集、分析、加工的职业。
人工智能在海量信息存储、处理和分析上有着天然优势。
第二类
会计、财务顾问、交易员等这类处理大量数据的工作。
人工智能在数据处理上具有更高的效率。
第三类
公司客服、心里咨询师、电话推销员等这类语言交互工作。
人工智能没有感情,不会疲劳,更适合这类固定场景对话,事实上,当前智能客服已经在市场上被大量使用。
创造新机遇
面对如此严峻的现实,网友不禁要问了,我们的“饭碗”还保得住吗?答案显而易见:保的住,也保不住。
这不取决于你的工作岗位是什么,而取决于你的工作内容是什么。
尽管ChatGpt火爆全网,震惊世人,被誉为“划时代技术、人类科技又一个奇点”。谷歌、微软、苹果、百度、阿里、京东等互联网大厂也纷纷布局自己的AI项目,规划自己的“ChatGpt”蓝图,阵仗之大,气势恢宏。
但是,ChatGpt本质上仍然是一个工具,而不是一个类人智慧体。这种本质的区别决定工具本身不会自发创造价值,只有被人使用后才能创造价值,这点很重要。
举个例子:对于小麦收割而言,全自动大型收割机就是一个划时代的高级小麦收割工具。一套全自动大型收割机可以轻松完成几十人、上百人的收割工作,毫无疑问,它减少了人工收割的需求,但是它并没有消灭小麦收割这份工作。
第一,它创造了新的岗位。一套全自动收割机仍然需要很多人参与才能工作,如:驾驶员、维修人员、生产工人等。
第二,它无法满足所有场景的收割任务。受限于地形,丘陵、梯田等这类特殊地形的小麦收割任务,仍然需要人工收割。
ChatGpt的局限
ChatGpt就是一个人工智能领域的“全自动大型收割机”,它能替代一部人人的工作,也会创造出新的岗位。
ChatGpt展示出了较高的对话天赋,能根据人的对话不断学习、优化自己,具有不断“进化”能力,这点较于之前的对话模型有长足的进步。随着越来越多的人和它对话,帮助它学习进步,在肉眼可见的未来,人工智能客服会进一步普及。
但是,和当前所有的智能客服一样,它依旧无法处理更复杂的问题对话。我们还是需要人来处理一些特殊的、复杂的场景,比如贵宾客户、特殊事故等。
因为现阶段的人工智能于人类大脑相比,智慧程度依旧相距甚远。面对开放的、充满不确定性的现实世界,人工智能宛如“人工智障”。
就拿ChatGpt最擅长的聊天功能来说吧,对于语意的理解上仍然有巨大的缺陷。如:“老王的媳妇人不错,我该不该出手,是要出什么手?”“生死由命富贵在天,是要干还是要放弃?”“你应该替他着想,是尊重他,给他自由,还是关注他,及时劝阻他?”等等。这些话在不同的场景,由不同人说出来,所表达的意思会截然相反。
正如一千个读者就有一千个哈姆雷特一样。不同的经历、心境、价值观、身份和文化等,都影响着我们对同一个信息具体意思的理解,这是一个ChatGpt所不能够应对、处理和理解的。
在天然丢失掉语境、语气、语速、语调这类对语意表达至关重要的信息后,ChatGpt要想正确理解所有语意将毫无可能。get不到这些,ChatGpt就无法聊更有思想深度的话题,就宛如一个不谙世事的小孩,可以聊天,但是不会深入聊天,也注定ChatGpt这个现象级的事物会慢慢淡出大部分人的视野。
要解决这个问题,我们需要千千万万个“ChatGpt”,和我们共同生活、经历、学习、成长,形成和我们相似的价值体系。然而,这些以当前计算机算力是无法满足和实现的。只有量子计算这类带来算力飞跃提升的技术实现后,我们才具备人工智能小型化、大规模普及的前提,而这个前提乐观估计还需要二十年甚至更多。
把握工具
工具的使用门槛会阻碍工具的普及,越高级的工具驾驭门槛越高。这个门槛可以是学习成本、操作复杂度、自控能力、信息表达能力等。
比如:
Excle有很强大的功能,但是很多同事依旧只会使用基础的数据存储;
搜索引擎功能强大,但是很多人都不知道如何使用搜索引擎能理解的方式表达自己的问题,所以通常搜到的东西驴唇不对马嘴,在浏览一堆无效信息后,大骂一句:FUCK后关闭了网页。
网络课程方便高效,想学什么学什么,想听那段听那段。知识就是财富,面对互联网海量的财富,有些人勤奋、刻苦,修炼成技术大牛,有些人熬夜、刷剧,养成了200斤的大胖子。我们有多少人是抱着学习的目的打开电脑,然后游戏、可乐、爆米花。
这些就是高级工具的使用门槛,越高级的工具对人的要求越高。很多人喜欢用初级的工具,因为它们简单易上手、对人的要求少:
给你根木棍,3岁以上的小孩就能驾驭;
给你一本书,你只有看或者不看的选择,不会面临其他诱惑;
给你一台电脑,可做的事情几何倍数的增加。
面对这些诱惑,如何心静如水持之以恒,决定了你是否能够驾驭高级工具。现实是,大多数人都不具备这种能力或者这种能力较弱。所以,我们普通人读书时,要去图书馆、要营造良好的学习氛围,要关闭手机,远离电脑。
这其实并不可耻,面对诱惑能心如止水本就是对圣人才有的要求,有时我们能拿起木棒,就已经比很多人优秀了。
复杂信息的鉴真能力,使得大多数人无法有效使用ChatGpt这类高级工具。ChatGpt有着让人耳目一新的信息收集和内容生成功能确,如完成一个报表,解决一道数学题,搜集某厂商最近五年的收入数据等。这些功能确实很好用,很诱人。但是,如果这些信息不保证正确,对你还有多少价值?
之前听到一个笑话:一个应聘者说他的特长就是计算速度特别快,面试官问他:49乘以39等于多少?应聘者想都没想回答:89!面试官白了他一眼说:你这也差太多了。应聘者说:你就说快不快吧?面试官说:快,但是没用。
如果不能保证信息正确,再便捷、强大的信息收集和加工能力都是鸡肋。ChatGpt也是如此,现在很多人已经发现ChatGpt的回答有时违背基本的常识。比如:有人问它:“出淤泥而不染,濯清莲而不妖”出自哪里,它说《红楼梦》。这也是当今人工智能的一大弱点,无法保证信息的准确性。
而我们要在工作中使用它,势必要对它返回的信息进行鉴真。而信息鉴真能力所需要的的分析思维能力,以及所消耗的脑力是大部分人所不具备、不愿去做的。
如何使用ChatGpt
尽快如此,能够拥抱新工具,我们才能走的更高、更远。俗话说站在巨人的肩膀上才能看到更高,面对新工具,与其处于被替代的恐惧中,不如了解并使用它、借助它,完成你所做的基础工作、低级任务,节约时间和精力用于更需要分析、思考的工作和任务上。
就拿ChatGpt、搜索引擎来说,我们在使用这些工具解决问题前,应优先搞清楚我们的问题到底是什么,将问题拆解成若干小的具体的任务。将其中的信息收集、问题案例等信息收集和初步加工工作交给这些工具完成。通过正向反向信息收集、同类信息类别、多渠道信息比对、原始信息溯源等方式交叉对得到的信息进行鉴真。
然后基于这些信息,通过自己的方法论加工处理,生成更高级的内容、成果。
就拿ChatGpt是否能替代我们这个问题来说:
我们首先要找到ChatGpt的原始出处,了解发布者对ChatGpt的介绍以及发布ChatGpt的初衷等信息。
然后,搜索ChatGpt的正面信息和负面(反向)信息,了解正向评价都是什么,负面评价又有那些。对比找出矛盾点,根据矛盾点搜索相关解释。
这样,我们就会全面的了解到ChatGpt是什么以及它能完成那些事情,存在那些问题。
了解到这些,我们就能轻易发现,ChatGpt以及它的衍生品后续会慢慢替代低质量的工作内容,如简单的信息收集整理,处理规则简单明确的工作。相关工作的人如果不提高自己的工作技能和质量,势必会被替代。
总结
时代在进步,技术在发展,桑海沧田的故事时刻都在发生。忽视这种变化,享受当下的安逸,就要坦然接受潜在的危机。放不下心中不甘,那就立刻行动,迈出脚步。文末,借用一个历史名场面形容下我们当下的处境吧。
卢比孔河的对岸是权利的盛宴,还是致命的陷阱,对于凯撒而言已经不重要。骰子已经掷下,唯有前行,方能始终。于历史不同的是,他有的选择,而我们普通人只会被时代裹挟着跨过卢比孔河。
最后感谢每一个认真阅读我文章的人,礼尚往来总是要有的,虽然不是什么很值钱的东西,如果你用得到的话可以直接拿走:
这些资料,对于【软件测试】的朋友来说应该是最全面最完整的备战仓库,这个仓库也陪伴上万个测试工程师们走过最艰难的路程,希望也能帮助到你!有需要的小伙伴可以点击下方小卡片领取