淘优惠

淘优惠

chatgpt真的无所不能么 chatgpt是人工智能吗

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt中文,chatgpt,chatgpt怎么下载,chatgpt是什么意思

  中国网2月8日讯(记者 吴佳潼)“ChatGPT让苹果急了”“美国89%的大学生都是用ChatGPT做作业”“ChatGPT有多靠谱”“ChatGPT上线2个月活跃用户破亿”……近日,聊天机器人程序ChatGPT 频登社交媒体热搜,引发各界广泛关注。

  2022年11月30日,美国人工智能公司OpenAI正式上线聊天机器人程序ChatGPT。这是一款人工智能(AI,Artificial Intelligence)技术驱动的自然语言处理工具,它通过学习和理解人类的语言进行对话,还能根据聊天的上下文进行互动,真正实现像人类一样来聊天交流。它能够完成的主要任务包括会话聊天、问题咨询、文本创作、邮件撰写等。同时,ChatGPT还具有一定的代码书写功能。

  有网友在与ChatGPT沟通了3天以后,把它概括为“聊天机器人+搜索工具+文本创造工具”,也有网友感叹“只有你想不到,没有ChatGPT办不成的”。如此强大的功能不免让人感到担忧,自己的职业是否会被ChatGPT取代。

  近日,有媒体记者与ChatGPT就“哪些职业将被取代”的问题进行对话,ChatGPT认为,容易被AI取代的工作包括数据输入和处理、电话客服、检查和编辑、预测分析,因为这些职业的工作内容大部分是重复性和机械性的。不容易被AI取代的职业则包括艺术、医学、律师和心理学,以及需要人类沟通和社交技能的职业,比如教师,社工,牧师和客户服务代表。

  有媒体报道称,美国一名学生用ChatGPT拿下全班最高分,惊呆了教授。网友就上述报道与ChatGPT进行对话,在连续两天就同一问题的交流中,ChatGPT给出了两种不同的回答,从“使用自动生成的文本来代替学生自己的作业是不道德的,学校应该采取措施来处理这种行为”到“这是一个争议性的行为。技术的进步可以使学生的学习更容易,提高学生的创造力和思维能力。但如果学生完全依靠 AI 写作工具来写论文,这对他们的发展产生不利影响。” 前后态度的不同,显现了ChatGPT并非死板的机器人,或许是互动过程中积累的聊天数据,导致了这种变化。

  文本创作是ChatGPT的主要任务之一,那么它可以代写报告吗?对此,ChatGPT回应,“抱歉,作为预先训练的 AI 模型,我不能代写完整报告,但可以提供一些建议和信息帮助你写报告。”随后,ChatGPT给出了报告书写的完整框架建议,包括框架中的章节分类、每个章节下应包含哪些具体内容,以及报告结尾的建议和总结等。由此可见,虽然没有给出完整版的报告文本,但列出的框架也可以给予人帮助。

  也有记者担忧自己的“饭碗”会被取代,并以新闻事件摘编、草拟新闻标题、真假消息分辨、根据关键信息草拟新闻稿等记者必备能力对ChatGPT进行了测试。测试显示,ChatGPT虽然有不错的理解能力,但它生成内容时需要非常精准的引导和指示,需要为它提供更多细节。

  就新闻工作者而言,ChatGPT现阶段展现出了许多辅助记者工作的可能性,至于会不会被“抢饭碗”,ChatGPT回应,“我可以生成相关的新闻报道和文章,但作为AI模型,我并不能独立地进行调查和报道,也不具有独立的思考和判断能力。新闻记者需要具有独特的观察力、判断力和沟通能力,以提供独特的见解和有价值的信息。因此,单靠AI技术是不够的,人类记者仍然是新闻报道的关键。”

  盘古智库高级研究员江瀚向媒体表示,现在社会各界最需要学会让人类与AI互相匹配、互相合作,普通人应想方设法提升知识技能水平,避免所从事的机械、重复、低质量劳动被AI取代。

  浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林也指出,目前,ChatGPT仍主要在程序员中流行。放眼未来,或可能成为生活助手。通过语义理解,ChatGPT能够在各个领域给予用户答案。

  (综合正观新闻、联合早报、北京商报、红星新闻、时代周报等消息)



chatgpt上线 chatgpt国内会引进吗

chatgpt,chatgpt怎么下载,chatgpt官网,chatgpt怎么用

本文来自微信公众号:信睿周报 (ID:TheThinker_CITIC),作者:黄剑波(华东师范大学社会发展学院),原文标题:《AI风险的事实、幻象与感知:一种人类学的文化研究进路 #“复调人类学”专栏12》,题图来自:视觉中国

AI(人工智能)带来的问题,以及对该问题的理解与回应,也是社会学或人类学学者所面临的。面对AI,我们一般有两种态度:

一种是乐观主义式、全面拥抱的态度:把AI看作一种技术革命,甚至把它视为一种对人类或者人性的解放,因为它将原来不可想象的事情变为可能,也超越了人类的纯粹理性思维能力。从这个意义上来讲,AI遵循了一种“人性+”(Humanity+)的路径。所谓“人性+”,即对某种人类能力或性质的增强,如基因编辑、人工器官、脑机接口等。

第二种态度则是否定的、悲观的、抵触的:AI的出现让人们感到恐慌,甚至引发了抵制,因为它们被看作人类社会的他者或者异类。对人性而言,这种态度不是一种“增加”,而是一种“消减”――即便不是人性的毁灭,也是一种缩减。

从上述两种态度我们可以清楚地看到,作为一种现代科技,AI在给人类带来便利、控制风险的同时,其本身似乎也携带着“不可控”的风险。因而,我们首先要回答的问题是:风险是否只是一个现代性的问题?其实,无论是社会学还是人类学,已经有了一些可供借鉴的研究或洞见。

在德国社会学家贝克(Ulrich Beck)看来,风险社会是理解现代社会的一个视角,其指向一种“自反性现代性”。因此他更加强调风险作为外在性客观实存的一面,希望以此探讨现代性问题。

风险社会,乌尔里希・贝克,译林出版社,2018

德国学者卢曼(Niklas Luhmann)的《风险社会学》及相关研究可能不那么受人关注,但他的视角也非常有意思,将“风险”与“危险”进行了区分。

风险社会学。尼克拉斯・卢曼广西人民出版社,2020

人类学家道格拉斯(Mary Douglas)则从另一角度讨论了风险问题,她提醒我们重视或强调主观性的感知,但这个问题有一个基本背景认定:风险不仅仅是一个现代性的问题。从这个意义上讲,它有点类似于法国人类学家、哲学家拉图尔(Bruno Latour)所说的“我们从未现代过”。

但是,为什么在现代社会中,人们越来越强烈地感知到风险无处不在,且其程度无以复加呢?在道格拉斯等人看来,这是因为现代人越来越孤零零地面对一个庞大的外在世界,个体的微小和世界的庞大形成了极大的反差。

我们从未现代过:对称性人类学论集,布鲁诺・拉图尔上海文艺出版社,2022

具体来讲,在以个体主义为基调的现代社会中,我们要理解风险问题,理解人们何以恐惧,何以认定某些事物具有风险,便需要超越个体主义,重提共同体或者群体性生活。

风险研究大致始于20世纪80年代并日益受到关注,但道格拉斯早在60年代便开启了有关风险的研究。在其名著《洁净与危险:对污染和禁忌观念的分析》中,她详细讨论了“洁净”与“不洁”的问题。洁净观不仅是现代卫生学的问题,它还反映了一种社会结构,而这也是人们思考的基本结构和方式,是宇宙观意义上的一种思考和行动过程。

道格拉斯在书中提到,对“不洁”的认识本身就源自一种对秩序和正当性的理解和认可。她举了一个例子:如果把鞋子放在地上,人们不会觉得它有多脏;但如果把鞋子放在餐桌上,人们便会觉得鞋子是不洁净的,因为它出现在了不当的位置。这与正当秩序或者所谓的“制度”(institution,它更多指的是一种广义上的、以人类为前提的思考方式,而不是某种具体的组织机构)是有关系的。

洁净与危险,玛丽・道格拉斯商务印书馆,2020

80年代,道格拉斯出版了另一部著作《制度如何思考》。这本书总结了她的“制度观”,论证了制度如何赋予概念合法性和正当性,进而影响人们做出关乎生死的判断和决定。我们可以清楚地看到,道格拉斯其实是在批判现代人个体自主的幻象:当你做出自由的选择或决定时,你以为自己是自由的,但事实并非如此。她提醒我们,制度对个体有约束作用,不仅影响人们的分类与认知,还可左右社会记忆。

道格拉斯在其20世纪八九十年代的风险文化研究中进一步指出,风险感知不仅是个人性的,更是社会性和群体性的,并在某种意义上是类别性的(categorical)。这就是为什么一个群体会认为某些东西具有风险,另一些东西则是安全的;某些群体对某些风险尤为敏感,而在另一些群体看来并非如此。

在这个意义上,现代社会里的风险或许在数量上更多,在表达上更新,但绝不意味着这就是技术发展或者新技术本身的问题。从根本上来说,这其实是人自身的问题,是人的贪婪、傲慢和黑暗所致。那么,风险需要被清除,甚至根除吗?其实“不洁”才是我们每天面对的现实,而“洁净”只是一个理想状态。正因为我们面对的是一个“不洁”的世界,所以才需要每天不断地打扫、清洁和整理。

风险的接受,玛丽・道格拉斯华东师范大学出版社・薄荷实验,2022

结合贝克和道格拉斯的研究,我们会发现,他们的观点并不相互抵触,而是从不同角度揭示了风险的可能意义。风险当然具有客观性,然而风险感知同样值得我们思考和处理。通过道格拉斯式的分析进路,我们可以看到,风险不仅仅是现代性问题,更是一个人类或人性问题,涉及人对世界以及自己的生活方式的基本认知和理解,至少是对更好的生活或秩序的向往或努力。

风险感知则指向一种可欲的群体生活,而非丛林式的野蛮竞争;它是不断调适、朝向更善的过程,而不是一种自以为是、一劳永逸的简单方案。人类对风险主观性的承认并非风险管理或当下所谈的风险治理,承认风险的主观性可以帮助我们深化对技术可能产生的风险的认知,有了更好的认知,就可能有更好的解决方案。

更进一步说,一定的风险意识是人类自我保护的方式。比如,人们要规避较危险的事物,这也是现在很多科技从业者、公司、政府努力在做的事情。在我看来,我们对风险的直面与处理“永远在路上”,因为并不存在一劳永逸的简单方案可以避免全部风险,更不存在一种可以完全根除全部风险的检测方案或解决方案。如果我们有一个方案,只可能是一个更好或者更加可靠的方案,而不是一个彻底的解决方案。

因此,总体来看,AI以及相应新技术的发展绝非洪水猛兽,我们不应对其心存畏惧,以致全面拒绝。但同时需明了,它也绝非解决人类问题的根本方案,我们不能对其持一种简单的、无须鉴别的拥抱或期待。

ChatGPT的走红,掀起了新一轮对AI风险的讨论。图片来自ChatGPT官网

回到AI问题。第一,我们其实很难对AI所代表的新技术、新场景带来的风险进行具体量化。也许可以做一系列对比,但在我看来,更重要的问题也许不是量的大小,而是类别的不同,或者说表达的不同。技术的力量越大,其被操纵后带来的破坏力也越大。在所谓的冷兵器时代,一人最多可能杀伤几个人;可进入新的武器时代之后,一个人也可能引发巨大的伤害或极重的灾难。

第二,系统看起来越稳定、越强大,其崩塌以后的后果越严重,因为整个社会的正常运转都要依靠它。我今天所谈的可能是一个常识性的问题,是一种对人和人性的警醒。在人工智能时代,万物似乎皆可计算。风险在很大程度上也是可以计算的,但它也具有不可计算性。因为计算它显然不仅关乎概率,还要回到社会维度,甚至人类认知或人性维度。

目前基本上有两种计算路径:一种是以奈特(Frank Hyneman Knight)为代表的理性经济的思路。此种经济学式的“成本―收益”的计算方式往往被视为一种客观工具,用于衡量干扰行为主观价值的因素。此种思路好比将数字输入一个计算器中,按动按钮,就能得出风险发生的概率。

另一种是心理学的思路,即将风险评估与个体认知相联系,通过风险偏好来探究人群忽视高概率风险的原因。支撑此类评估的基础往往被归结为心理学家所总结的普遍心理法则或人格特质,以及人类思维固有的非理性障碍。

这两种思路都是有张力的,所以我们才把它们放在一起讨论。在我看来,风险的概率当然是可以计算的,但我也要再次强调,风险在很大程度上也具有不可计算性。在有些话题上,它不是一个简单的计算问题或数学问题,也不是简单的理性问题。

首先,计算者是一个理性的人,我们所做的举动都应该是理性的,但事实上,我们会发现很多时候我们其实并不理性。其次,现在有很多理论假定我们不光是理性的人,还是个体的人,也就是说我们似乎是在独立做决定,似乎每一个人都有自觉权、自主权。

这是对现代人特别有意思的一个看法,也是为什么我会在题目中提到“幻象”,即人以为自己是一个现代意义上的理性人,是一个自主的人,但大量决定的第一步既不是纯理性的,也不是个人性的――看起来是个人在做决定,但实际上广义的制度已经帮你做了决定,这一点道格拉斯已经清楚地告诉了我们。

我们需看到,在数据的抓取过程中,人类面临很多挑战。数据抓取不光是数据是否可信的问题,从根本上来说,数据其实把人从具体的环境、场景,特别是社会环境中剥离出来。换句话说,我们进行数据抓取时,是在抓取非常具体、细化的数据,比如某人几点在干什么。

此外,即便我们的技术手段可以对这些孤零零的个人数据做一些努力,试图把它还原成整体的人及其生活场景,但我们今天仍然没有完全解决这个问题,这些被处理的数据实际上仍是个体的和抽离的。从前端的数据输入到分析,再到最后输出结果,我们会发现,最后输出的“羊”并不等于最开始输入的“羊”,二者仍然有距离。从这个意义上来讲,道格拉斯的研究让我们重提关于风险的感知,特别是对现代社会个体主义、个人主义假设的反思。

我们需要重提群体生活,重提人的社会性、群体性。我们在抓取这些数据的时候,其实还是要回归其社会环境。因此,无论是在数据专业训练还是实践中,数据公司应当有意识地纳入更多社会科学、人文科学背景的学生或学者。而数据科学以及AI行业的专家和实业者也应当思考如何将数据开发、建模和理解人类知识更好地结合起来。

人类知识虽然有在更新,但在很大程度上,有的只是换了一个术语或概念而已。从这个意义来说,日光之下并没有那么多的新事,所谓的根本性的人类知识可能一直都在那里。

AI的另一个关键问题是法律问题,即谁应该负责任,这其实就是权利与责任如何适配的问题。换句话说,人工智能也好,任何新技术也好,谁掌握了资源,谁就是拥有最大能力的掌握者,就应该承担相应的责任。

近年,我们看到AI在某些单一领域取得了巨大突破,这不仅是所谓的机器战胜人,在某种意义上更意味着机器取代了人。进一步来说,这其实是在鼓励或期待达到一种少犯错甚至不犯错的可能。

在AI领域我们可以进行这样的努力,但回到人的范畴,问题就变得比较麻烦:如果人在设计上就已经没有犯错的可能,那他/她还是不是一般意义上的人或者完整意义上的人?如果人不被允许犯错,那么可否说他/她已经经过了某种进化?

如此一来,AI本身的情感维度可能是一个难点。无论是AI的方式,还是任何的增强,它是否已经变成了一种所谓的“人性+”?或者从某种意义上来说,它退化为“人性-”了,因为它具有某种机器性?无论是哪种情况,对我们来说都是问题和挑战。

这便需要我们从科技的问题回到人类社会的问题。很现实的一点是,我们该如何去理解这些不完美、不够强壮的人?假定人处于一种完美的状态,有竞争能力,可以参与各种创造性的工作,但问题在于,历史上、现在和将来存在的人都是具有各种缺陷的。比如现在越来越常见的失忆症患者,他们失忆到一定程度,不光无法认知世界,甚至连自己是谁都不知道,这还是我们所说的人或者完整意义上的人吗?更极端的例子是植物人。

如果把人设想成一个完美的、不可以犯错的个体,就会带来一个问题:我们怎么理解甚至处置这些人?当然,这已经超出了技术的范畴。当我们思考这些问题时会发现,它的难度或者维度远比当下的现代问题或者技术问题更加复杂,更加值得我们去探索。

因而,对于AI,我们总体上是乐观的,但只是谨慎的乐观,是怀疑式的拥抱。在此基础上,我始终觉得我们需要对人进行限约,对可能的恶保持警惕,同时对人的能力、创造性以及可能达到的善保持期待。

如果把目标设定为绝对的、根本性的,即要寻找一个所谓可信、可靠、可解释的方案,我会对此持一定的怀疑,因为这可能永远无法达到,甚至在某种意义上走错了方向。但是,如果把目标设定为更加可信、更加可靠、更加可解释的方案,那么其实我们已经开始,并已取得诸多成就。至于具体还要多久?尚在路上。

除此之外,我们还需记得,掌握、开发或使用新技术的人有了更大的能力,但能力越大,责任就越大。德与位应当一致,个人如此,群体和机构也如此。希望无论是技术发展还是社会发展,都能朝向一个更好的、大家都愿意的方向。

参考资料

乌尔里希・贝克. 风险社会: 新的现代性之路[M]. 南京: 译林出版社, 2004.

尼克拉斯・卢曼. 风险社会学[M]. 南宁: 广西人民出版社, 2020.

玛丽・道格拉斯. 洁净与危险: 对污染和禁忌观念的分析[M]. 北京: 商务印书馆,2020.

玛丽・道格拉斯. 制度如何思考[M]. 北京: 经济管理出版社, 2013.

玛丽・道格拉斯. 风险的接受: 社会科学的视角[M]. 上海: 华东师范大学出版社,2022.

DOUGLAS M, WILDAVSKY A. Risk and Culture[M]. Oakland: University of CaliforniaPress, 1982.

DOUGLAS M. Risk and Blame: Essays in Cultural Theory[M]. London, New York:Routledge, 1996.

DOUGLAS M. Risk and Acceptability[M]. London; New York: Routledge, 2003.

本文来自微信公众号:信睿周报 (ID:TheThinker_CITIC),原载于《信睿周报》第89期,作者:黄剑波(华东师范大学社会发展学院)



chatgpt不能用了吗 chatgpt最强大的功能是什么

chatgpt,chatgpt是什么意思,chatgpt官网,chatgpt国内能用吗

来源:卫夕指北

  从0到100万用户,Netflix用了3.5 年,Twitter用了24 个月,Facebook用了10个月,Dropbox用了7个月,Spotify用了5个月,Instagram用了2.5个月。

  而ChatGPT,只用了5 天。

  没错,在ChatGPT诞生的头一周,科技界对它的讨论达到了高潮,其CEO也很快宣布ChatGPT的用户超过了100万,其引发的讨论狂潮让沉闷的科技行业再次变得兴奋。

  然而,短短两周之后,业界对于ChatGPT的讨论明显就下降了,当初泛起的惊涛骇浪已逐渐归于平静。

  我观察了一圈那些当初极其热烈讨论ChatGPT的意见领袖和媒体,现在几乎鲜有讨论了。

  我这么说是有数据支撑的,百度指数、微信指数、谷歌趋势三个指数热度断崖式下降证明了这一点:

  百度指数

  微信指数

  谷歌趋势

  同时,这几天几乎看不到ChatGPT网站反应卡顿,也证明了其流量或许已归于平常。

  如何解释这个现象?

  是因为ChatGPT还不够革命吗?是因为它对大陆用户不够友好吗?是因为ChatGPT其实没有什么用吗?

  今天卫夕就和大家一起认真来聊一下这件事――

  一、霍桑效应的一种解释:人们总是对短期的变化充满热情

  首先,我想说:一个新的事物出现,人们在短期内对其热情高涨,但热情过后又归于平静是再正常不过的事。

  我们从1930年代的一次工厂管理实验开始说起――

  1924年至1927年,在伊利诺伊州西塞罗的西电的霍桑工厂,管理层为了提高制造继电器的工人的工作效率,决定对工人的光照条件进行改变。

  结果发现,无论是灯光变的更暗还是变得更亮,工人们的工作效率在短期内都提高了,甚至仅仅是清除地板障碍物或者是重新安置工作站这类改变,都可以在短期内提高生产率。

  这种因为不同改变导致短期生产力提升的现象后来被称之为“霍桑效应”(Hawthorne effect)

  对于霍桑效应,其中一种解释是:人们会因为改变带来的新鲜感产生了激励效应。

  没错,人们总是喜欢新的东西,改变总会带来兴奋感,但这种兴奋感无法持续。

  对于ChatGPT也是一样,ChatGPT改变了什么?

  它改变了公众被小爱、小冰、小度这类号称人工智能但事实上基本属于人工智障产品的所建立起来的对人工智能的刻板印象。

  这个改变是巨大的,是跨越式的,是远超预期的,它不是渐进式的改进,而是跳跃式的进步。

  当一件事远超自己的预期时,人的多巴胺就会快速分泌,直观的表现就是“我去,我X,太牛逼了!”

  但请注意:多巴胺这种神经递质的分泌并不能一直持续,它只在改变和外界的刺激中产生,稳定状态它就不再活跃。

  当一个人第一次使用ChatGPT时,那种颠覆的感觉是巨大的刺激,这种刺激来源于现实对预期的巨大超越。

  然而大脑很快就会习惯这种刺激和超越,因为改变不再发生,现实再次与预期一致,除非ChatGPT再一次跨越式进步。

  心理学上的“新奇效应”(Novelty effect)其实也是在解释人类这种喜新厌旧的现象。

  因此,对ChatGPT讨论的下滑是极其正常的现象,它只不过是人类这个物种天生对新事物更感兴趣的一种直观体现。

  接下来我们需要讨论的是ChatGPT本身和它实际的价值。

  二、回到现实:ChatGPT的实用价值目前没有你想象的大

  我曾经写过一篇名为《为什么炫酷的产品并没有流行起来的?》的长文,其中有两个观点解释了为什么不少新奇产品最终并没有流行:

  1.感知炫酷和用户价值并不能划等号。

  2.一个产品的流行程度取决于产品目标人群的规模和使用频次。

  事实上,这些天观察下来,目前阶段ChatGPT存在两个问题――第一,是实际的用户价值还比较有限;第二,存在隐形的使用门槛。

  我相信过去这些天大家对于ChatGPT到底能干嘛已经有了非常多眼花缭乱的案例,据不完全统计――

  它至少可以写小说、写诗、写通知、写检讨、写代码、写周报、写商业计划书、写提纲、做调研、做测试......似乎是无所不能。

  然而现在我们现在来仔细审视一下,它的这些多样的功能中,到底有哪些能产生实际的价值?

  我今天在朋友圈做个了一个小调研――“过去两周,你有用ChatGPT完成或者帮助完成什么实际的工作吗?如果有,是什么?”

  我覆盖2.6万人的朋友圈总共仅收到了21条有效的回复,在具体如下――

  “写了一些标书中要用到的废话、写软件工程课的作业、润色日报、问C语言的基本函数用法、写SQL语句、口播洗稿”等等。

  这个极个人化的调研当然不太严谨,毕竟ChatGPT给大陆用户设置的门槛的确有些高,也存在别人用了但不愿意回复我的情况。

  但有一点可以确定:“没产生实际价值”的人远高于“解决实际问题”的人。

  这意味着大部分人其实想不起来再次使用它,至少在客观上,它目前还不太适合大部分普通人。

  至于产生这个问题的原因,其实并不是ChatGPT不够强大,而是使用ChatGPT本身是存在隐形门槛的,使用者必须学会确切地提出一个具体的好问题。

  很多人的实际使用体验是――简单地像调戏小爱同学一样调戏了几次ChatGPT,问了几个相对宽泛的问题,发现并没有想象中的智能,然后就丢到一边了。

  事实上,善用ChatGPT的人往往问的问题都非常具体,并且会一步一步不断追问,或者换不同的方式提问并得到最终想要的答案。

  这其实和搜索引擎很像,如果你越擅长使用搜索引擎,搜索引擎对你就越有用。

  这个隐形门槛阻止了更多普通用户从ChatGPT得到自己想得到的价值。

  换句话说,至少在这个阶段,ChatGPT对于普通人的实际作用比想象中要更小一些。

  对于更多的人来说,ChatGPT还只是一个玩具,唯一的作用是用来发朋友圈。

  作为一名作者,我自己尝试过让他辅助写作,但由于领域较为垂直,实际的效果非常不理想,我的直观感受是――

  它能提供一些不少最基础的文本,但这些文本过于普通没有真正的洞察,并不能用。

  对于一个科技作者而言,如果文章没有洞察,那是没有意义的,至于很多人用它扩写、缩写、校对、提炼要点,我由于风格原因,依然觉得这个作用聊胜于无。

  而更加致命的是,正如不少人提到的那样,ChatGPT目前还有一个非常明显的短板――经常会出现事实性的错误。

  这意味着它有些时候提供的不一定是正确答案。

  在部分的问题的答案中,它是一本正经的胡说八道。

  我问它巴菲特说过哪些著名的话?它回答一些明显不是巴菲特说的鸡汤。

  我问它小说《基地》的作者,它回答是乔治马丁。(这其实挺匪夷所思的)

  我问它深圳有哪些特产,它自信地回答,臭豆腐、白切鸡以及啤酒鸭。

  阮一峰老师问它在云南一个小城有哪些景点,它瞎编了一大堆并不存在的景点:

  正是由于这个原因,程序员问答网站 Stack Overflow从12月5日开始,就禁止用户分享ChatGPT生成的内容。

  那么,现阶段ChatGPT具体可以产生哪些实际用处呢?

  下面这个案例大家或许能得到属于自己的答案――

  我认识的一个山东菏泽专门做网赚的草根大哥,他对于ChatGPT的用法大家感受一下,他使用ChatGPT专门生成――

  “有一个不讲理的恶婆婆应该怎么办?”、“如何劝女朋友接受第一次?”、“老公出轨了,我该如何挽回?”、“如何追离异的女人?”、“如何劝大龄儿子结婚?”类似这样的问题。

  批量生成文本,然后用AI工具将文字变成语音,加一些影视片段发抖音,同时文字版同步发今日头条、百家号和企鹅号。

  你别说,ChatGPT在回答这些问题的时候异常擅长,很多答案观点全面、有理有据,有着教科书般的质量,可谓上乘鸡汤――

  他告诉我这么做目前数据和收益还不算太好,但已经逐渐有正循环了。

  他说ChatGPT对于他而言最有用的地方在于:你输入同一个问题,它每一次的答案都不一样,可以完美规避掉平台的查重算法。

  从这个案例中我们能得到的一个重要信息是――ChatGPT生成的文本非常适合大众的、通俗的内容。

  这背后的逻辑其实也非常容易理解,毕竟它在训练是通俗内容的数据量是最多的。

  然而,一旦遇到过于专业的实际问题,在很多情况下它就歇菜了。

  也就是它在提供“大路货”上非常擅长,但一旦遇到极其具体的垂直问题,它并不擅长。

  此外,内容的实时性、答案中的偏见歧视问题也会给想要获得实际价值的普通用户带来不那么理想的体验。

  三、潘多拉魔盒已开:ChatGPT只是一盘前菜

  如果你认为我这篇文章只是吐槽ChatGPT现阶段多么没有用,那么你就错了。

  让我们先简单回顾一下当年的阿尔法Go大战人类围棋的历史――

  2016年9月,阿尔法Go打败欧洲围棋冠军之后,包括李开复在内的多位技术领袖都认为:阿尔法Go要进一步打败世界冠军李世石希望不大。

  但后来的结果大家也看到了,仅仅6个月后,阿尔法Go就轻易打败了李世石,并且在输了一场之后再无败绩,这种进化速度让人瞠目结舌。

  阿尔法Go的进化速度或许会在ChatGPT的身上再次上演。

  目前的ChatGPT是基于OpenAI的GPT3.5的模型创建的,自2018年开始,GPT1、GPT2、GPT3的参数分别为1.17亿、15亿、1750亿。

  这是一个指数级的增长,可以想象性能更加强大的GPT4会达到怎样的高度。

  所以,尽管不可否认,现阶段ChatGPT的确有诸多局限性,这个结论不是我说的,是它的创造团队OpenAI的CEO说的――

  但这丝毫不影响它的迭代版本在进化过程中不断解决和弱化这些问题,从这个意义上,ChatGPT或许只是一盘前菜。

  我希望未来它可以非常轻易地――

  帮财经人士极其智能地查询各种维度的专业数据;

  帮法律人士极其智能查询各种维度的判例和条款;

  帮广告人极其智能地创作真正可用的广告语;

  帮音乐人创作真正脍炙人口的流行音乐;

  ……

  这些不同的AI宣称可以做,但很显然,目前这件事它还做的不够优秀,但毫无疑问,ChatGPT为代表的产品已经为AI打开了潘多拉魔盒。

  我非常认可硅谷著名投资人保罗*格雷厄姆在Twitter上说的一句话――

  “ChatGPT惊人的地方不在于有多少人被它震撼到,而在被震撼到的人是谁,这些人可不会随便对每一个新事物都感到兴奋,很显然,有大事正在发生。”

  对于我们每一个人,的确该思考自己工作会不会被替代的问题了――

  李开复曾经提过一个观点――思考不超过5秒的工作,在未来一定会被AI取代。

  现在看,在某些领域,ChatGPT现在就已远远超过“思考5秒”这个标准了,而随着它的疯狂进化,其可能产生的潜力会超越不少人的想象。

  奇点隐现,而未来已来,只是分布上还不够均匀。

  最后以凯文凯利的一句话结尾――

  “从第一个聊天机器人(ELIZA,1964)到真正有效的聊天机器人(ChatGPT,2022)只用了58年。

  所以,不要认为距离近视野就一定清晰,同时也不要认为距离远就一定不可能。