日经:ChatGPT的职能还不如猫狗?
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
小柳建彦:对话式人工智能(AI)正受到广泛关注。在网站上向AI提问时,它会像真人写的一样用自然的语句做出回答。由于美国谷歌和微软等大型科技企业参与相关竞争,这更吸引着全球热切的目光。
? ? ?
? ? ? 但是,直至目前公开的对话AI仍存在严重缺陷。虽然是由AI读取大量数据,可以给出像模像样的答案,但也存在很多致命性错误。很难说AI真正理解了问题和自己用于作答的词汇的“含义”。
? 通过梳理“ChatGPT”等对话AI出现的诸多错误,就可以发现机器要达到真正的智能所面临的核心技术课题。
? “老师”和“亲妈”将展开竞争
? 由于2022年秋季美国初创企业OpenAI免费公开的ChatGPT在全世界引发热议,此前一直不打算向公众公开对话AI的谷歌改变了方针。
? ? 2月6日,谷歌首席执行官(CEO)桑德尔・皮查伊亲自在官方博客上宣布,未来几周内将在搜索服务中嵌入名为“Bard”的对话AI并投入使用。
谷歌CEO桑德尔・皮查伊宣称AI是谷歌最重要的技术领域(2022年10月,东京都涩谷区)
? ? 据称,在搜索栏中输入提问内容后,会显示用自然流畅的语句给出的答案,以及回答问题时作为依据所参考的网页链接。
?
? 事实上,领先一步的ChatGPT的基础是基于AI的大型语言模型,该模型建立在谷歌开发的被称为“Transformer”的技术之上。不仅如此,谷歌还拥有数据量和能够生成的句子类型数量远多于OpenAI的模型。对于OpenAI来说,谷歌公开对话AI,就好比“老师”突然变成了竞争对手。
? ?
? 在“老师”发布消息之后,“亲妈”也跟着行动起来。在谷歌宣布公开对话AI的第二天(2月7日),OpenAI的大股东微软也发布消息称,在搜索服务必应(Bing)中嵌入了基于OpenAI技术的对话功能。据称,通过与搜索功能同时使用,可以根据最新信息以自然流畅的语句做出回答,还能够对长达好几页的文档进行概括提炼。
不善于追逐最新信息
? ?
? 谷歌和微软都强调,通过同时使用搜索和生成自然语言的功能,可以根据网上的最新信息生成语句。反过来说,对话AI此前一直不擅长追逐最新信息。
? ChatGPT等的大型语言模型,每次更新信息内容时,都需要重新读取数量庞大的文献数据。因为很难频繁更新,所以模型内保存的信息大多比较旧。
? ? ?
? 比如,当询问ChatGPT“洛杉矶湖人队(Los Angeles Lakers)最近一场比赛的上场阵容”时,得到的回答是“我只具备2021年之前的知识,无法回答您的问题”。
? 谷歌和微软的对话AI同时使用网络搜索,因此会在信息的同步性和准确性方面取得巨大进步。尽管如此,谷歌在2月8日进行Bard的演示时,仍显示出了错误信息,说是美国航空航天局(NASA)的詹姆斯韦伯太空望远镜成功拍摄到了史上第一张太阳系外行星的照片。这一错误信息随后引发争议。可见,信息的准确性仍有不少课题需要解决。
缺乏常识和逻辑
? 除了上述的问题外,对话AI还存在根本性的课题。目前推出的对话AI基本上都很难说已经可以理解自己所使用的词汇的概念、含义、事物或现象的因果关系等“逻辑”。正因为如此,才会反复出现简单的事实误认。
? ?
? 例如,向ChatGPT询问“哥哥和姐姐有什么不同”时,得到的回答是“虽然兄弟姐妹关系因家庭结构和出生顺序不同而存在差异,但哥哥通常比姐姐年龄大”。之所以给出这样不知所以然的答案,是因为没有“理解”哥哥、姐姐等词语的概念、相互之间的关系、家庭构成等全局情况。
? ?
向ChatGPT询问“哥哥”和“姐姐”的区别时,得到的回答含有错误内容
? ? ? 之所以会出现这样的错误,是因为现在使用的绝大部分语言模型是机器学习型AI。因此,使用的语言基本上是单词和短语的“排列”,机器通过读入数量庞大的过去的文献来识别排列类型。然后再计算出各类型出现的概率,寻找出接在问题之后的概率较高的字符串并加以显示。
? 例如,在日语语言模型中输入“我が(中文译:我)”,使其生成后续的语句时,答案就会显示在书籍、新闻报道、网站留言中出现概率最高的排列组合类型,即“は猫である(中文译:是猫)”(见下图)。ChatGPT还可以直接生成与“夏目漱石风格”的小说相类似的句子。
? ?
? (编者注:《我がは猫である》是日本作家夏目漱石的长篇代表作,中文译名为《我是猫》)
? ?
语言模型是“学习”在基本单词之后衔接什么单词的概率,并生成句子。(资料由NTT数据尖端技术提供)
? ? 简单计算也会出错
? 也就是说,聊天AI不过是根据读取数据找出概率高的词序,并不是理解单词、语句的“含义”以及家庭成员之间的关系等“常识”。因此,它不擅长回答那些不理解意义和常识就难以回答的问题。
由于不擅长逻辑,因此Chat GPT也不擅长简单的计算。让它做任意4位数之间的乘法,大都会算错,并且反复输入相同算式时,总是给出错误的答案。
让ChatGPT计算4567×5678的乘法,会给出错误的答案。大规模语言模型不擅长世上文献很少的小学生水平的数学。
? ? ? 也就是说,现有的聊天AI不适合用于调查事实。而应该仅限于在不管内容的真实性和准确性,只需要自动生成自然语句和软件程序等文字列的目的时使用。
机器学习的极限和下一个AI
? 那么,拥有与人类相当的“智能”的AI的开发到底有没有取得进展呢?熟悉日本国内外动向的日本科学技术振兴机构研究开发战略中心的研究员福岛俊一表示:“具有逻辑思考、常识和认知的新一代AI的研究从几年前就在推进”。
? AI掀起过3次新技术浪潮。分别是1960年代、1980年代及从2010年代持续至今的第三次。其中,1960年代和1980年代是计算机根据人类预先编制好的逻辑,分析数据得出结论。由此也发现编制支持现实的无数逻辑不太可能,于是上一波浪潮在1990年代开始走向衰退。
? 2010年代开始、持续到现在的AI浪潮并不是人类思考逻辑,而是由让计算机自己归纳出数据的各种类型的机器学习来引领。随着相当于计算机大脑的半导体性能越来越高以及互联网普及,可以收集全世界的数据,被称为“深层学习”的可以识别复杂类型的软件技术问世等要素全部得以实现。
? 如果将机器学习型AI和“大数据”结合起来,限定于特定用途,就可以完成人类不可能完成的工作。比如,通过读取大量的面部照片,提高图形识别能力,从而实现智能手机开机时的面容解锁。
Digital Garage董事伊藤穰一指出了依赖机器学习的AI的“极限”
? ? ?不过,要实现自动驾驶及自律型多功能机器人,相当于头脑的AI要具有识别眼前物体和周围情况的能力,其中包括过去没经历过的情况。
? ?
? 这需要基于逻辑和常识的推论能力,仅靠依赖“过去”事例的机器学习型模型并不能顺利实现。熟悉尖端技术动向的Digital Garage公司董事伊藤穰一指出:“谷歌、特斯拉及苹果仍很难将自动驾驶汽车推向实用说明依靠机器学习的AI存在极限”。
“别说人类,就连猫狗的智能都远未达到”
? ?
? 对话型AI缺乏“常识”和“道理”也源于根据数据以归纳法方式探索相关类型的机器学习型AI的弱点。
? 兼具常识和逻辑思考的新一代AI如何才能实现?参考人类儿童自然掌握语言、空间认识及社会关系等的过程,让计算机学习逻辑和常识的研究正以脑科学家和认知科学家也参与的跨学科途径推进。另外,也有将在第2次AI浪潮下失败的人类输入逻辑和常识与尖端的深层学习相融合的尝试。
? 关于通过机器实现与人类接近的智能这一长期目标与现有AI技术的差距,开拓深层学习基本技术的美国Meta首席AI科学家、纽约大学教授Yann Lucan形容道:“目前先别说人类,就连猫狗的智能都远未达到”。
? 我们不能因为看到对话AI的流畅文章就误以为AI智能已经接近超越人类的“特异功能”(Singularity)。人类的科学技术在达到这一水平之前还需要实现众多突破。
本文作者为日本经济新闻(中文版:日经中文网)编辑委员 小柳建彦
版权声明:日本经济新闻社版权所有,未经授权不得转载或部分复制,违者必究。
日经中文网 https://cn.nikkei.com
chatgpt将替代哪些岗位 chatgpt可能会替代哪些职业
itchat替代品每个人擅长的方向是有限的,时间和精力同样是有限的,我们不可能对于所有信息都花足够的时间去小心求证,特别是考虑到对于非专业领域的求证成本很高。如果别人以很自信、看起来很专业的语气做出一个我乍一看发现不了问题的陈述,我倾向于暂且相信对方,否则我需要浪费很多时间去求证。但是问题来了,一方面AI的回答可靠性不够,另一方面AI的回答看起来又似乎很专业,如果滥用AI回答,那么轻则大幅增加求证成本,重则塑造错误的第一印象甚至群体记忆。
因此,请不要用ChatGPT来直接回答知乎问题!!要么你对ChatGPT的内容进行小心求证后,基于你自己的理解重新组织一篇回答。要么你直接搬运ChatGPT的回答,但请以相对醒目的方式注明这是AI自动生成的回答,而不是不加注明地搬运,否则这将会误导很多人!
当然,上面只是说了ChatGPT不可靠,并且喜欢一本道。下面我将拿一些例子说明ChatGPT究竟是怎么个一本道法――
想玩下这个AI可以关注公主号,认清现实然后成长,回复gpt获取
这是我在该回答下看到的,发现评论区最初(在我辟谣前)很多人都认为AI很厉害,但实际上AI的回答错误百出,甚至基本上可以说是一本道。这也直接引发了我对滥用ChatGPT的担忧――ChatGPT的回答太过自信和具有迷惑性,这里尚且是注明了AI都会误导很多人,如果不注明是AI,很可能误导更多非专业人士。
这个求 sin 的代码,感觉无懈可击啊,为什么会不对呢?761 赞同 ・ 46 评论回答
这是这位答主与ChatGPT的对话过程,第一段分析基本上是对的,但是第二段分析可以说是纯纯的一本道。首先AI以十分自信地口吻说了一串内容,但遗憾的是这些内容基本上全错。
首先是x过大时后面的项会很大,才会导致精度丢失,并且精确求正弦函数值也不是AI胡诌的什么数值积分/复化辛普森积分算法,但凡知道数值积分是啥就会发现AI在胡扯。正确的算法是用诱导公式将参数约化到[0,π/4]再泰勒展开。
实际上AI出错完全是在预料之中的,但AI这种自信的口吻带来的危害就很恐怖了,不明真相的吃瓜群众很可能被AI的内容所误导。所幸的是这还是有标准答案的理工科知识,可以辩明,如果是在人文社科领域滥用ChatGPT,轻则误导很多人,重则塑造错误的群体记忆。
AI对话1:看起来很专业,甚至想怒赞“知乎遗风”,实际上胡言乱语,狗屁不通
详见酱紫君大佬回答中举的例子――
如何评价OpenAI的超级对话模型ChatGPT?1490 赞同 ・ 187 评论回答
如果你不熟悉Routh-Hurwitz判据,那么你可能认为ChatGPT回答得非常对。但如果你真的了解,那么你会发现这里面错误百出。这里我给一个我自己手动修正后的正确版本(严重错误用粗体进行了修正)――
Routh-Hurwitz判据是一种对于一个给定的多项式,判断多项式是否存在正实部根的方法。它通过分析多项式系数来实现这一目的。 为了使用Routh-Hurwitz判据,我们首先需要用多项式的系数构造一个表格(Routh表)。然后,我们要按照一定的规则来填充这个表格。如果最终得到的表格中的第一列中的所有元素都为正数,那么这个多项式的所有根都具有负实部;否则,就至少存在一个非负实部根。
总而言之,这个例子还算是可以补救的,只是说内容错误,但是思路对了。作为一个预搜索引擎使用还是可以的,把检索到的内容对照传统搜索引擎的结果再考证一遍就行。(值得说明的是,我用英文问这个问题,答案就很好,这恐怕是因为中文互联网太菜了)
AI对话2:只能说回答的壳子是对的,沿着这个路线很容易找到真正的正确答案。但如果不加考证,基本上就是昏昏沉沉,捞得一
我稍微尝试了下用AI查了下我玩过的galgame/会社的资讯,发现令我大跌眼镜的是――AI的模板看起来很对,但是具体内容(如年份、作品)全错,某种意义上能全错也挺厉害的。下面是正解(当然我也很云玩家,也有可能有说错的地方,望海涵)
1. 《战女神》是Eushully社制作的(而不是AI说的Nitroplus),发售于1999年(而不是AI说的2003年)2. Yuzu-Soft成立于2006年(而不是AI说的2010年),其中说的所有游戏都不是Yuzu-Soft的游戏(甚至都不是游戏)3. 八月社成立于2001年(而不是AI说的2000年),其中说的所有游戏都不是八月社的游戏4. Alicesoft成立于1989年(而不是AI说的1985年),其中说的所有游戏都不是Alicesoft的游戏5. 枕社成立于2005年(而不是AI说的2003年),其中说的所有游戏都不是枕社的游戏
我知道要AI了解这些是有些为难它了,但是一个都不对还一本道就…
当然,如果使用得当,ChatGPT还是很有用的。注意到ChatGPT非常擅长套模板说车轱辘话,只要说的话没有啥干货,就非常有用。
比如这学期我有新中特这门课,每节课都有思考题要写。让我们看看AI怎么答
卧槽,牛得一!正解就是“创新、协调、绿色、开放、共享”,以后直接让AI帮我写思考题就完事了。
比如前几天我们要做一个考核作业,直接扔到ChatGPT里
像这种东西网上不好搜,用ChatGPT给出一个大概的方向,然后再逐个用搜索引擎进一步确认即可。
像对于人生意义等老生常谈的问题,它们本身没有标准答案,但AI能够以很简明的语言阐明结论。
在我看来,ChatGPT学会了回答问题的范式与模板,但对于其中填充的具体内容并没有充分的理解。即使学会了前者就已经超越了许多表达能力、总结能力不足的普通人了,但如果内容本身的正确性得不到保证,反而会带来更强的误导性。毕竟一个逻辑混乱的人说的错误内容,我能轻易地发现其不靠谱。但如果是一个看起来符合范式的错误内容,发现其不靠谱之处就显得麻烦多了。如果滥用AI回答,最终只会导致回答质量的下降,从而使得获取/校验有效信息成本更高。
注意!近期爆火的“ChatGPT”,这些法律风险您要当心!
最近火爆,最近爆火的梗有哪些,最近挺火的,最近很火的囍用ChatGPT官方图标当头像免费试用几次后开始收费 此前,随手点开微信搜索框,就可以发现一系列与ChatGPT“沾亲带故”的产品,并以ChatGPT的官方图标为头像。这些账号中,有不少注册时间都是在ChatGPT“出圈”的今年。 ▲在微信上搜索出现的一系列与ChatGPT“沾亲带故”的产品 这些产品的服务方式大多是先免费试用,一旦免费次数用尽就开始收取费用。 以“ChatGPT在线”为例,它为用户提供4次免费对话额度,之后继续使用需充值,充值额度分别为9.99元/20次(三个月有效)、99.99元/1300次(半年有效)、199.99元/3000次(一年有效)、999.99元/无限次(一年内有效)。而另一款类似的服务“GPT深蓝”也显示有199元月度会员、399元季度会员、999元年度会员的ChatVIP充值机制,页面甚至还有“加入代理赚钱”的选项。 不过,经再次搜寻发现,之前名字里带有“ChatGPT”的公众号已几乎没有,一些公众号已改名。