淘优惠

淘优惠

ChatGPT火了背后逻辑 火爆全网的chatgpt技术

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chattwr,chat it,chat gap,chat thit

  近日,围绕热门科技话题ChatGPT,科技日报记者专访了欧洲科学院院士、德国比勒菲尔德大学洪堡人工智能教席教授金耀初。金教授同时兼任英国萨里大学计算系“计算智能”讲席教授、IEEE计算智能学会候任理事长,曾任《IEEE认知与发育系统汇刊》主编等职。

  生成式模型的重大进展

  谈到ChatGPT最核心的东西,金耀初表示,ChatGPT所代表的技术是第三波人工智能技术取得的一个重大进展。它基于生成式预训练Transformer模型,采用了“自注意力机制”。与传统的判别式模型相比,生成式模型的最大特点是直接学习训练数据本身的特点,因而能更有效地学习大容量的样本,特别是海量的语言、视觉信息。

  传统的语言处理模型一般只能根据字词的前后相邻词语来找它们之间的关系,因此有很大的局限性。Transformer引入了自注意力机制后,它就能很灵活地找出不单是某一个句子,而是不同句子,甚至是整篇文章或不同的文章之间词的相互关系,学习能力就增强了很多。

  横空出世非一日之功

  对于ChatGPT的横空出世,金耀初强调这仅仅是大众的感受。从科研的角度看,ChatGPT也是一步一步演进而来的。根据OpenAI发表的论文,ChatGPT是花了很长时间,用了各种学习方法不断训练和微调出来的。生成式模型给出的答案并不是人们事先给它的训练数据,而是模型生成出来的,所以很难保证百分之百正确。ChatGPT在训练过程中用到非常多的最新的学习技术。例如,无监督学习、有监督学习、多任务学习、小样本学习、自监督学习等。

  此外,它还加入了基于人类反馈的强化学习,以获得与人类对齐、共情能力。通过人类评价,即给它生成的答案打分来选择一个最佳的答案。这个过程实际上是一个强化学习过程,也就是对原来的模型进行微调。其他AI模型可能没有像ChatGPT这样,用大量的人类反馈来使得模型能产生更加符合人类期待的回答,相应的体验就会有差距。

  尚不具备自主的“心智”

  金耀初谈到,作为一个从文本到文本的对话系统,ChatGPT最强的地方是对自然语言的充分学习,生成的文本更加“流畅”并符合人类体验,这是一个重大的技术创新。但值得注意的是,生成式机器学习模型有很多,比如从文本到语音信息,或者文本到图像信息,这些方面ChatGPT的表现可能就没那么好了。这是它的一个局限性。

  另一方面,目前ChatGPT训练的数据截至2021年,没有训练过的东西,它是不可能准确回答出来的。换句话说,目前的模型不具备创造新知识的能力。ChatGPT回答问题时用的是推理。它不是那种在数据库中搜索答案的概念。生成式模型是根据问题本身联想出一个答案。这个答案是模型“学习消化”后产生出来的东西,不是原始的数据。严格意义上来说,模型本身甚至不知道这个答案的真正含义,它也不能保证答案肯定是对的。

  ChatGPT不是“万能”的

  金耀初认为,ChatGPT离真正的专业应用还有一定的距离。现在大家感觉很新奇,都在尝试玩一玩。有的人甚至以为ChatGPT什么都能干,可以很快用在自动驾驶之类的很多应用上,这其实是误解。自动驾驶的重点不是文本到文本的问题,纯粹的生成式模型是不够的。它需要其他判别式的机器学习模型,特别是实时场景的识别。

  以现在热议的医疗服务为例,尽管ChatGPT在美国执业医师资格考试中取得不错的成绩,但真实情况下人们会用ChatGPT来代替医师进行诊疗吗?至少目前还不行,因为无法保证它的答案百分之百是正确的。有人说ChatGPT有时会一本正经地胡说八道,这样的描述是比较中肯的,人们不能忽视这种风险。

  期待未来更多突破

  金耀初表示,这一波人工智能可能不会像第一波和第二波人工智能浪潮那样很快偃旗息鼓。它会继续发展下去,未来三五年,人工智能领域可能还会涌现一些令人吃惊的突破。很多基于ChatGPT的新的想法或技术或会涌现,并在此基础上找到真正好的细分领域的应用。

  至于人工智能和机器人的结合,金耀初强调,从某种意义上来说,这一直是人工智能研究的重点之一。现在ChatGPT与人对话这么流畅,如果把它与数字虚拟人技术结合起来,一般人可能很难分辨出计算机屏幕里回答问题的是真人还是一个数字人。当然,未来的发展过程中会涉及很多人工智能的本质问题,包括信任、责任、伦理、法律问题等。乐观地看,ChatGPT等人工智能应用的影响力急剧扩大,反过来会在一定程度上推动上述问题的解决。(李山)

[责任编辑: 谢芸 ]

ChatGPT是软件还是硬件 ChatGPT 用多少芯片

chatgpt,chatgpt怎么下载,chatgpt注册,chatgpt概念股

ChatGPT的“火速”,瞬间席卷了全球,只用了两个月时间,就实现了月活跃人数破亿,比上一个爆火的应用Tik Tok实现这一数字少了7个月。

ChatGPT的出现,让人工智能整个行业及用户无比重视,行业巨头纷纷跟进,甚至可以在短时间内砸下几十亿美元的投资。用户纷纷在讨论,会不会被ChatGPT替代,会不会失业?

ChatGPT如今还没有到封神的地步,初次跟它聊天会感到震惊,但聊了100次以后会发现,它也是会犯错的。

目前及未来一段时间,ChatGPT商业方向集中在软件方面,比如文本问答、资料整理、图像生成、视频生成、代码生成等。

那ChatGPT会不会给智能硬件行业带来变化?ChatGPT核心技术优势,是提升了理解人类思维的准确性,并能快速做出执行。这对智能硬件来说,无疑会有巨大的促进作用。

本文将浅析ChatGPT技术对未来智能硬件行业带来什么变化?

01、ICT硬件需求几何级增长

作为既基础,又核心的硬件配件,ICT硬件的需求将会几何式增长。

ChatGPT运行有三个条件,分别是训练模型、模型算法和算力,相关数据显示,ChatGPT的总算力消耗约为3640PF-days(每秒一千万亿次计算,运行 3640 个整日)。

假设有6家企业在未来3年内,各自拥有一款月活用户超2亿的ChatGPT类应用,这些应用既有文字类,也有图片视频类,这些应用将有可能需要超162EFlops超算算力。

不论是训练,还是对外商业,均需要庞大的算力支撑。

支撑庞大数据运算的载体就是芯片,包括GPU、CPU和FPGA。

GPU具备并行计算能力,可兼容训练和推理,因此是目前超算的主力,既可以用超大算力和数据构建预训练模型,也可以在预训练模型上进行针对性训练。

据媒体报道,AlphaGO当时只需要8块GPU,而ChatGPT训练模型中至少导入了1万科英伟达的GPU,可见对芯片的需求之大。

FPGA芯片作为可编程芯片,可以针对特殊需求进行定制,在AI模型构建第二阶段有很大的需求,但由于其运行频率低,可与CPU结合,实现庞大的算力需求。

一片英伟达顶级GPU成本达到了8万元,庞大的算力需要更多的芯片,招商证券研报表示,未来3年ICT硬件投资将新增需求1755亿元。

随着越来的企业入局与扩大规模,芯片行业将需要升级,一是算力的提升,二是成本的下降,否则未来的人工智能模型训练,只能是超级巨头与超级资本强强联合,最终形成垄断。

无论是GPU,还是CPU与FPGA,我国目前均不具备优势,从销售端来说,未来的这块红利吃不上,从购买端来说,将会增加成本,还有可能被西方国家扼喉。

对于我国企业来说,任重而道远。

02、赋予智能家居“灵魂”

智能家居算是人工智能应用最早的领域,通过硬件按钮、语音、手势、自动感应、手机 APP等方式与IoT设备进行连接。智能家居的出现,一定程度上改善了消费者的生活质量,实现了动口不动手。

但目前的智能家居比较生硬,比如利用智能音箱通过语音控制,先需要唤醒,然后只能一个指令一个指令去发布,有时候还不能识别用户表达的意思,用户体验不佳。

ChatGPT技术的出现,将有可能弥补智能家居交互体验不佳的情况。

将ChatGPT的问答系统应用到智能家居产品上,在唤醒的同时,可以下达多个指令,系统可以分析理解后执行,一句话可以实现所有控制。

同时,如果用户对于智能系统不熟悉,对于智能家居的产品不熟悉,系统还可以给出更佳的建议,就如同真正的管家。

ChatGPT技术应用到智能家居领域上,将会为其赋予“灵魂”。

中金公司发布研报称,以ChatGPT为代表的生成式AI系统是对智能家居交互方式的升级。

除了交互体验更佳外,ChatGPT的分析理解能力,将为智能家居赋予更多的体验,比如可以定外卖,可以买电影票等。

也许,电影里的科技时代将会快速实现。

03、智能教育将有更多可能

ChatGPT技术第一个冲击的行业,也许是教育行业。

据多家媒体报道,美国多家高校禁止使用这类工具,国际学术期刊《自然》和《科学》限制ChatGPT的使用。

之所以出现禁止和限制的原因,是学生利用ChatGPT来写作业和论文。

国内也有高校学生利用ChatGPT写论文和作业。

北京某高校传媒专业的学生表示,写出来的内容整体上还是有用,但也会出现编造的情况。四川某高校的人力资源专业博士表示,正在研究让ChatGPT帮自己搞科研,但其回答太过宽泛。某高校的医学专业博士后表示,ChatGPT还可以问诊,但比较保守。

对于ChatGPT入侵教育系统,多数人的担心是,会颠覆知识的获取形式和学生不会形成自己的思考。

通过实践可以看出,ChatGPT学习的内容比较陈旧,在教育方面目前很难做到颠覆,只能起到辅助作用。

任何事物都有两面性,在其显示弊端的同时,要去寻求积极的一面。

与ChatGPT相似的蛋白质工程深度学习语言模型,首次实现了 AI 预测蛋白质的合成。从这件事可以看出,将人工智能定位为辅助工具时,可以利用其优势帮助科研人员提高效率和科研的成功率。

将ChatGPT技术应用到智能教育硬件上,比如智能教师,智能辅导,其帮助学生辅导作业时,不会直接告诉答案,而是进行讲解,并且和学生互动,最后的效果也是利大于弊,还有可能打破教育资源不均的问题。

04、消费级智能机器人会更智能

智能机器人一直是科技企业研发的重点,受到了多方的推动。

工业级机器人因为动作单一,研发难度较低,应用范围比较广泛,比如特斯拉的超级工厂。

消费级机器人研发难度较高,目前技术还不是很成熟,比如动作僵硬,对指令的执行不完美等。

感知+控制算法是机器人执行任务的核心支撑,其中控制算法,一般分为决策算法、运动控制算法,通过智能大脑反馈行动,进行自助式移动、交流、语言理解等。

ChatGPT技术将有利于智能机器人在学习、抽象、推理、决策能力方面有所提升,同时可以更快的适应环境变换、自动完成任务等。

简而言之,ChatGPT技术可能会让智能机器人变得“聪明”一点。

比如泳池清洁机器人,用户给其下达指令,让其保持泳池的清洁,它可以通过摄像头和传感器对泳池进行定期扫描,分析判断泳池是否干净,是否需要清洁,如果不需要,自行返回充电桩充电,如果需要,分析是池水需要清洁,还是泳池壁需要清洁,然后进行下一步的清洁。

在清洁时遇到问题,可以实时通过电话或者视频与用户反馈,说明遇到的问题,用户给出下一步指令。这样只需要一个指令智能机器人就可以自己去完成任务,并不需要用户过多的干涉。

所以,ChatGPT的交互能力,有助于消费级机器人的突破。可以根据用户的语音指令和交互数据,提取有用的信息,为用户提供更加个性化的服务和推荐,从而提高用户的满意度。


chatgpt人工智能聊天机器人 由chatgpt引发的人工智能思考

ChatGPT人工智能聊天机器人,人工智能聊天在线,人工智能聊天系统,人工智能聊天助手

  采 写:实习记者 张佳欣 记者 刘园园 陈 曦

  策 划:何 屹 房琳琳 邵德奇

  目前,ChatGPT还没有通过图灵测试的评估。其实,迄今为止,还没有人工智能模型能真正通过图灵测试。

  去年11月,美国人工智能研究公司OpenAI发布了一款名为ChatGPT的聊天机器人,其在推出后的几周内就风靡全球,甚至引发了一场新的全球人工智能竞赛。

  社交媒体推特首席执行官埃隆・马斯克在使用ChatGPT后直呼其“好得吓人”,甚至断言“人工智能越发强大,离对人类产生威胁不远了”。

  《自动化与工作的未来》一书作者、美国雪城大学教授亚伦・贝纳纳夫说,200年前,人们对自动化技术产生了一波又一波的恐惧,人们看到新技术,就害怕它们会完全取代人类的劳动。

  今年2月初,ChatGPT开启“狂飙”模式,引起新一轮疯狂的技术升级、产业重构、资本狂潮、巨头逐鹿。起初,随着这波技术热浪席卷全球而心情起伏不定的普罗大众,经过一段“沉浸式”体验,虽未感到恐惧,但仍不免有些担忧。

  实现对话式AI的第一步

  ChatGPT仅发布了2个月,月活跃用户就超过了1个亿。

  要知道,“1个亿”可不是个小目标,达到这一数字,Facebook 用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌则用了将近一年。

  中国科学院自动化研究所研究员、数字内容技术与服务研究中心主任张树武在接受科技日报记者采访时表示,人们可以把ChatGPT视为继语音、图像视频识别技术之后最复杂的语言识别技术突破,也是基于模式识别和深度学习的感知智能技术发展的新跃迁。

  天津大学自然语言处理实验室负责人、教授熊德意表示,从人工智能发展角度看,这是一个重要的里程碑,其意义要高于7年前的“阿尔法狗”。

  他告诉记者,围棋界的“阿尔法狗”刷新了普通大众对人工智能技术的看法,但是其本身并不能广泛应用,普通大众也难以与其直接接触。

  ChatGPT则完全不同。

  与“阿尔法狗”相比,ChatGPT可以直接应用或支撑很多场景应用和产品。如果说“阿尔法狗”是技术应用的“阳春白雪”,那么ChatGPT或许有机会成为“下里巴人”。

  的确,在用户们不懈努力地发掘ChatGPT的用途后,人们发现,它不仅仅是个聊天工具,还可以写代码、写情书、写论文,也可以在线问诊,编写情景脚本、诗歌、小说,甚至是拟定旅游路线、回答脑筋急转弯,可谓“有求必应”,功能强大到无法想象。

  ChatGPT在快速渗透各个行业,普通大众都可以成为ChatGPT的用户,这是其火爆出圈的重要原因。

  事实上,此前已有许多跟机器人聊天的相关应用,我们最熟悉的莫过于常用的智能语音助手。ChatGPT与之有何不同呢?

  “智能音箱采用的同样是自然语言处理技术、对话式AI技术,但是语言智能比较初级。很多情况下,我们只能与它们进行一问一答式的简单对话。”熊德意说,“而ChatGPT,其底层技术不仅与一般的智能音箱底层技术截然不同,而且要比它们强大得多,不仅如此,它改进了与它同类的技术InstructGPT的人类反馈数据收集形式,在与人对话中,可以基于历史内容,支持连续多轮对话。”

  熊德意认为,ChatGPT是实现对话式AI的第一步。

  从互联网层面来看,它可以作为信息入口,与搜索引擎相结合;还可与办公软件结合,增强办公效率;从人机交互角度看,它体现的是一种基于自然语言的交互方式,可以与元宇宙、数字人结合。此外,它还可以充当机器人大脑。

  “如果从人类信息发展的尺度上看,它在人与机器之间的信息接口方面有了很大突破。”熊德意如是说。

  “十八般武艺”样样精通

  ChatGPT使用了GPT-3技术,即第三代生成式预训练Transformer(Generative Pretrained Transformer 3)。这是一种自回归语言模型,使用深度学习来生成类似人类的文本。

  据英国广播公司《科学焦点》杂志介绍,GPT-3的技术看似简单,例如它接受用户的请求、听取问题或提示并快速回答,但其实这项技术实现起来要复杂得多。该模型使用来自互联网的文本数据库进行训练,包括从书籍、网络文本、维基百科、文章和互联网其他文本中获得的高达570GB的数据。更准确地说,它在5000亿个单词组成的训练数据上进行了高强度训练。

  GPT-3.5是GPT-3微调优化后的版本,比后者更强大。ChatGPT正是由GPT-3.5架构的大型语言模型(LLM)所支持的。

  ChatGPT也可以被描述为一个自然语言处理(NLP)领域的人工智能模型。这意味着它是一个能够编码、建模和生成人类语言的程序。

  作为一种语言模型,在大规模文本数据上进行自监督预训练后,ChatGPT还需要经过三个阶段的“炼制”。首先是监督微调阶段,在该阶段,人类AI训练师既充当用户,同时也是AI助理,以自我对话形式生成对话样例,ChatGPT在这些对话样例上进行有监督的训练。

  接着,ChatGPT进入第二个阶段。该阶段的主要目的是训练一个基于语言模型的奖励模型,对机器生成的回复进行评分,为了训练该奖励模型,需要随机抽取机器生成的文本,并采样出多个不同版本,人类训练师对这些不同版本进行偏好排序,排序的结果用于奖励模型的训练。

  基于训练好的奖励模型,第三个阶段采用强化学习技术进一步微调ChatGPT。

  这项技术与众不同之处在于,它能够基于以上介绍的人类反馈强化学习技术,使生成的文本能够与人类意图和价值观等进行匹配。

  无论懂不懂技术,全球网友都竞相大开“脑洞”,试探ChatGPT到底有多“神”。据美国有线电视新闻网报道称,有人要求它用《坎特伯雷故事集》的风格重写上世纪90年代热门歌曲《Baby Got Back》;有人写了一封信,要求ChatGPT删除信用报告中的不良账户;还有人询问它以童话为灵感的家装设计方案。

  自然语言处理技术拨云见日

  一炮而红后,ChatGPT概念股也跟着一路“狂飙”。有媒体报道,汉王科技9天收获7个涨停板。自然语言处理研究是该公司主营业务,而ChatGPT背后的技术就是NLP。

  熊德意告诉记者,NLP是人工智能的一个分支,最早诞生于机器翻译,其历史实际上比“人工智能”名字的历史还要悠久,至今已研究了70多年。简单来说,该技术的目标就是要让计算机或机器人能够实现像人一样具备听、说、读、写、译等方面的语言能力。

  “ChatGPT并非一项技术的一蹴而就,它是多种技术叠加在一起形成质变的产物,是NLP领域的结晶。”熊德意解释,其底层技术,包括Transformer、自监督学习、微调、人类反馈强化学习(RLHF)、AI对齐等,在自然语言处理和人工智能领域都有广泛的研究和应用。

  “但ChatGPT将这些技术巧妙地结合在一起。它有效规避了大模型的未对齐行为,利用了大模型规模带来的智能突现能力,增强了大模型的指令学习能力和用户意图捕获能力,解锁了大模型的泛化能力。这些能力叠加在一起形成了ChatGPT的质变效果。”熊德意说。

  美国《迈阿密先驱报》报道称,推特上的一位用户在ChatGPT的帮助下参加了一次模拟SAT考试,得到了1020分(满分1600分)。根据College Simply的数据,这只略低于平均水平。

  但当我们提问ChatGPT“你能帮我通过考试吗”,它会善意地提醒我们不要利用它来作弊,并表示:“重要的是要记住,测试的目的是评估你对材料的理解和掌握程度。作弊,或者仅仅依靠像我这样的外部来源,会破坏考试的价值,也不会促进学习或成长。”

  这是因为ChatGPT被加入了预先设计的“道德”准则,也就是上文提到的人类反馈强化学习。

  OpenAI表示:“这使该工具能够回答后续问题、承认错误、挑战不正确的前提并拒绝不适当的请求。”

  熊德意认为,这是因为RLHF有效提升了大模型的对齐能力,即如何让AI模型的产出和人类的常识、认知、需求、价值观保持一致。

  经过RLHF的“调教”,ChatGPT变得高度拟人化,可以学习并生成听起来十分自然的回复。RLHF还使ChatGPT能够理解指令并做出适当的响应,从而使对话更加真实。

  ChatGPT也因此迅速成为当下所有智能聊天机器人中的“天花板”。

  虽触手可及但无法取代人类

  随着科技的发展,人工智能技术一次又一次地超越了人们认为无法达到的极限,从1997年IBM“深蓝”计算机首次在国际象棋中击败人类,到IBM人工智能机器人“沃森”赢了智力竞赛《危险边缘》(Jeopardy),再从2016年“阿尔法狗”在围棋大战中战胜人类,到2019年号称“AI赌神”的Pluribus在德州扑克中碾压人类玩家……

  现在,ChatGPT已经触手可及,拉扯冲撞着人们惯有的参与生产生活的模式和框架,且继续“狂飙”在超越人类的赛道上。“ChatGPT引发十大职业危机”“未来20种职业或被AI取代”等话题频上热搜。

  它真的会跟人类抢饭碗,甚至取代人类吗?

  《迈阿密先驱报》报道称,根据SortList对6个不同国家的500名ChatGPT用户进行的一项调查,“打工人”已经在考虑其对自己所在行业意味着什么。研究称,大约23%在软件和技术领域工作的员工担心会因它失去工作,超过40%的雇主则表示有兴趣“聘用”营销文案花样多多的ChatGPT。

  美国哥伦比亚广播公司财富观察栏目刊文称,其他专业领域也可能会因此改变工作流程,包括中级写作、广告、媒体策划和法律文件。

  “ChatGPT和其他人工智能技术有可能改变工作的性质,但它们不会取代对人类的需求。”当把“是否会代替人类工作”的问题抛给ChatGPT时,它说,它们旨在协助和增强人工任务,而不是取代人类。它们作为人力资源的补充,并提高人类解决问题的能力,提升效率和效果。

  熊德意认为,目前来看,人工智能更多的作用是提高人的效率,辅助人类。与此同时,大众需要与时俱进,熟悉并掌控新技术,就像学习使用计算机、手机一样,毕竟这些新技术一定会产生新的就业机会。

  尚无自主意识和思考能力

  英国哲学家德里克・帕菲特在著作《论重要之事》中将人类定义为“能够给出理由并做出回应的生物”。ChatGPT是一个可以给出理由并做出回应的人工制品。它与人不同在哪里?是否像人一样有自我意识呢?

  发展至今,计算机已经变得更加成熟,但它们缺乏真正的理解力,而这些理解力是人类通过进化为嵌入社会实践网络中的自主个体而培养起来的。这是人工智能不具备的经历。

  当问及ChatGPT时,它回答道:“我是一个机器学习模型,不像人类那样拥有意识或自我意识。我也无法像人类一样感受情绪或体验世界。但是,我能够快速处理大量数据,并且能够以类似于人类交流的方式理解和响应自然语言输入。”

  粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接受记者采访时表示,对于人工智能领域的从业人员来说,首先什么叫自我意识,这件事情并没有一个很清楚的定义,很难像人脸识别、语音识别这些能力一样可以做定量衡量。

  “如果模糊地给‘自主意识’下个定义的话,我认为第一,主体要有自意识――它能意识到自己在干某件事儿;第二,强调自主――它可以自发地来决定做什么和不做什么。但是,目前人工智能并不知道自己在说什么,它也并不能自主地来决定或选择它要说什么。从这个角度看,离自主意识还有一些距离。”张家兴说。

  张树武也认为,尽管ChatGPT有所突破,但它的回答是基于经验主义的判断,是根据要求做预测,也是在先验知识基础上精加工的“知识拼盘”,不具备逻辑推导和数学演算等真正认知功能,局限性比较明显。

  1950年,才华横溢的计算机科学家艾伦・图灵提出了一个他称之为“模仿游戏”的思想实验。面试官通过打字机与两个对象交谈,知道一个是人,另一个是机器。图灵建议,如果一台机器能够始终让面试官相信它是人类,我们就可以说它有能力思考。这就是著名的“图灵测试”。

  目前,ChatGPT还没有通过图灵测试的评估。其实,迄今为止,还没有人工智能模型能真正通过图灵测试。

  但据《纽约时报》报道,OpenAI已经建立了一个比ChatGPT更强大的系统GPT-4,它甚至可以生成图像和文字,业界传闻它可以通过测试。能否如此,我们拭目以待。

  或成传播错误信息的工具

  人们逐渐发现,ChatGPT并非万能,也不总是正确的。它不擅长基础数学,似乎无法回答简单的逻辑问题,甚至会争论完全不正确的事实。

  据英国《自然》杂志报道,有研究人员强调,不可靠性融入了LLM的构建方式。由LLM支持的ChatGPT通过学习庞大的在线文本数据库中的语言统计模式来工作,这当中包括了不真实、偏见或过时的知识,因此很容易产生错误和误导性的信息,尤其在其未经大量数据训练的技术领域。

  OpenAI公司也承认:“ChatGPT 有时会写出看似合理但不正确甚至荒谬的答案。”这种事实和虚构叠加的“幻觉”,正如一些科学家所担心的,在涉及诸如提供医疗建议等问题时尤其危险。

  《纽约时报》报道称,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,研究人员向它提出充满阴谋论和虚假叙述的问题,结果它以新闻、散文和电视脚本的形式写出了文章,在几秒钟内编成大量令人信服的、干净的而毫无信源的内容。研究人员预测,对于虚假信息传播者来说,生成技术可以使虚假信息成本更低廉、更容易产生。

  “这个工具将成为互联网上有史以来最强大的传播错误信息的工具。”NewsGuard公司的联合首席执行官戈登・克罗维茨说,“现在可以以巨大的规模和更高的频率来制作一个新的虚假叙事,这就好比有人工智能代理人在为虚假信息提供帮助。”

  还有人担心ChatGPT会挑战语言的多样性。

  澳大利亚《对话》杂志刊文称,ChatGPT的默认功能会优先考虑白人创建的英语写作形式。说英语的白人长期以来一直主导着许多写作密集型行业,包括新闻、法律、政治、医学、计算机科学和学术界。这些人在上述领域的输出比其有色人种同事高很多倍。他们所写的大量文字意味着它们可能构成了ChatGPT学习模型的大部分,尽管OpenAI并未公开披露其材料来源。因此,当用户要求ChatGPT生成任何这些学科的内容时,默认输出都是以那些说英语的白人男性的声音、风格和语言编写的。

  美国哲学家、作家及认知科学家丹尼尔・丹尼特在1991年出版的著作《意识的解释》中描述了幼年的海鞘:“它在海洋中游荡,寻找一块适合的岩石或珊瑚,作为终生的家。”一旦找到,海鞘就不再需要它的大脑并将其吃掉。

  这听起来很残忍,但这背后有一个令人担忧的隐喻:在人工智能日益融入我们日常生活后,人类可能因过于依赖“智能”机器,使自己变得愚蠢。

  熊德意提醒,要警惕人工智能弱化人类思维。“ChatGPT实际上是从人类海量语言数据、知识库中学习训练而来,如果人类完全依赖于它,放弃了自己的语言表达、语言思考、能力锻炼,那是非常可悲和可怕的。”