淘优惠

淘优惠

ChatGPT搜索会带来哪些变革 chatgpt的底层技术逻辑

热门文章 0
搜索tr,搜索t fm,搜索ts,搜索c c t
大数据文摘授权转载自险峰创作者:险峰2023年险峰线上沙龙的第一期,我们和四位行业大牛聊了聊最近大火的ChatGPT。首先介绍一下本场嘉宾:陶芳波博士是前Facebook高级研究科学家,回国后进入阿里达摩院,搭建了阿里的神经符号实验室,属于全球最顶级的AI科学家之一,目前正在创业,担任人工智能公司「心识宇宙」的CEO。黄东旭是险峰的老朋友,「PingCAP」的联合创始人兼CTO,他本人是国内最早一批开源数据库的创业者,在程序员圈子里非常活跃;PingCAP也是目前Infra领域估值最高的科技公司之一,险峰曾在天使轮分别投资了PingCAP和心识宇宙。费良宏老师是AWS的首席架构师,曾供职于微软、苹果等多家硅谷巨头担任技术顾问,在云计算行业里深耕多年;龙波博士目前担任Meta商业化AI研究团队的负责人,之前曾深度参与过京东搜索推荐算法的搭建。此次圆桌由险峰长青投资副总裁李抗主持,李抗主要专注于人工智能、机器人、云计算等方向的投资。本次我们将聊到:ChatGPT 效果如此“炸裂”,AI从业者们事先是否预见到了?ChatGPT 是否能理解语言逻辑本身?为什么谷歌没能做出 ChatGPT?开源圈和云计算巨头是如何看待 ChatGPT的?ChatGPT 能让TMT投资人“再干15年”吗?ChatGPT 正在对哪些工作岗位造成影响?ChatGPT 广泛使用后,人的认知能力会下降吗?ChatGPT 会导致哪些行业消失?哪些公司急需转型?小公司如何抓住 ChatGPT 的逆袭机会?硅谷现在如何看待 ChatGPT?普通人如何拥抱 ChatGPT ?报考计算机专业还有前途吗?OpenAI的组织设计给创业者带来哪些启示?ChatGPT效果如此“炸裂”,AI从业者们是否预见到了?险峰:去年AI作画也火过一阵,但都没能像ChatGPT一样让普通人感到震撼,似乎是一夜之间,AI就达到了一个如此炸裂的效果,基于各位对NLP与AIGC的理解,这种进步是在意料之中还是意料之外?陶芳波:刚才主持人已经介绍过我的背景,我本人从读博士到后来工作创业,一直在从事AI相关的科研工作,但坦白来说,这次ChatGPT给我带来的震撼,并不亚于屏幕前的每个人。传统上,越复杂的技术,信息壁垒也越高,所以过去的情况往往是,行业内的人都已经知道技术发展到了什么水平,但大众可能还不知道;而ChatGPT完全不是这样,它刚刚诞生3个月,我们就看到无论巨头大厂还是AI科学家们,都马上进入了一种非常紧张的应对状态,甚至可以说是应激状态。ChatGPT突然具有了这么强大的通用性能力和逻辑推理能力,是超出很多AI从业者设想的。为什么这件事会发生?我仅从个人角度做一个简单的总结。第一,是大数据和大算力的发展,这是一个基础。2012年深度学习刚刚诞生的时候,大家就尝试把更多的算力和数据灌输到一个模型中去,让AI具有更强的能力,这个逻辑在今天依然没有变化。我们知道人脑要比动物的大脑更聪明,两者最直观的差别,是人脑的神经元和神经突触更多,比如人脑的神经元有1000亿,神经突触可能有几万亿,今天ChatGPT可以达到上千亿的参数量,已经跟人脑比较接近了,量变才有可能引发质变,AI的发展首先要靠算力数据的指数级发展。第二,是在人工智能的发展背后,其实一直有「专用人工智能」和「通用人工智能」的两派观点的争论。以前我们熟悉的人工智能,比如计算机视觉算法和自然语言算法,都属于「专用人工智能」。而在他们以外,其实一直有另一拨人在尝试,有没有可能把单个的专项AI变成一个通用AI?用一个统一的大模型来解决所有的问题?这里面有几个关键性的节点,首先是2017年,谷歌大脑(Google brain)发表了一篇关于transformer的文章,奠定了包括今天ChatGPT所有技术的基础,细节这里不展开了――总之它让很多人意识到,通用型AI是有可能被造出来的。对此,谷歌的做法是首先搞一个底座,这个底座叫做「预训练大模型」,然后不断向底座里灌输数据,让它上面能长出一个个小模型来,再用这些小模型去解决不同的任务。这时出现了一家公司叫OpenAI,他说我不相信仍然需要训练小模型来造出通用AI,那我能不能直接让大模型去阅读互联网上所有的数据?砍掉中间环节,直接让人用语言去和大模型交流?基于这种思想,OpenAI在2018和2019年,分别推出了GPT1和GPT2,但当时它的通用性还不强,没有引起太多关注,然而到2020年,第三代也就是GPT3出现了。GPT3直接把模型参数量从15亿提升到1,750亿,接近了人脑中神经连接的数量水平,这时一个神奇的事情就发生了,AI开始「涌现」出了一些人脑独特的能力,甚至出现了逻辑判断能力,这在以前的机器学习界是不存在的,我甚至觉得连OpenAI内部都不一定能预判到这件事情会发生。而这个GPT3,就是今天ChatGPT诞生的起点,正是因为GPT3的出现,大家才开始去基于它去开发一些全新的AI能力。可以这么说,从2020年的GPT3开始,整个AI行业都进入到了下一代范式,至于它的边界在哪里,大家都不知道,没有人有足够的认知。这也是我想讲的第三点,就是OpenAI之所以能超越于谷歌,是他们真的在尝试理解「学习」这件事的本质。早期的AI要靠人工打标签,要一个活人坐在屏幕前告诉机器――这是一只猫,这是一只狗;之后发展到GPT3,这时已经不用再打标,而是让机器直接去阅读大量的数据,看它能不能找出里面蕴含的规律和规则。在这个基础上,OpenAI又进一步,他们说既然AI已经学了这么多知识,那下一步就是怎么把这些知识输出来,变成人可以用的东西;于是OpenAI开始教大模型如何自我改造,更好的去解答人类提出的指令,而后甚至演化成AI自我对抗一个人类制定的判断标准,完成AI的“社会化改造”,到2022年,ChatGPT横空出世了。刚才东旭提到,他现在每天都用ChatGPT帮自己写代码,代码其实比自然语言更有逻辑性,站在AI的视角,等于你也是在帮它培养逻辑能力。如果说GPT3还在无目的数据中学习,到了ChatGPT就已经变成了“在应用中学习”。整个过程真的很像一个年轻人走出校园,进入到公司中实习的感觉。所以我们可以看到,OpenAI一直在探索人类学习的本质是什么,当他们把这一整套工业化的体系和自己对AI的超前认知整合到一起,就创造出了ChatGPT,这时候所有人才发现,原来我们已经落后了OpenAI这么多,我们还在模仿人家2020年的GPT3版本。所以ChatGPT不仅对普通人是震撼,对大公司来说更是震撼,我们必须去面对这个全新的现实,思考该怎样迎接这样一个新物种的出现,以及未来人类分工的变化。费良宏:我补充两句,今天我们看到市场一夜间被引爆,但背后绝不是一日之功。首先是2017年transformer那篇论文,将整个NLP市场完全被颠覆了。以前很长一段时间里,大家都觉得非精确的模糊化语义很难被突破,但transformer出现之后,一下把NLP精度提升到了无法想象的量级。这时所有人的研究方向全部都开始转向了transformer,这是一个里程碑式的改变,我觉得怎么样去夸它都不为过。第二个是算力,刚才陶博士也提到,最早的时候我们自己搞一台电脑,装上1080Ti都可以跑一些模型,但今天由于参数提升,千亿级规模的算力已经不是普通人能参与的,也许真的是大力出奇迹,诞生了ChatGPT,那么未来延续着这条路,不断堆积数据量,增加模型的数量,比如据说GPT3使用了45PB的数据量,未来是不是可以用100PB数量、万亿级参数甚至更大规模的算力?或许真能诞生出一个非常强大的通用型AI,对此我是比较乐观的。龙波:我对于ChatGPT的出现并不特别惊讶,准确的说,是对它的效果不惊讶,但是速度上我还是挺惊讶的,没想到会来的这么快。刚才几位都谈到了一个重要的点,即transformer的里程碑作用,这里我想从NLP的角度分享一下,为什么它是里程碑?从NLP发展的逻辑来看,最早的NLP模型是基于对单个单词统计来做的,到后来卷积网络(CNN)出现,机器开始能够基于两三个单词来理解词义;再往下发展到RNN时代,这时AI基本上就可以沿着整个sequence进行积累,可以理解相对长的短语和句子,不过依然还无法真正理解上下文。随后一个很重要的突破,是「注意力机制」(attention model)被提出,其实transformer的核心概念也是来自于此;在这个阶段,AI开始能够结合所有上下文,理解每个词之间表达重要性的不同。这就很像我们的快速阅读,为什么人类能够做到“一目十行”,是因为我们能看到一些关键词,而每个词的重要性不一样。「注意力机制」正是起到了这个作用,它告诉AI各个关键词之间的关系如何,谁重要谁不重要。整个行业再往后就是transformer诞生,然后Bert(Bidirectional Encoder Representations from Transformers)诞生,其实Bert也非常重要,就像陶博士刚才提到的,Bert可以使用大量没有标注的数据,自己创建一些简单任务来做self learning。举个例子,比如一句话,AI会把其中的一个词藏起来,然后猜这个词应该是什么,有点像机器自己和自己玩游戏,如此它的语言理解能力就变得越来越强――我觉得到了这个时间点上,当AI开始利用大量非标注数据完成自主训练,ChatGPT的出现就只是个时间问题了。但是这也是它的局限性,ChatGPT无论如何惊艳,它仍然是个统计语言模型,本质还是基于它所看到过所有数据,用统计意义上的预测结果进行下一步输出,当它拿到的数据里有逻辑的时候,它会通过统计的方法把逻辑找出来,让你感觉到它的回答很有逻辑,但假如它读了很多杂乱无章的文本,它一样会说话没有逻辑,这是统计语言模型天生的缺陷。所以我并不确定,未来随着参数越来越多,ChatGPT能否真正成为AGI(通用人工智能)?因为人的推理能力并不完全基于统计信号,这是我个人比较保守的看法。ChatGPT是否能理解逻辑本身?险峰:这个话题本来是后面的,正好提到了就提前探讨一下。现在很多人会觉得ChatGPT很酷、很有逻辑,但有的时候也会觉得它在一本正经的胡说八道,有些很简单的问题它会答错,这件事反过来也会让大家好奇,ChatGPT是否真的具有逻辑?或者说理解逻辑?对此,也有两派观点,一派是觉得极致的模拟就可以实现逻辑,虽然只是基于统计学,但看起来有逻辑其实就等于逻辑本身;另一派觉得所有模拟都只能得到大概的正确,最后还是要建立在极其精准的规则之上,两派的分歧可能就是统计和规则的区别。此外还有第三种观点,借鉴了生物组织的复杂性来解释这个问题,比如蚁群,单独一只蚂蚁可能不知道自己在干什么,但是一个蚁群就可以做很多复杂的事情,这两者也类似于神经元和大脑的关系,对这个问题也想听听几位的思考。黄东旭:先说一个外部视角,我最近一直在用ChatGPT写代码,可能是玩的确实太多了,基本没有遇到AI胡说八道的情况;个人观点,很多人觉得它不准有两种情况,一种是问题没问对,如果问题本身是模糊的,它给出的答案也会是模糊的,比如一些开放式的问题。第二是它有些回答不一定是假的,只是中间跳过了很多步骤,比如一个问题,需要从A到B再到C依次推理,其实每一步都会有一些假设,但如果某个假设错了,答案也会出问题。所以我们内部在使用时,会不停地教ChatGPT如何思考,跟教小朋友一样,他回答错了就跟他说,你要不再读一遍题目?或者直接问他――那你觉得这个问题应该如何提问?最后你会发现,只要你把你想要的思考方法教给他,他回答的准确率会非常高。注意,在这个过程里,我们并没有向它提供任何的信息增量,所以我觉得ChatGPT已经超越了一个传统意义上的语言统计模型,绝对不是单纯的鹦鹉学舌,但我也不知道它为什么会有这个能力。陶芳波:我也简单说一下我的看法。我观察到一个现象,在GPT3出来之后,特别是今年ChatGPT出来之后,很多AI领域非常资深的人都在激烈地反对大模型。我曾经也有这样的心态,觉得这个东西也许就只是一个统计模型,解决不了人类的终极问题。但是现在我认为,这样的思想说严重点,就属于是“旧时代的余孽”,当然这句话是自嘲的,因为我曾经就是旧时代的余孽,但今天我选择去拥抱他。因为对于人工智能,我们永远都可以从「它在某某事情上做得还不够好」来批评它。但是如果我们回过头来想一下,一个人如果只有大脑,我们的逻辑能力又有多强?人的所谓逻辑能力,说到底也无非是通过直觉,跳过两三步来推演出一个结果,如果真到了六步七步的推理,我们光靠一个大脑也解决不了,也需要草稿纸和计算器,换句话说,人类也是要通过外部工具来增强逻辑能力的。从这个角度讲,今天ChatGPT所涌现出来的逻辑能力和人是其实差不多的。但是大家低估了一个东西,如果用发展的眼光再往前推一步,你觉得OpenAI下一步会做什么?微软下一步会做什么?一件非常可能的事,是他们会把ChatGPT跟各种各样的工具结合起来。那时,ChatGPT完全可以把这些工具变成自己的“草稿纸和计算器”,他自己只完成逻辑的部分即可。所以,我们其实可以把ChatGPT当做是一个非常稳定的原始大脑,未来他还将去学习使用工具,那时他所具有的能力会比今天大得多,这将是一个非常有想象力的未来。费良宏:非常认同陶博士,前几天看到LeCun在推特上跟人论战,谈ChatGPT对于AI的影响,我也有同样的感觉,就是可能很多人对ChatGPT的判断太拘泥于以往的经验了,还是把它当做是GPT3或者GPT2。比如OpenAI在发表ChatGPT的那篇论文中,专门提到他们使用了人类反馈的强化学习,去弥补堆砌资料造成的一些不足。所以某种程度来讲,ChatGPT的逻辑不仅仅是来自于文本的训练,还来自于人类给它的主观反馈,我们利用这种奖励机制,让AI产生一种内部的自我判断能力。我觉得这是一种非常巧妙的进步,相当于把强化学习跟大模型结合在了一起。今天可能我们的资源投入还比较有限,让ChatGPT不足以解决更广义上的所有问题,但未来如果我们的投入足够大,强化学习的引入程度足够高,机制设计得足够巧妙,会不会结果也将远远超出我们今天的预期?不过,这也引出了另外一个问题,就是关于ChatGPT倾向性的争论。随着人类用越来越多的反馈干预了它的判断,那会不会让ChatGPT带有某种思潮,比如说政治倾向,最近我看到国外有一些人对它进行测试,发现它在政治上并不是完全中立的,是一个左翼的自由派环保主义者。从这个角度出发,我认为ChatGPT是具有逻辑的,因为这个逻辑是由人赋予他的,也是人自身所存在的,这是我的看法。龙波:当一个非常有冲击性的产品出来后,人的观念很容易受到冲击,但这里还是要看一些根本问题是否发生了改变,这个话题涉及到一些更深刻的东西,即我们如何理解统计模型?比如大家都提到,ChatGPT反馈模型的提高,这是一定的,因为你给了它更多的统计数据,不论是用AI的方法,还是传统方法,模型都会提高,LeCun也谈到过这个问题,他并不是反对统计模型本身,他只是想说,如果我们要创造真正的通用人工智能,仅仅靠统计模型就够了吗?统计模型应用在人工智能领域已经几十年了,到深度学习神经网络达到高点,但是我们想一下,人的认知是纯粹基于统计的吗?我们每个人都知道,太阳从东边升起,这是我们每天都看到的,100%的概率,这是统计学上的认知,但是我们没有停留在这一点,我们最终理解了行星之间的相互作用力,从物理学的角度解释了这个现象。所以人类认知的本质是什么,我们对此的认知也还不够透彻,我觉得大师们是想说,统计模型之外,还有什么东西让机器能更接于近人?这个问题其实没有答案,他想表达的是一种open的心态,即统计模型不能解决一切,它甚至都没解决我们自己认知的问题。为什么谷歌没能做出ChatGPT?险峰:刚才大家都提到了transformer,它其实是由谷歌发表出来的,但今天做出ChatGPT的却是微软系的OpenAI,各位觉得这背后的原因是什么?龙波:确实很多人都有这个疑问,但其实到今天我依然认为,谷歌在技术上是非常领先的,ChatGPT最关键的核心模型起点,无论是transformer,还是后来的bert,这些概念都是谷歌首先提出来的。我们知道微软在算力方面给了ChatGPT很大帮助,但谷歌自己的TPU研发能力也非常强大,谷歌不缺算力,更不缺数据,但正因为如此,大公司要做出这种创新性很大的产品,注意我是说产品,一般都会被自己的优势束缚住手脚。首先谷歌是一个搜索引擎巨头,它对此非常自信,这反而让它对其他系统的投入和关注都不够,在我看来,谷歌被ChatGPT反超其实是有先兆的。比如语音助手,坦白说谷歌的产品是不如亚马逊和Siri的,像Google Assistant ,采用的依然是搜索引擎的用户界面,你给它搜索词,它就给你最高质量的回答,强调的还是单次交互,这种观念已经深入产品的设计之中,我觉得在互动体验上谷歌的投入是不足的。但这并不是说谷歌技术不行,我有不少前同事就在谷歌research工作,他们的技术发展得非常好、非常成熟,他们有最好的资源可以从事研究,但是他们认为搜索是他们最重要的产品,他们会下意识的用搜索的观念去做一些新产品,对用户的交互式体验本身就没有那么注重,这是我从产品角度的观察。费良宏:这个话题让我想到一段商业史故事。世界上第一台数码相机,是一名叫史蒂夫萨森的工程师在1975年发明的,他后来被称为"数码相机之父",但是当时,他是一名柯达公司的员工。后来据他回忆,这是一次前所未有的尝试,“公司内的反之强烈超出了他的想象”,结果38年之后,由于数码相机的崛起,传统胶片时代的王者柯达公司破产,我觉得回顾历史,跟今天也有非常相似的地方。今天整个搜索市场,谷歌占了96%,微软只有3%,但因为ChatGPT的出现,微软很可能也会颠覆搜索领域的格局,而谷歌空有技术却没有做出这个产品,我觉得可见一斑,历史总是惊人的相似。黄东旭:这是件特别有意思的事情,因为以前扮演这个颠覆者的,其实是Google自己。2000年的时候,雅虎的地位就和今天的Google一样,当时雅虎的搜索引擎走的是人工标注路线,说你看我人工标注的黄页多准确,而Google是当时几个大学生搞出来的,结果历史又一次重演。如果抛开数据量和算力这些硬性限制,只去看里面最核心的代码量,其实就是一个小团队就能写出来的。一家巨头再次被一家小公司打败,我觉得这就是软件行业有意思的地方,一个非常硅谷的故事。开源圈和云计算巨头是如何看待ChatGPT的?险峰:谷歌的早期模型都是开源的,但ChatGPT却选择了闭源,结果在2个月内用户破亿,东旭对此怎么看,ChatGPT的选择对于后来者是否有参考价值?黄东旭:我觉得ChatGPT的成功,并不在于开源或闭源,而是它向整个业界证明了某种技术的可行性,其实开源的工具一直都在,关键是有没有人会拿出几千万美金去做这些东西,对此我是比较乐观的,据我所知已经有一些开源项目在做和ChatGPT差不多的事情,未来很短的时间之内,一定会出现一个开源的通用语言大模型。它可能没有ChatGPT那么强,但是也会大致够用,甚至可能是一个通识模型,你可以把它装载到自己的系统里面去,跟它一起去协作,我觉得很快就会有人沿着ChatGPT的路线,做出可以私有化部署的开源大模型,可能会是一个大厂或者一个foundation,每隔半年change一次,然后大家下载下来用。险峰:云计算大厂们怎么看ChatGPT?费良宏:AI的商业化主要是SaaS化,之前有很多成功案例了。另外从技术角度来看,AI的推理能力API化也已经是一种标准做法,比如在云上部署一个推理服务器,让前端用户可以非常快速地获得图像语音内容,这两种模式在云计算发展的历史上已经被证明是完全可行的。接下来的关键就是如何差异化的大模型,我个人认为,我们可能低估计了ChatGPT的工程化难度,比如说并行训练、标注以及数据管理的工作量和成本开销,都会是非常巨大的,所以我不认为在短时间内,会有大量能完全媲美ChatGPT的竞品出现。当然,下一步还是有很多人会去做与ChatGPT类似的事情,但是我认为时间上可能会比较久,这其中,我个人比较看好谷歌和微软,因为他们之前的积累已经有足够多。其实刚才也谈到了微软的问题,虽然微软只是给ChatGPT投了钱,技术上没有参与,但是从它的布局来看,我觉得微软其实非常有野心,要知道2019年微软就开始向OpenAI投钱,第一次就投了10亿美元,2020年就跟OpenAI谈妥了GPT3的独家授权,2021年微软就专门给OpenAI构建了自己的超算能力。微软提供的这些工程能力和云计算能力,足以确保OpenAI继续保持领先优势,如果未来任何一个竞争对手想要超越OpenAI,在这些资源上都要加倍付出,甚至要在短时间内实现突破才有可能,但是现在,时间反而是最稀缺的,像之前“学徒巴德”(Apprentice Bard)在谷歌的发布会上“翻车”也说明,互联网产品的竞争是非常残酷的,虽然你也能做出来一个差不多的,但只要你不能超越市场中最好的,那就意味着失败。陶芳波:我接着这个话题稍微说下,因为我们的业务跟大模型接触非常多,首先大模型开源这件事不是刚刚开始,其实去年很多公司已经出来了,包括OPT(Meta AI 的开源项目)和BLOOM(法国政府资助的开源AI),但其实它们和ChatGPT的差距非常大。我觉得OpenAI的竞争力,表现在他们对于数据使用方式的认知,还有刚才费老师提到的工程能力和数据体系,这套东西不是说拿出50亿美金,招很多的人马上就可以解决的,这是现在很多投资人的误解。另外,我觉得AI的分层其实在今天就已经开始了,像Sam Altman(OpenAI首席执行官)自己就说过,OpenAI现在就是个Infra,未来在它上面可能会有中间层,这个中间层的作用是帮助一个个大模型Infra变成各个行业里的解决方案。ChatGPT 能让TMT投资人“再干15年”吗?险峰:ChatGPT下一步会往何处去?会不会被下一个transformer颠覆?陶芳波:个人观点,我们可以从底层视角来看,比如今天OpenAI做出了ChatGPT,未来或许还会有GPT4,我们先假设OpenAI的技术是最领先的,现在后面有一堆大厂巨头和创业公司,正在或者将要做大模型,那如果我是OpenAI,我接下来会做什么?我觉得第一个方向,还是怎样用好手上的现有数据,把模型的潜力全部挖掘出来。下一代GPT的参数量也许还能再大个10倍,但估计也就是这个规模了,不可能再扩大1000倍,因为参数要有足够的数据来匹配,全世界的优质数据就这么多,参数量搞得再大效果也不有太大提升。另一个方向,也是Anthropic提出的,叫做「宪法AI」。就是我们能不能让AI在一套宪法,或者说一套规则下,实现自我进化,最终变得符合这套规则。举个例子,每个国家都有自己的监管体系,比如中东地区,只有符合当地监管的AI才能进入该国,我觉得这会是一个非常好的方向,可以大大降低AI吸收信息的成本,提高它的效率。第三个方向是多模态,让OpenAI变成一个思考引擎。我们知道人类的感知不是单一的,而是许多模块组成的,不是说用户说了一段话,我能感受到这段话就够了,最简单的,比如看漫画书,人能够把感知图像和感知文字结合在一起,而不是两个单独的东西。所以我觉得,接下来大模型会在这些方向上继续发展,这是一个底座,这种状态会维持相当长一段时间,而接下来才是更巨大的挑战,无论是投资人,还是创业者,我们到底应该怎样去迎接ChatGPT的革命性变化,在它上面重构一个巨大的新体系?举个例子,2007年iPhone诞生,10年之后你会发现整个互联网生态都变了,iPhone上面长出了各种各样的应用,这10年间,全球诞生了多少独角兽,诞生了多少千亿、万亿美金级的公司,这些公司在iPhone出现之前都是不存在的,都是从一个很小的作坊开始做起来的。我觉得今天大量的机会其实是这里面,首先是中间层的机会,就像在大模型外面搭一个脚手架,让它有1000只手1000只脚,可以做更复杂的事情,比如基于如何使用大模型构建一个社区,这是一种最轻量级的创业思路。再比如教会大模型怎么去使用外部工具,怎么样更好的去理解对面的用户,而不只是从文字输入来理解他――这也是我们正在做的事情。在中间层上面,还会有各种应用层,刚才费老师也讲到,AI在SaaS端已经被验证了,但我个人认为这一波AI浪潮席卷的范围会远大于SaaS。因为SaaS更多还是服务于企业的效率工具,但ChatGPT肯定会拓展到C端,比如说健身、医疗,都有机会可以重做出一个交互式的软件,把用户界面完全抛弃掉,和移动互联网时代相比,我认为这会是一种全新体验的产品。黄东旭:我也有类似的观点,其实软件的进步一直都是交互方式的进步,以前是字符界面,到后来是UI,沿着这条线往下走,未来最重要的软件交互形态其实就是自然语言。过去我们一直在尝试,让软件的使用变得更加贴近人类自然语言,但是今天我们终于有了这样一个新工具,能重新去塑造我们跟软件的沟通方式。以前我们用软件,比如说Linux,输入一堆命令,机器才能去完成一件事情,相当于我们要去学习机器的语言。但现在有了ChatGPT,你可以直接去跟他说,我想要到达到某某结果,我不管你怎么干,最后能给我结果就好,这其实是一个非常颠覆性的东西,所以我们现在正在做的,不断跟GPT磨合的,也是类似的思路。陶芳波:我记得ChatGPT刚出来的时候,就有投资人提出一个观点,说TMT可以重新再干15年,我觉得这个逻辑是对的,因为上个时代我们基于移动互联网,做出了各种各样的APP,而今天新的交互形式出现了,每一个细分的赛道上可能都会成长出一个全新的独角兽,或者全新的商业模式,我觉得是一个完全的大洗牌。今天ChatGPT的潜力大概只发挥了百分之几,就已经创造出超过了万亿的市场,未来这个规模可能是几十万亿。ChatGPT 正在对哪些工作岗位造成影响?险峰:这个问题是帮别人问的,他是个很早期的NLP从业者,想问大模型出来以后,其他的模型可能就成为历史了,他们这些人未来应该怎么办?龙波:这个问题的答案还是比较清晰的,以前那些传统的NLP的手段,在这个时代肯定是不会再有用了,比如大量的语法树之类,非常繁琐,过去开发过程很痛苦,要一支很大的团队才能做出一个很小的东西,我们肯定不会再回到那个年代,老的技术基本都可以用大型语言模型(LLM,large language model)替代。对于ChatGPT的未来,我非常同意陶博士刚才说的,如果只是一味地增加数据或增加参数,不一定还能得到好的ROI,因为你给了更多的数据,就意味着有更多的噪音

万达信息化 万达软件开发的啥项目


每经 AI 快讯,有投资者在投资者互动平台提问:从澎湃新闻看到的上海市大数据中心主任邵军介绍,针对近来热门的 "ChatGPT",上海市大数据中心正积极会同国内相关企业开展技术研究,在守牢数据安全底线的前提下推动这项新技术尽快与 " 一网通办 " 服务相结合,让 " 一网通办 " 服务更智能、目前市大数据中心与 ChatGPT 正进行技术对接,有望推出相关服务;" 一网通办 " 由贵公司承建的,与 ChatGPT 的技术对接贵公司参与了吗,能介绍一下相关情况吗,谢谢!万达信息(300168.SZ)2 月 23 日在投资者互动平台表示,目前公司暂未有 ChatGPT 应用落地,但一定会密切关注和研究。 ( 记者 蔡鼎 ) 免责声明:本文内容与数据仅供参考,不构成投资建议,使用前核实。据此操作,风险自担。每日经济新闻

万达信息化 万达信息产品


每经AI快讯,有投资者在投资者互动平台提问:董秘您好,2月21日上海大数据中心主任在“2023数字上海新风景”中介绍,正在研究“一网通办”和“随申办”接入chatgpt,以此达到更加智能化,请问贵公司是否已经开始展开这方面行动。 万达信息(300168.SZ)2月23日在投资者互动平台表示,目前公司暂未有ChatGPT应用落地,但一定会密切关注和研究。 (记者 尹华禄) 免责声明:本文内容与数据仅供参考,不构成投资建议,使用前核实。据此操作,风险自担。