淘优惠

淘优惠

chatgpt用的什么专业 chatgpt可以教学生知识吗

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chat type
原标题:ChatGPT考硕士、考执照,ChatGPT到底牛在哪? 有很多朋友问我,ChatGPT到底多牛?事实上,很难回答,因为它的智商每天都在改变和成长。至少现在,它在某些知识领域确实有超过人类!我整理了一下,从它通过的各种考试看: ChatGPT参加大学、研究生、职业执照考试多多。。。 根据CNN报道,明尼苏达大学法学院的教授,让ChatGPT通过研究生级别法学考试,教授没有说多少分,只说分数不特别高; 在佛罗里达农工大学法学院的入学考试中,ChatGPT获149分,排名前40%; 它也挑战了美国律师职业道德考试(MPRE),共15题,ChatGPT答对9题,正确率60%; 在ChatGPT在律师资格50个模拟考试题中,它答对了35题,正确率在70%; ChatGPT还挑战了美国USMLE医师执照第一阶段基础医学的考试。在去掉图像题目后,ChatGPT的正确率达70%; 但在CPA注册会计师考试中,准确率只有40%; 此外,沃顿商学院的Terwiesch教授,将MBA必修课的【运营管理】试题考ChatGPT,共95个选择题和12个作文题,获得了B到B的成绩,但被评分:在数学方面犯下“令人惊讶的错误。。。 总之,如果不计ChatGPT的编程能力,它大约还是一个中等偏下的AI文科生,有时在文字组合功底方面有“中等偏上”、甚至“上”的超过专家的能力。但是,它数学很差哦。 也就是说,如果你问他投资、交易、或需要逻辑判断等方面的问题,它会给你很多“正确的废话”(看上去好像是对的,实际上没有什么价值),因为它搜索文字和组织文字的能力太强大了,直接将Google时代结束了! ChatGPT有多牛?返回搜狐,查看更多 责任编辑:

浅谈chatgpt工作的底层逻辑 ChatGPT会颠覆什么行业

浅谈插图与其他艺术作品的区别?,浅谈成语,浅谈春山,浅谈初高中英语的衔接问题与策略
图片来源@视觉中国文|险峰创2023年险峰线上沙龙的第一期,我们和四位行业大牛聊了聊最近大火的ChatGPT。首先介绍一下本场嘉宾:陶芳波博士是前Facebook高级研究科学家,回国后进入阿里达摩院,搭建了阿里的神经符号实验室,属于全球最顶级的AI科学家之一,目前正在创业,担任人工智能公司「心识宇宙」的CEO。黄东旭是险峰的老朋友,「PingCAP」的联合创始人兼CTO,他本人是国内最早一批开源数据库的创业者,在程序员圈子里非常活跃;PingCAP也是目前Infra领域估值最高的科技公司之一,险峰曾在天使轮分别投资了PingCAP和心识宇宙。费良宏老师是AWS的首席架构师,曾供职于微软、苹果等多家硅谷巨头担任技术顾问,在云计算行业里深耕多年;龙波博士目前担任Meta商业化AI研究团队的负责人,之前曾深度参与过京东搜索推荐算法的搭建。此次圆桌由险峰长青投资副总裁李抗主持,李抗主要专注于人工智能、机器人、云计算等方向的投资。本次我们将聊到:ChatGPT 效果如此“炸裂”,AI从业者们事先是否预见到了?ChatGPT 是否能理解语言逻辑本身?为什么谷歌没能做出 ChatGPT?开源圈和云计算巨头是如何看待 ChatGPT的?ChatGPT 能让TMT投资人“再干15年”吗?ChatGPT 正在对哪些工作岗位造成影响?ChatGPT 广泛使用后,人的认知能力会下降吗?ChatGPT 会导致哪些行业消失?哪些公司急需转型?小公司如何抓住 ChatGPT 的逆袭机会?硅谷现在如何看待 ChatGPT?普通人如何拥抱 ChatGPT ?报考计算机专业还有前途吗?OpenAI的组织设计给创业者带来哪些启示?ChatGPT效果如此“炸裂”,AI从业者们是否预见到了?险峰:去年AI作画也火过一阵,但都没能像ChatGPT一样让普通人感到震撼,似乎是一夜之间,AI就达到了一个如此炸裂的效果,基于各位对NLP与AIGC的理解,这种进步是在意料之中还是意料之外?陶芳波:刚才主持人已经介绍过我的背景,我本人从读博士到后来工作创业,一直在从事AI相关的科研工作,但坦白来说,这次ChatGPT给我带来的震撼,并不亚于屏幕前的每个人。传统上,越复杂的技术,信息壁垒也越高,所以过去的情况往往是,行业内的人都已经知道技术发展到了什么水平,但大众可能还不知道;而ChatGPT完全不是这样,它刚刚诞生3个月,我们就看到无论巨头大厂还是AI科学家们,都马上进入了一种非常紧张的应对状态,甚至可以说是应激状态。ChatGPT突然具有了这么强大的通用性能力和逻辑推理能力,是超出很多AI从业者设想的。为什么这件事会发生?我仅从个人角度做一个简单的总结。第一,是大数据和大算力的发展,这是一个基础。2012年深度学习刚刚诞生的时候,大家就尝试把更多的算力和数据灌输到一个模型中去,让AI具有更强的能力,这个逻辑在今天依然没有变化。我们知道人脑要比动物的大脑更聪明,两者最直观的差别,是人脑的神经元和神经突触更多,比如人脑的神经元有1000亿,神经突触可能有几万亿,今天ChatGPT可以达到上千亿的参数量,已经跟人脑比较接近了,量变才有可能引发质变,AI的发展首先要靠算力数据的指数级发展。第二,是在人工智能的发展背后,其实一直有「专用人工智能」和「通用人工智能」的两派观点的争论。以前我们熟悉的人工智能,比如计算机视觉算法和自然语言算法,都属于「专用人工智能」。而在他们以外,其实一直有另一拨人在尝试,有没有可能把单个的专项AI变成一个通用AI?用一个统一的大模型来解决所有的问题?这里面有几个关键性的节点,首先是2017年,谷歌大脑(Google brain)发表了一篇关于transformer的文章,奠定了包括今天ChatGPT所有技术的基础,细节这里不展开了——总之它让很多人意识到,通用型AI是有可能被造出来的。对此,谷歌的做法是首先搞一个底座,这个底座叫做「预训练大模型」,然后不断向底座里灌输数据,让它上面能长出一个个小模型来,再用这些小模型去解决不同的任务。这时出现了一家公司叫OpenAI,他说我不相信仍然需要训练小模型来造出通用AI,那我能不能直接让大模型去阅读互联网上所有的数据?砍掉中间环节,直接让人用语言去和大模型交流?基于这种思想,OpenAI在2018和2019年,分别推出了GPT1和GPT2,但当时它的通用性还不强,没有引起太多关注,然而到2020年,第三代也就是GPT3出现了。GPT3直接把模型参数量从15亿提升到1,750亿,接近了人脑中神经连接的数量水平,这时一个神奇的事情就发生了,AI开始「涌现」出了一些人脑独特的能力,甚至出现了逻辑判断能力,这在以前的机器学习界是不存在的,我甚至觉得连OpenAI内部都不一定能预判到这件事情会发生。而这个GPT3,就是今天ChatGPT诞生的起点,正是因为GPT3的出现,大家才开始去基于它去开发一些全新的AI能力。可以这么说,从2020年的GPT3开始,整个AI行业都进入到了下一代范式,至于它的边界在哪里,大家都不知道,没有人有足够的认知。这也是我想讲的第三点,就是OpenAI之所以能超越于谷歌,是他们真的在尝试理解「学习」这件事的本质。早期的AI要靠人工打标签,要一个活人坐在屏幕前告诉机器——这是一只猫,这是一只狗;之后发展到GPT3,这时已经不用再打标,而是让机器直接去阅读大量的数据,看它能不能找出里面蕴含的规律和规则。在这个基础上,OpenAI又进一步,他们说既然AI已经学了这么多知识,那下一步就是怎么把这些知识输出来,变成人可以用的东西;于是OpenAI开始教大模型如何自我改造,更好的去解答人类提出的指令,而后甚至演化成AI自我对抗一个人类制定的判断标准,完成AI的“社会化改造”,到2022年,ChatGPT横空出世了。刚才东旭提到,他现在每天都用ChatGPT帮自己写代码,代码其实比自然语言更有逻辑性,站在AI的视角,等于你也是在帮它培养逻辑能力。如果说GPT3还在无目的数据中学习,到了ChatGPT就已经变成了“在应用中学习”。整个过程真的很像一个年轻人走出校园,进入到公司中实习的感觉。所以我们可以看到,OpenAI一直在探索人类学习的本质是什么,当他们把这一整套工业化的体系和自己对AI的超前认知整合到一起,就创造出了ChatGPT,这时候所有人才发现,原来我们已经落后了OpenAI这么多,我们还在模仿人家2020年的GPT3版本。所以ChatGPT不仅对普通人是震撼,对大公司来说更是震撼,我们必须去面对这个全新的现实,思考该怎样迎接这样一个新物种的出现,以及未来人类分工的变化。费良宏:我补充两句,今天我们看到市场一夜间被引爆,但背后绝不是一日之功。首先是2017年transformer那篇论文,将整个NLP市场完全被颠覆了。以前很长一段时间里,大家都觉得非精确的模糊化语义很难被突破,但transformer出现之后,一下把NLP精度提升到了无法想象的量级。这时所有人的研究方向全部都开始转向了transformer,这是一个里程碑式的改变,我觉得怎么样去夸它都不为过。第二个是算力,刚才陶博士也提到,最早的时候我们自己搞一台电脑,装上1080Ti都可以跑一些模型,但今天由于参数提升,千亿级规模的算力已经不是普通人能参与的,也许真的是大力出奇迹,诞生了ChatGPT,那么未来延续着这条路,不断堆积数据量,增加模型的数量,比如据说GPT3使用了45PB的数据量,未来是不是可以用100PB数量、万亿级参数甚至更大规模的算力?或许真能诞生出一个非常强大的通用型AI,对此我是比较乐观的。龙波:我对于ChatGPT的出现并不特别惊讶,准确的说,是对它的效果不惊讶,但是速度上我还是挺惊讶的,没想到会来的这么快。刚才几位都谈到了一个重要的点,即transformer的里程碑作用,这里我想从NLP的角度分享一下,为什么它是里程碑?从NLP发展的逻辑来看,最早的NLP模型是基于对单个单词统计来做的,到后来卷积网络(CNN)出现,机器开始能够基于两三个单词来理解词义;再往下发展到RNN时代,这时AI基本上就可以沿着整个sequence进行积累,可以理解相对长的短语和句子,不过依然还无法真正理解上下文。随后一个很重要的突破,是「注意力机制」(attention model)被提出,其实transformer的核心概念也是来自于此;在这个阶段,AI开始能够结合所有上下文,理解每个词之间表达重要性的不同。这就很像我们的快速阅读,为什么人类能够做到“一目十行”,是因为我们能看到一些关键词,而每个词的重要性不一样。「注意力机制」正是起到了这个作用,它告诉AI各个关键词之间的关系如何,谁重要谁不重要。整个行业再往后就是transformer诞生,然后Bert(Bidirectional Encoder Representations from Transformers)诞生,其实Bert也非常重要,就像陶博士刚才提到的,Bert可以使用大量没有标注的数据,自己创建一些简单任务来做self learning。举个例子,比如一句话,AI会把其中的一个词藏起来,然后猜这个词应该是什么,有点像机器自己和自己玩游戏,如此它的语言理解能力就变得越来越强——我觉得到了这个时间点上,当AI开始利用大量非标注数据完成自主训练,ChatGPT的出现就只是个时间问题了。但是这也是它的局限性,ChatGPT无论如何惊艳,它仍然是个统计语言模型,本质还是基于它所看到过所有数据,用统计意义上的预测结果进行下一步输出,当它拿到的数据里有逻辑的时候,它会通过统计的方法把逻辑找出来,让你感觉到它的回答很有逻辑,但假如它读了很多杂乱无章的文本,它一样会说话没有逻辑,这是统计语言模型天生的缺陷。所以我并不确定,未来随着参数越来越多,ChatGPT能否真正成为AGI(通用人工智能)?因为人的推理能力并不完全基于统计信号,这是我个人比较保守的看法。ChatGPT是否能理解逻辑本身?险峰:这个话题本来是后面的,正好提到了就提前探讨一下。现在很多人会觉得ChatGPT很酷、很有逻辑,但有的时候也会觉得它在一本正经的胡说八道,有些很简单的问题它会答错,这件事反过来也会让大家好奇,ChatGPT是否真的具有逻辑?或者说理解逻辑?对此,也有两派观点,一派是觉得极致的模拟就可以实现逻辑,虽然只是基于统计学,但看起来有逻辑其实就等于逻辑本身;另一派觉得所有模拟都只能得到大概的正确,最后还是要建立在极其精准的规则之上,两派的分歧可能就是统计和规则的区别。此外还有第三种观点,借鉴了生物组织的复杂性来解释这个问题,比如蚁群,单独一只蚂蚁可能不知道自己在干什么,但是一个蚁群就可以做很多复杂的事情,这两者也类似于神经元和大脑的关系,对这个问题也想听听几位的思考。黄东旭:先说一个外部视角,我最近一直在用ChatGPT写代码,可能是玩的确实太多了,基本没有遇到AI胡说八道的情况;个人观点,很多人觉得它不准有两种情况,一种是问题没问对,如果问题本身是模糊的,它给出的答案也会是模糊的,比如一些开放式的问题。第二是它有些回答不一定是假的,只是中间跳过了很多步骤,比如一个问题,需要从A到B再到C依次推理,其实每一步都会有一些假设,但如果某个假设错了,答案也会出问题。所以我们内部在使用时,会不停地教ChatGPT如何思考,跟教小朋友一样,他回答错了就跟他说,你要不再读一遍题目?或者直接问他——那你觉得这个问题应该如何提问?最后你会发现,只要你把你想要的思考方法教给他,他回答的准确率会非常高。注意,在这个过程里,我们并没有向它提供任何的信息增量,所以我觉得ChatGPT已经超越了一个传统意义上的语言统计模型,绝对不是单纯的鹦鹉学舌,但我也不知道它为什么会有这个能力。陶芳波:我也简单说一下我的看法。我观察到一个现象,在GPT3出来之后,特别是今年ChatGPT出来之后,很多AI领域非常资深的人都在激烈地反对大模型。我曾经也有这样的心态,觉得这个东西也许就只是一个统计模型,解决不了人类的终极问题。但是现在我认为,这样的思想说严重点,就属于是“旧时代的余孽”,当然这句话是自嘲的,因为我曾经就是旧时代的余孽,但今天我选择去拥抱他。因为对于人工智能,我们永远都可以从「它在某某事情上做得还不够好」来批评它。但是如果我们回过头来想一下,一个人如果只有大脑,我们的逻辑能力又有多强?人的所谓逻辑能力,说到底也无非是通过直觉,跳过两三步来推演出一个结果,如果真到了六步七步的推理,我们光靠一个大脑也解决不了,也需要草稿纸和计算器,换句话说,人类也是要通过外部工具来增强逻辑能力的。从这个角度讲,今天ChatGPT所涌现出来的逻辑能力和人是其实差不多的。但是大家低估了一个东西,如果用发展的眼光再往前推一步,你觉得OpenAI下一步会做什么?微软下一步会做什么?一件非常可能的事,是他们会把ChatGPT跟各种各样的工具结合起来。那时,ChatGPT完全可以把这些工具变成自己的“草稿纸和计算器”,他自己只完成逻辑的部分即可。所以,我们其实可以把ChatGPT当做是一个非常稳定的原始大脑,未来他还将去学习使用工具,那时他所具有的能力会比今天大得多,这将是一个非常有想象力的未来。费良宏:非常认同陶博士,前几天看到LeCun在推特上跟人论战,谈ChatGPT对于AI的影响,我也有同样的感觉,就是可能很多人对ChatGPT的判断太拘泥于以往的经验了,还是把它当做是GPT3或者GPT2。比如OpenAI在发表ChatGPT的那篇论文中,专门提到他们使用了人类反馈的强化学习,去弥补堆砌资料造成的一些不足。所以某种程度来讲,ChatGPT的逻辑不仅仅是来自于文本的训练,还来自于人类给它的主观反馈,我们利用这种奖励机制,让AI产生一种内部的自我判断能力。我觉得这是一种非常巧妙的进步,相当于把强化学习跟大模型结合在了一起。今天可能我们的资源投入还比较有限,让ChatGPT不足以解决更广义上的所有问题,但未来如果我们的投入足够大,强化学习的引入程度足够高,机制设计得足够巧妙,会不会结果也将远远超出我们今天的预期?不过,这也引出了另外一个问题,就是关于ChatGPT倾向性的争论。随着人类用越来越多的反馈干预了它的判断,那会不会让ChatGPT带有某种思潮,比如说政治倾向,最近我看到国外有一些人对它进行测试,发现它在政治上并不是完全中立的,是一个左翼的自由派环保主义者。从这个角度出发,我认为ChatGPT是具有逻辑的,因为这个逻辑是由人赋予他的,也是人自身所存在的,这是我的看法。龙波:当一个非常有冲击性的产品出来后,人的观念很容易受到冲击,但这里还是要看一些根本问题是否发生了改变,这个话题涉及到一些更深刻的东西,即我们如何理解统计模型?比如大家都提到,ChatGPT反馈模型的提高,这是一定的,因为你给了它更多的统计数据,不论是用AI的方法,还是传统方法,模型都会提高,LeCun也谈到过这个问题,他并不是反对统计模型本身,他只是想说,如果我们要创造真正的通用人工智能,仅仅靠统计模型就够了吗?统计模型应用在人工智能领域已经几十年了,到深度学习神经网络达到高点,但是我们想一下,人的认知是纯粹基于统计的吗?我们每个人都知道,太阳从东边升起,这是我们每天都看到的,100%的概率,这是统计学上的认知,但是我们没有停留在这一点,我们最终理解了行星之间的相互作用力,从物理学的角度解释了这个现象。所以人类认知的本质是什么,我们对此的认知也还不够透彻,我觉得大师们是想说,统计模型之外,还有什么东西让机器能更接于近人?这个问题其实没有答案,他想表达的是一种open的心态,即统计模型不能解决一切,它甚至都没解决我们自己认知的问题。为什么谷歌没能做出ChatGPT?险峰:刚才大家都提到了transformer,它其实是由谷歌发表出来的,但今天做出ChatGPT的却是微软系的OpenAI,各位觉得这背后的原因是什么?龙波:确实很多人都有这个疑问,但其实到今天我依然认为,谷歌在技术上是非常领先的,ChatGPT最关键的核心模型起点,无论是transformer,还是后来的bert,这些概念都是谷歌首先提出来的。我们知道微软在算力方面给了ChatGPT很大帮助,但谷歌自己的TPU研发能力也非常强大,谷歌不缺算力,更不缺数据,但正因为如此,大公司要做出这种创新性很大的产品,注意我是说产品,一般都会被自己的优势束缚住手脚。首先谷歌是一个搜索引擎巨头,它对此非常自信,这反而让它对其他系统的投入和关注都不够,在我看来,谷歌被ChatGPT反超其实是有先兆的。比如语音助手,坦白说谷歌的产品是不如亚马逊和Siri的,像Google Assistant ,采用的依然是搜索引擎的用户界面,你给它搜索词,它就给你最高质量的回答,强调的还是单次交互,这种观念已经深入产品的设计之中,我觉得在互动体验上谷歌的投入是不足的。但这并不是说谷歌技术不行,我有不少前同事就在谷歌research工作,他们的技术发展得非常好、非常成熟,他们有最好的资源可以从事研究,但是他们认为搜索是他们最重要的产品,他们会下意识的用搜索的观念去做一些新产品,对用户的交互式体验本身就没有那么注重,这是我从产品角度的观察。费良宏:这个话题让我想到一段商业史故事。世界上第一台数码相机,是一名叫史蒂夫萨森的工程师在1975年发明的,他后来被称为"数码相机之父",但是当时,他是一名柯达公司的员工。后来据他回忆,这是一次前所未有的尝试,“公司内的反之强烈超出了他的想象”,结果38年之后,由于数码相机的崛起,传统胶片时代的王者柯达公司破产,我觉得回顾历史,跟今天也有非常相似的地方。今天整个搜索市场,谷歌占了96%,微软只有3%,但因为ChatGPT的出现,微软很可能也会颠覆搜索领域的格局,而谷歌空有技术却没有做出这个产品,我觉得可见一斑,历史总是惊人的相似。黄东旭:这是件特别有意思的事情,因为以前扮演这个颠覆者的,其实是Google自己。2000年的时候,雅虎的地位就和今天的Google一样,当时雅虎的搜索引擎走的是人工标注路线,说你看我人工标注的黄页多准确,而Google是当时几个大学生搞出来的,结果历史又一次重演。如果抛开数据量和算力这些硬性限制,只去看里面最核心的代码量,其实就是一个小团队就能写出来的。一家巨头再次被一家小公司打败,我觉得这就是软件行业有意思的地方,一个非常硅谷的故事。开源圈和云计算巨头是如何看待ChatGPT的?险峰:谷歌的早期模型都是开源的,但ChatGPT却选择了闭源,结果在2个月内用户破亿,东旭对此怎么看,ChatGPT的选择对于后来者是否有参考价值?黄东旭:我觉得ChatGPT的成功,并不在于开源或闭源,而是它向整个业界证明了某种技术的可行性,其实开源的工具一直都在,关键是有没有人会拿出几千万美金去做这些东西,对此我是比较乐观的,据我所知已经有一些开源项目在做和ChatGPT差不多的事情,未来很短的时间之内,一定会出现一个开源的通用语言大模型。它可能没有ChatGPT那么强,但是也会大致够用,甚至可能是一个通识模型,你可以把它装载到自己的系统里面去,跟它一起去协作,我觉得很快就会有人沿着ChatGPT的路线,做出可以私有化部署的开源大模型,可能会是一个大厂或者一个foundation,每隔半年change一次,然后大家下载下来用。险峰:云计算大厂们怎么看ChatGPT?费良宏:AI的商业化主要是SaaS化,之前有很多成功案例了。另外从技术角度来看,AI的推理能力API化也已经是一种标准做法,比如在云上部署一个推理服务器,让前端用户可以非常快速地获得图像语音内容,这两种模式在云计算发展的历史上已经被证明是完全可行的。接下来的关键就是如何差异化的大模型,我个人认为,我们可能低估计了ChatGPT的工程化难度,比如说并行训练、标注以及数据管理的工作量和成本开销,都会是非常巨大的,所以我不认为在短时间内,会有大量能完全媲美ChatGPT的竞品出现。当然,下一步还是有很多人会去做与ChatGPT类似的事情,但是我认为时间上可能会比较久,这其中,我个人比较看好谷歌和微软,因为他们之前的积累已经有足够多。其实刚才也谈到了微软的问题,虽然微软只是给ChatGPT投了钱,技术上没有参与,但是从它的布局来看,我觉得微软其实非常有野心,要知道2019年微软就开始向OpenAI投钱,第一次就投了10亿美元,2020年就跟OpenAI谈妥了GPT3的独家授权,2021年微软就专门给OpenAI构建了自己的超算能力。微软提供的这些工程能力和云计算能力,足以确保OpenAI继续保持领先优势,如果未来任何一个竞争对手想要超越OpenAI,在这些资源上都要加倍付出,甚至要在短时间内实现突破才有可能,但是现在,时间反而是最稀缺的,像之前“学徒巴德”(Apprentice Bard)在谷歌的发布会上“翻车”也说明,互联网产品的竞争是非常残酷的,虽然你也能做出来一个差不多的,但只要你不能超越市场中最好的,那就意味着失败。陶芳波:我接着这个话题稍微说下,因为我们的业务跟大模型接触非常多,首先大模型开源这件事不是刚刚开始,其实去年很多公司已经出来了,包括OPT(Meta AI 的开源项目)和BLOOM(法国政府资助的开源AI),但其实它们和ChatGPT的差距非常大。我觉得OpenAI的竞争力,表现在他们对于数据使用方式的认知,还有刚才费老师提到的工程能力和数据体系,这套东西不是说拿出50亿美金,招很多的人马上就可以解决的,这是现在很多投资人的误解。另外,我觉得AI的分层其实在今天就已经开始了,像Sam Altman(OpenAI首席执行官)自己就说过,OpenAI现在就是个Infra,未来在它上面可能会有中间层,这个中间层的作用是帮助一个个大模型Infra变成各个行业里的解决方案。ChatGPT 能让TMT投资人“再干15年”吗?险峰:ChatGPT下一步会往何处去?会不会被下一个transformer颠覆?陶芳波:个人观点,我们可以从底层视角来看,比如今天OpenAI做出了ChatGPT,未来或许还会有GPT4,我们先假设OpenAI的技术是最领先的,现在后面有一堆大厂巨头和创业公司,正在或者将要做大模型,那如果我是OpenAI,我接下来会做什么?我觉得第一个方向,还是怎样用好手上的现有数据,把模型的潜力全部挖掘出来。下一代GPT的参数量也许还能再大个10倍,但估计也就是这个规模了,不可能再扩大1000倍,因为参数要有足够的数据来匹配,全世界的优质数据就这么多,参数量搞得再大效果也不有太大提升。另一个方向,也是Anthropic提出的,叫做「宪法AI」。就是我们能不能让AI在一套宪法,或者说一套规则下,实现自我进化,最终变得符合这套规则。举个例子,每个国家都有自己的监管体系,比如中东地区,只有符合当地监管的AI才能进入该国,我觉得这会是一个非常好的方向,可以大大降低AI吸收信息的成本,提高它的效率。第三个方向是多模态,让OpenAI变成一个思考引擎。我们知道人类的感知不是单一的,而是许多模块组成的,不是说用户说了一段话,我能感受到这段话就够了,最简单的,比如看漫画书,人能够把感知图像和感知文字结合在一起,而不是两个单独的东西。所以我觉得,接下来大模型会在这些方向上继续发展,这是一个底座,这种状态会维持相当长一段时间,而接下来才是更巨大的挑战,无论是投资人,还是创业者,我们到底应该怎样去迎接ChatGPT的革命性变化,在它上面重构一个巨大的新体系?举个例子,2007年iPhone诞生,10年之后你会发现整个互联网生态都变了,iPhone上面长出了各种各样的应用,这10年间,全球诞生了多少独角兽,诞生了多少千亿、万亿美金级的公司,这些公司在iPhone出现之前都是不存在的,都是从一个很小的作坊开始做起来的。我觉得今天大量的机会其实是这里面,首先是中间层的机会,就像在大模型外面搭一个脚手架,让它有1000只手1000只脚,可以做更复杂的事情,比如基于如何使用大模型构建一个社区,这是一种最轻量级的创业思路。再比如教会大模型怎么去使用外部工具,怎么样更好的去理解对面的用户,而不只是从文字输入来理解他——这也是我们正在做的事情。在中间层上面,还会有各种应用层,刚才费老师也讲到,AI在SaaS端已经被验证了,但我个人认为这一波AI浪潮席卷的范围会远大于SaaS。因为SaaS更多还是服务于企业的效率工具,但ChatGPT肯定会拓展到C端,比如说健身、医疗,都有机会可以重做出一个交互式的软件,把用户界面完全抛弃掉,和移动互联网时代相比,我认为这会是一种全新体验的产品。黄东旭:我也有类似的观点,其实软件的进步一直都是交互方式的进步,以前是字符界面,到后来是UI,沿着这条线往下走,未来最重要的软件交互形态其实就是自然语言。过去我们一直在尝试,让软件的使用变得更加贴近人类自然语言,但是今天我们终于有了这样一个新工具,能重新去塑造我们跟软件的沟通方式。以前我们用软件,比如说Linux,输入一堆命令,机器才能去完成一件事情,相当于我们要去学习机器的语言。但现在有了ChatGPT,你可以直接去跟他说,我想要到达到某某结果,我不管你怎么干,最后能给我结果就好,这其实是一个非常颠覆性的东西,所以我们现在正在做的,不断跟GPT磨合的,也是类似的思路。陶芳波:我记得ChatGPT刚出来的时候,就有投资人提出一个观点,说TMT可以重新再干15年,我觉得这个逻辑是对的,因为上个时代我们基于移动互联网,做出了各种各样的APP,而今天新的交互形式出现了,每一个细分的赛道上可能都会成长出一个全新的独角兽,或者全新的商业模式,我觉得是一个完全的大洗牌。今天ChatGPT的潜力大概只发挥了百分之几,就已经创造出超过了万亿的市场,未来这个规模可能是几十万亿。ChatGPT 正在对哪些工作岗位造成影响?险峰:这个问题是帮别人问的,他是个很早期的NLP从业者,想问大模型出来以后,其他的模型可能就成为历史了,他们这些人未来应该怎么办?龙波:这个问题的答案还是比较清晰的,以前那些传统

ChatGPT能让TMT投资“借尸还魂”吗?

chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt安装
文丨刘燕秋 来源丨投中网 去年12月,我第一次关注到ChatGPT,当时它在不到一周内用户破百万,海内外一小撮科技爱好者开始热情地谈论这个对话机器人。我以为它会像元宇宙,像Clubhouse,像我追过的大多数热点一样,很快过期,消散在新闻尘烟中。未曾想到两个月后,国内掀起人人谈论ChatGPT的热潮。就在我开始写这篇文章的日子,ChatGPT概念股再掀涨停潮,三六零涨停,哪怕这家公司已经在前一周声明,目前的技术水准只能做到略强于GPT2.0。 股民在狂欢,业界在反思,“中国OpenAI”成了一面新旗帜。大厂之外,王慧文携顶级VC入局让沉寂许久的创投圈再度热闹了起来。带资入场的老王对人才提出了三条要求:业界公认顶级研发人才;狂热相信AI改变世界;坚定确保AI造福人类。几天后,一张流传的朋友圈截图上,智源副院长刘江宣布加入王慧文团队,感慨“此生有幸,能够参与这么伟大的事业”。 一位投资人朋友对我讲,VC去王慧文那里目前就是“拿号”,只能沟通希望投入的资金额度,但没有定价,也就是说钱要承诺投出去,能换多少股份?不知道。按照最新的消息,这位前美团高级副总裁筹集的承诺投资额度,已经超过了3亿美元。 他的即刻主页签名也换了,目前是“正在学习人工智能”。 追忆起来,上一波洋溢着这种“改变世界”热情并且不吝高举高打的,还是移动互联网时代的创业者和投资人。ChatGPT的火让共识迅速达成,对风口和趋势的敏感,已经让他们当中的一些人躬身入局。 “比起过去两年的元宇宙和Web3概念,这一波AI的概念更能够让大家感同身受,由此带来的是更加清晰、长远和深刻的变化。大语言模型是一个可能跟移动互联网相当级别的事情,中美大公司都在全力入场,我知道国内很多互联网大佬级人物也都在思考如何驱动自己的公司进行研究和变革。”真格基金管理合伙人戴雨森告诉我。 一些人更早看到了趋势。我想起去年9月,红杉美国的两位合伙人在一篇题为《Generative AI: A Creative New World》的文章里曾预判:“正如移动设备通过GPS、摄像头和网络连接等新功能释放了新类型的应用程序一样,我们预计这些大型模型将激发生成式AI应用程序的新浪潮。就像十年前移动互联网被一些杀手级应用打开了市场一样,生成式AI的杀手级应用程序也会出现,比赛开始了。” 比赛开始了。面对新浪潮,真格的态度是“All-in”。在不久前的内部会上,这位管理合伙人放言:“回到乔布斯刚刚发布iPhone的时刻,当年的任何一家VC基金,有多少投资人去看移动互联网项目都是不嫌多的。”但已经有人质疑王慧文入场的时间,为何早不做晚不做,刚好是在ChatGPT最火的时候站出来了。 当我把“时机”的问题抛给戴雨森,他尝试用移动互联网的时间尺度来界定这个问题。“你不会说苹果发布iPhone两个月后入场的人来晚了是吧?我觉得现在就是未来10年到20年的周期里刚开始的那两个月。” 真的,这种理由,这种热情,这种关于“时机”的问答套路,都和前几年我在互联网投资报道里见到的一模一样。甚至行家们也都在用“月活、流量、用户数”这套你我熟得不能再熟悉的框架在解构ChatGPT,我的同事曹玮钰同样提出了这样一个问题:ChatGPT能让TMT投资“借尸还魂”吗? 大模型的想象空间 ChatGPT的爆发节点,一定是和“问答”这个应用场景有关的,换句话说,是和它在C端流量的爆发紧密相关。毕竟,这是AI界第一次免费向公众提供如此强大,而使用界面又如此友好的工具。 在追逐潮流的人眼中,ChatGPT的吸引力在于,可以回答很多开放式问题,并以“高情商”的对话方式与你交互。比如,你可以和它聊聊人生哲学,探讨一下生命的意义,或是找它寻求追求真爱的建议。 在关心技术和行业的人看来,跟上一代自然语言处理(NLP)相比,ChatGPT背后则是AI技术范式的变化。和机器视觉、语音输入等专用人工智能相比,ChatGPT更让人看到通用人工智能(AGI)的曙光。 明势资本合伙人夏令告诉我,GPT系列里真正的标杆性变化其实是2020年的GPT-3,它代表着基于一个语言模型能实现众多不同任务的通用人工智能(AGI)雏形的诞生。后来在此基础上又引入人类反馈和安全性的对齐研究,人们的直观感受就是可以用自然语言与ChatGPT对话,而ChatGPT的回答“智商”和“情商”很高。 从产业的维度看,ChatGPT背后的大型语言模型(LLM)被视为新一代人工智能的基础设施,它通用能力强,可以完成多场景任务,提高脑力劳动效率。夏令告诉我,以前的AI公司需要根据不同的任务训练出不同的模型,AI公司越商业化越像一个项目型公司;而新一代AI公司可以一个统一的大模型直接应对不同的任务,模型开发门槛高,但后续实现不同任务的开发工程量大幅下降,AI公司的商业模式发生变化。加之用户在环、用户反馈对底层模型迭代异常重要,新一代AI公司有机会也需要直接面向用户提供产品和服务。 Magi 创始人季逸超开发过基于机器学习的搜索引擎,现在正参与一个名为Open Assistant的开源项目,其目标是让更多人有机会使用类似ChatGPT的对话式AI。谈及在国内AI创业的挑战,Peak告诉我,过往AI在一个行业能不能落地,往往要看这个行业有没有足够多的有标注的数据,而有标注的数据很贵,所以过去AI公司往往会盯着金融、医疗等少数几个“有钱有人有数据”的领域在做,很多细分市场没能享受到AI带来的数字化转型。 ChatGPT让他看到一种新的可能性:不需要为一项任务单独调整模型,利用静态的模型也可以达成一项全新的任务。“ChatGPT跨行业对话的效果是惊人的,在这套新范式之下,原来没被AI惠及的蓝海领域都有可能被惠及,ChatGPT可能成为一个新的底座,会有更多建立在它的生态之上的创业公司出现。” 戴雨森看到的商业价值则在于,跟之前的AI创业公司相比,ChatGPT为代表的AIGC可能应用的领域更加广阔,且对技术精确度要求低很多,存在很多技术做到80分就可以去做的空间,由此大大加速商业化进程。他以自动驾驶为例对比了这种不同。“每年国内外在自动驾驶上投资超过几百亿美元,但即使技术可以拓展,用户场景还是相对单一,必须做到非常高的准确度才可以用。相较而言,绘图、生成文字等内容生成领域对准确性的要求往没有那么高,现在就可以用起来,带来娱乐价值甚至是商业价值。” 此外,上一波AI创业中的典型场景如人脸识别还是更2B的场景,普通用户难以直接体验,但是现在的AIGC公司可以直接提供ChatGPT、MidJourney这样的用户端产品。“通俗来讲,它像其他成功的一些互联网产品一样,具有很低的使用门槛,让人耳目一新的效果,以及很强的传播性。” 换句话说,过去,我们经历了移动互联网的黄金十年,开掘了O2O、移动支付、短视频等典型场景。如今,以ChatGPT为底座,徐徐展开的是等待填充的AI时代的应用场景。“我觉得ChatGPT带来的这波变革可能比移动互联网时代的还要剧烈,互联网带来的只是效率的提升,AI是能提升生产力的。”中科创星创始合伙人米磊告诉我。 如此看来,想象空间已经有了。 “国内真有像样的企业吗?” 机构们已经闻风而动。按我一位朋友的观察,原来看消费、看出海的投资人,现在又都一股脑看AIGC了。 “国外已经跑通了这个方向,中国最擅长的就是追赶超越。”米磊说。 某美元基金合伙人表示,现在手里已经有产品的,靠大模型训练能立刻产品化并且有实际效率提升功能的团队,一开始会比较占优,他们有几个portfolio最近已经加码。 据我了解,多家美元基金最近在都关注一个叫Glow的AI社交产品。和AI聊天,这不算是新的应用方向了,但借着AIGC的风潮,已经有从业者戏称其为“本年度最卷赛道”。“随着ChatGPT的API即将开放,很多公司都会想成为它的应用层,不管是用在做聊天社交,还是客服、游戏、互动小说和营销,都会有它的应用空间,类似于Jasper的中间层公司会越来越多。”一位AIGC创业者告诉我。 真格过往投了不少AI公司,戴雨森透露,这些公司都在积极拥抱新技术。我们采访的这天下午,他计划见一个独角兽AI公司的创始人,对方正考虑彻底转型到大模型的路径。 第一波敏锐的创业者已经开始考虑第一波应用的理想场景。戴雨森认为,做能快速反应、各行各业都懂但又没有那么精确的个人助手,或许是一个很好的定位。海外,在Google准备应对ChatGPT带来的挑战时,一些初创公司已经推出了You.com、Perplexity AI等具有对话式AI或智能总结能力的搜索引擎。但在戴雨森看来,AI颠覆搜索引擎还为时尚早,ChatGPT目前无法进行数理计算,而且提供的很多信息存在错误。“所谓生成式AI,重点是在生成上,这和搜索引擎强调的信息取回是很不一样的任务。” 在他看来,当苹果刚发布iPhone和App Store的时候,最初推出的很多App并没有太多用处,只是让人觉得好玩,往往也不一定能够活到最后。但一方面,应用如果能够留存用户资产,数据资产,品牌资产等,是有可能做大的。比如,在移动互联网早期有很多人做滤镜工具,最后大部分都消失了,但Instagram成为最后的赢家。另一方面,在早期就入局的创业者会积累宝贵的经验,在后续的尝试中会更加有竞争优势。与此同,他关注到,像Jasper这样基于GPT-3在某个具体领域发展起来的应用层公司已经有超过1亿美金的ARR,初步验证了商业模式的可行性。 他认为,AI行业未来也许会出现类似互联网领域的平台加应用的生态。也许大模型不是语言模型的终局,但如果按照现在大家看到的最佳时间,大模型作为底层的基础设施,随着数据越来越大,参数越来越多,训练需要的算力和成本越来越高,它可能就会变得越来越类似于公有云的商业模式,具有非常高的天花板和很强的壁垒――它是一个底座,大家进行fine-tuning(微调),针对不同的细分领域开发应用场景,这就跟在公有云上做应用类似。 在ChatGPT引领的新浪潮之中,明势资本主要关注三类公司:一是像OpenAI一样专注于大模型的公司;二是既做大模型,又做直接应用垂直一体化的公司,如Midjourney;三是调用大模型API的公司,基于大模型重点开发具体场景的AI应用公司,如Jasper。 这三类公司过去两年在海外快速涌现,夏令相信在国内也会看到类似的局面。“创业公司和大厂里肯定都会有几家做大模型的公司出来。我相信大厂还会有自己的位置,但这并不意味着当中就没有创业公司的机会。” 在他看来,处于早期阶段的创业公司,要想获得投资人的垂青,以下核心能力至少要具备一项。要么,你的技术和工程化能力得特别强,比如能够更低的成本和更高效的迭代做出先进的大型语言模型和反馈模型。要么,你得对C端用户或者B端场景的需求有特别深刻的洞察,知道怎么把痛点跟AI技术结合,打造很强的产品力。 然而,今天国内业界的实际情况是,大多公司两者都不沾边。“有能力自研大模型的公司很少,大多数要么基于开源模型做二开,要么做prompt engineering(提示工程)。如果是能够应用好现有AI技术也是可以的,但需要想清楚可用的AI技术要解决的是何种场景之下的刚需问题。” 2022年曾短暂地涌起过一波AI绘画热。海外,这个赛道甚至已经跑出了独角兽。去年10月,AI绘画平台Stable Diffusion背后的Stability AI宣布获得1.01亿美元投资,投后估值攀升至10亿美元。Stable diffusion是一个开源模型,人们可以基于它进行快速二开,推出自己的模型产品。技术上的差距仿佛被拉平了,但夏令关注到,国内的优质的AI生成图片公司仍然很少。“技术远没有成熟,今天技术只是刚刚与商业化搭了个边。AI生成图片效果最好的Midjourney不开源。国内公司探索商业化的难度不小。” 夏令的观察在另一位来自某双币基金的投资人Jack那里也得到了验证。去年我写的一篇AIGC的报道吸引来Jack找我交流项目情况。最近我询问这位朋友的近况时,他告诉我已经很久没关注AIGC了。去年,他看了不少依托于Stable diffusion 和Disco diffusion起来的国内AI绘画企业,但看完感觉挺失望,一个都没投。他倒是觉得国内能投的点不在于模型是不是自研。按他的话说,开源了直接能用也行啊,还是得综合看后面的产品。 “但关键是产品也不行,国内企业的产品力距离Midjourney越来越远了。”这位投资人最近在忙着看新能源的项目,得知我的选题,他好奇道,ChatGPT这波,国内真有像样的企业吗? “就像《三体》里质子把人类科技锁死一样” “国内能做大模型的创业公司,一只手数得过来。”这是我最近听到的说法。 智谱华章是国内较早进行大模型研发的公司,其前身是清华大学知识工程实验室。今年,智谱华章提供近千张A100,联合清华几个实验室一起训练出了GLM-130B,这应该算是国内唯一一个可与GPT-3基座模型对标的开源双语模型。 “ChatGPT的横空出世和惊艳表现表明我们在大模型上的研究还存在代差。”智谱华章负责人在给我的文字回复中言辞诚恳。他提出:一方面,要静下心来,认真思考我们差距在哪里,另一方面,我们也留意到ChatGPT也存在一定的不足,例如常识缺失。 ChatGPT在回答一斤羽毛和一斤木头谁重的时候会出现逻辑错误。究其原因,OpenAI训练的每一次进步都是算法+数据巧妙设计的结果,但这些训练过程都没有考虑常识知识的加入。基于此,智谱AI在大模型中加入记忆模块、加入基于self-instruct的自我反思机制。 有从业者告诉我,智谱AI的技术水平相当于给国内盖了一个明确的时间戳――我们现在落后美国大概两到三年的节奏。在原创大模型开发方面,他更看好两类公司,一类是百度、字节等商业大公司,一类是智谱华章这样的国资背景的研究所。 若讨论追赶,首先不得不提的是高昂的训练成本。Peak告诉我,GPT-3时代进行一次完整训练的成本大概是400万美元,但一方面,大模型很难一次完成,另外,除了训练阶段,线上的推理阶段价格也非常昂贵。中美在语料质量上的差异也是需要解决的问题。 此外,当前OpenAI的GPT对中国禁用,英伟达的A100等高端芯片对中国禁售,是国内公司在做大模型过程中面临的两大挑战。 正是基于此,米磊认为,相较于大模型所代表的基础设施创新,AI芯片为代表的底层硬科技的突破更为关键。米磊用“乱拳打死老师傅”形容这波AI技术进展――它相当于在算法进展不大的情况下纯粹堆算力和数据的产物。事实上,在ChatGPT火爆之前,并没有太多人看好大模型这条路径,但按这一模式继续下去也可能会再度遭遇瓶颈。 “大模型当然值得关注,但没有AI芯片来训练,开发大模型就如同无本之源。这就像《三体》里质子把人类科技锁死了一样,你能怎么办?” 在此形势下,要想做出中国的ChatGPT,没有捷径可走。 ChatGPT的工程化能力也不应被忽视。一位AIGC从业者曾与我分享Meta首席人工智能科学家LeCun对ChatGPT的看法,认为那能代表业内很多人的观点。LeCun认为,与其说ChatGPT是一个科学突破,不如说它是一个像样的工程实例。当我把这个问题抛给Peak,他同样认为,ChatGPT的成功,算法跟技术方面的原因可能只占到40%左右,甚至60%的成功是在工程方面。 根据瑞银集团2月发布的未经证实的数据,截至今年1月,ChatGPT的月活跃用户数预计已达1亿。“ChatGPT的用户量呈爆炸式增长,而背后的模型能同时服务这么多用户。我不知道OpenAI跟微软之间的分工是怎么样的,但就从它服务用户的容量来说,这也是一个革命性的产品。” 夏令告诉我,真正的难点倒不是钱。以他掌握的信息来看,国内训练模型的成本方式远比openAI低,挑战在于,大模型从业者需要以工程化而不是学术的思维推进底层大模型研发。“学术思维往往着眼于单点最优,比如参数量最高,而工程的思维则要求你能基于场景需求在成本、规模和效率之间做成正确的权衡取舍,AI领域能做到这一点的人当下在国内很稀缺。” ChatGPT当然是个风向标,但对于今天的投资人来说,如果不能理解从底层技术到工程落地到产品之间的巨大鸿沟,只简单复制过去TMT投资用密集资本推高项目估值的玩法,那无疑将是“中国Open AI”的遗憾。 泡沫和啤酒 最近我看到一位投资人在朋友圈感慨,资本对科技行业其实没那么重要,因为在真正的技术和商业天才面前,资本从来都是蹭蹭上车的。我同意后半句。但资本显然也很重要,毕竟上车容易,保持足够的定力和耐心很难,毕竟谁也不能保证一路都是顺风车。 早在2019年,中科创星投资了智谱华章的天使轮。按米磊的说法,大语言模型是最近两年才摸索出来的方向,但在当时还没有人能清晰地预判未来。 米磊也看到了国内资本市场的一些问题,期待能慢慢推动行业理念的变革。“国外可以花很长时间磨一个大招出来,国内相当于练两个小招就下山砍柴去了,中国需要愿意支持创业公司十年磨一剑的耐心资本。我们希望行业里能够有越来越多真正有耐心的长期资本,也呼吁大家多多关注真正的硬科技。” “我相信咱们国内不缺厉害的科学家,会有跟海外AI领军人物水平、视野和品味相当的人,但怎么能让这些人拿到长期的资金支持,这一点是很难的。”在跟我谈及国内做AI公司面临的现实挑战时,Peak也提到资本。 另一个现实掣肘是,如果你是一家做2B的AI公司,那可能从成立第一天起,客户就会对你提出定制和私有化部署的要求,这会驱使公司走上销售主导的路子。“AI公司都不想变成项目制,但AI公司谁不是项目制呢?”由此导致的问题是,创业者可能很容易被锁死在一个项目上,从而丧失水平探索的机会,久而久之会导致视野狭窄,技术落后。要知道,在科研领域,很多技术突破并不是靠深耕就能获得的。比如,最近一年AI在图像领域的进展其实得益于NLP领域Transform模型在图像中的应用。 技术、商业和资本,这三者之间的关系并不总是相辅相成。即使是专注科研的OpenAI,在商业化面前也并非岿然不动。2019年,OpenAI宣布重组,YC总裁Sam Altman正式加入OpenAI担任CEO。Altman解决了融资问题,但他让技术研发聚焦在更具商业价值方面的主张也导致了团队价值观的分裂。结果是,2021年,OpenAI前研究副总裁Dario Amodei带着数名员工离开OpenAI,成立了自己的研究实验室Anthropic。 故事还在继续。当微软多次加注OpenAI,谷歌除了紧锣密鼓地开发自己的模型,也向初创公司伸出橄榄枝。2022年底,谷歌向Anthropic投资了约3亿美元,由此获得10%的股份,这家公司的最新估值已近50亿美元(折合人民币300多亿元),而它的一款ChatGPT竞品还在测试,尚未上线。 戴雨森认为,在被ChatGPT重燃的AI行业,现在看到很高的估值和很疯狂的故事,也都正常。“对于新技术,我们总是短期高估,长期低估。从互联网诞生到现在,蹭热度的人还少吗?任何科技热点都会进入一个泡沫周期,但我觉得这次泡沫周期过后留下来的啤酒会比之前多。毕竟,有的泡沫退去之后,人们会发现原来根本没有啤酒,只有一个巨大的泡沫。” (文中Jack为化名)