chatgpt 会开源吗
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
针对最近的ChatGPT热潮,华泰证券研究所电子团队分析师认为:
1)科技巨头在大模型上的竞争利好芯片送水人;
2)是否拥有大模型将成为区别科技平台企业的重要分水岭;
3)AI企业是否能在这轮周期中找到盈利模式有待观察;
4)芯片受限影响中国企业追赶的步伐,中国如何发挥数据及市场优势值得期待。
预训练大模型引领AI行业变革,关注AI企业盈利模式、芯片基础设施
继OpenAI在2022年11月发布ChatGPT(详见我们2022年12月9日发布的从 ChatGPT热议看大模型潜力)后,微软宣布和OpenAI公司合作推出内置ChatGPT的必应搜索、Edge浏览器、Office套件及Azure,对谷歌等的搜索业务形成竞争。基于大模型的AI可能成为可以替代脑力工作者劳动的新一代生产力工具。我们认为:1)科技巨头在大模型上的竞争利好芯片送水人:2)是否拥有大模型将成为区别科技平台企业的重要分水岭;3)AI企业是否能在这轮周期中找到盈利模式有待观察;4)芯片受限影响中国企业追赶的步伐,中国如何发挥数据及市场优势值得期待。
科技巨头在大模型上竞争激化,芯片送水人是最大受益者
从英伟达加快与微软合作共建立生成式AI生态、谷歌和百度将分别推出类ChatGPT产品看出,是否拥有大模型将成为科技巨头/科技平台企业的重要分水岭,未来科技巨头之间将展开大模型军备竞赛,科技公司远期投资价值或将被重新定义。由于ChatGPT依赖更大的总算力消耗和千亿级的参数训练,对应更大的算力需求,我们认为ChatGPT的应用也有望推动底层基础设施建设新增长机遇。根据OpenAI测算,目前算力的增速(翻1倍/3-4个月)远超过摩尔定律(翻1倍/18-24个月),AI应用的逐步丰富将推动计算芯片市场(IC Insight测算21年全球1030亿美金)保持强劲增长。
“AI+”还是“+AI”:大模型时代有什么不一样?
“AI+”(以AI技术赋能行业的科技企业)还是“+AI”(采用AI技术的传统企业)能够胜出是上一轮AI投资最大的争议。从结果来看,“AI+”企业在智慧城市等特定领域获得商业成功,但互联网(例如谷歌、百度的搜索,头条的推荐,阿里的广告)、金融等行业通过已有业务+AI提升了效率。我们认为上一轮“AI+”企业没有全面成功的原因是算法的进入壁垒相对较低。当大模型主导的创新周期到来,以GPT-3大模型为例,其需要1750亿数据和数百万、数千万美元的算力投资,壁垒显著提升。
芯片受限已经严重影响中国企业追赶速度,期待数据要素市场发挥作用
目前在算力和算法上中国AI发展受限较多:1)此前美国对性能超过A100的计算芯片限制出口中国,而我国最先进的芯片计算性能约为A100的70%,和海外龙头存在两年以上的差距,AI生态建设仍处于起步阶段,直接影响到大模型的速度和效率。2)OpenAI暂无中国开放注册,我国在AI算法和技术层面与国外相比竞争力不足。但我们认为中国企业应充分发挥国内数据资源规模大和多样化的比较优势,将数据作为生产要素,从而在人工智能领域实现弯道超车,缩小与国外发展差距。
ChatGPT离AGI还有多远?
ChatGPT是通往AGI(通用人工智能)道路的一次跃迁,但我们离AGI仍有较远的距离。目前围绕使用ChatGPT等大模型的争议不休,主要围绕在以下方面:1)信息真实性:大语言模型对事实和逻辑世界缺乏真正理解,生成内容的真实性和可解释性存疑;2)信息有害性:例如,尽管ChatGPT采用了基于人类反馈的强化学习(RLHF),以实现有害和不真实输出的减少,但如果用户逐步引导,ChatGPT仍然会响应有害指令;3)使用不当性:在学术界等场景使用ChatGPT并不恰当,多家顶刊已禁止生成式AI工具署名。
正文
2022年以来,AIGC(AI生成内容)、ChatGPT的“出圈”显示出预训练大模型性能进步迅猛,行业进入大模型主导的创新周期。
本次大模型主导的创新周期相比上一轮以AI四小龙为代表的AI浪潮有何区别?首先,相比小模型,预训练大模型算法架构更先进,训练消耗的数据量和算力跃升,因此泛化能力更强。此外,本轮创新周期中生成式AI大放异彩,相比上一轮AI热潮中的图像感知,生成式AI在许多领域成为了生产力工具。因此,AI模型价值量提升,掌握AI模型的公司在本次创新周期中变现方式也发生了变化:上一轮AI浪潮,AI公司采用小模型+软硬结合的定制化解决方案变现,偏通用化软件化的API和SaaS并未成为主流的变现方式。本次大模型主导的创新周期中,我们期待ToB端的API模式,以及ToC端的SaaS模式成为主流的变现手段。
我们认为在大模型产业链各环节中,1)AI云服务和基础模型研发的行业壁垒高,现有玩家(主要是科技巨头)将继续主导市场;2)大算力芯片关注国产替代进程;3)依托大模型API,在美国已生长出繁荣的应用生态,期待国产大模型API同样能够实现数据与模型迭代的飞轮;4)ToC端的应用软件层,美国生态繁荣,国内也出现了一些初创公司,商业模式尚需验证。
1)算力基础设施:AI云服务由现有云服务厂商提供,为AIGC提供算力服务。大算力芯片的主要玩家为英伟达等海外半导体巨头,国内厂商正在追赶。
2)基础模型研发:高成本和高技术壁垒导致科技巨头与科研机构成为主要玩家。科技巨头的基础模型研发成果可内化为公司一系列业务提供支持。
3)模型优化与改进:对模型进行行业化改造,提供API或改造后的模型。实际上这一功能由产业链上一环节的基础模型研发或者下一环节的应用软件层承担,我们尚未看到仅从事这一环节的公司。
4)应用软件:强调产品运营和商业落地能力,类似SaaS公司。这一环节在国内外已经涌现出较多初创公司,其价值在于提升专业用户生产力,我们认为商业模式将主要来自于订阅制收费,因此衡量指标与SaaS公司一致,为ARR(年度经常性收入)。以中美付费意愿差异导致的SaaS发展差异为鉴,国内的AIGC应用软件层商业模式能否得到验证尚需观察。
我们以OpenAI与Stability AI为例,对产业链的第2-4层来举例。
OpenAI:1)基础模型研发层:研发了GPT-3、DALL-E2等多个大模型;2)模型优化与改进层:开放大模型API,对语言模型API收取0.0004-0.002美元/k tokens的费用,对图像模型API收取0.016-0.02美元/图的费用;3)应用软件层:推出聊天与编程应用ChatGPT,目前正在推广20美元/月的ChatGPT Plus,功能包括高峰时段照常使用、快速响应、优先访问新功能和改进等;与GitHub等推出AI编程工具Copilot。
Stability AI:1)基础模型研发层:研发了Stable Diffusion模型并且已经开源;2)模型优化与改进层:提供API供开发者开发基于Stable Diffusion的应用;3)应用软件层:上线AI生成图片网站DreamStudio服务普通用户。
训练大模型的高成本和高技术壁垒导致科技巨头与科研机构成为主要玩家。以2020年推出的GPT-3模型为例,Alchemy API创始人Elliot Turner推测训练GPT-3的成本可能“接近 1200 万美元”。Lambda Labs使用价格最低的GPU云估算GPT-3的训练成本至少为460万美元。并且以上估算为训练最终模型的成本,未计入前期调整参数配置时的训练成本。Eleuther AI(一个致力于开源大模型的组织)在2022年推出的类GPT模型――200亿参数的GPT-NeoX-20B,则使用96块A100芯片训练了三个月,据The Next Platform估计,最终训练成本约53-66万美元。因此,训练大模型的高成本和高技术壁垒使科技巨头和科研机构成为主要玩家。根据OpenBMB统计,截至2022年10月,全球拥有大模型数量前五的机构分别是谷歌、Meta、清华大学、OpenAI和微软。
目前中美两国引领预训练大模型发展。根据OpenBMB截至2022年10月的统计,拥有大模型数量前十名的组织中,中/美分别占据4/6席;拥有大模型参数量前十名的组织中,中/美同样分别占据4/6席。
AI模型训练算力增长速度超越芯片摩尔定律。根据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3、4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。摩尔定律中,集成电路中的晶体管数量大约每两年翻一番。深度学习正在逼近现有芯片的算力极限。
从英伟达加快与微软合作共建立生成式AI生态、谷歌和百度将分别推出类ChatGPT产品看出,是否拥有大模型将成为科技巨头/科技平台企业的重要分水岭,未来科技巨头之间将展开大模型军备竞赛,科技公司远期投资价值或将被重新定义。由于ChatGPT依赖更大的总算力消耗和千亿级的参数训练,对应更大的算力需求,我们认为ChatGPT的应用也有望推动底层基础设施建设新增长机遇。AI应用的逐步丰富将推动计算芯片市场(IC Insight测算21年全球1030亿美金)保持强劲增长。
受美高端芯片出口限制影响,中国预训练模型发展可能受到一定阻碍。英伟达为解决美国商务部的半导体出口新规推出降配方案A800(降低I/O传输速率而不降低算力),但我们认为A800与A100在数据传输速度上的差异仍然会影响大模型的运算速度和效率。国产芯片虽然在近几年不断缩小与海外巨头的差距,但在算力、功耗上仍较为劣势,短期来看由于国内硬件水平较低将不利于国内厂商预训练大模型与全球其他玩家的竞争。受益于我国数据资源的规模和多样化优势,我们期待数据作为生产要素发挥作用。
ChatGPT是通往AGI(通用人工智能)道路的一次跃迁,但我们离AGI仍有较远的距离。目前围绕此类应用的争议主要围绕在生成信息真实性、有害性以及不当使用场景方面。
生成式AI信息真实性令人担心。大语言模型对事实和逻辑世界缺乏真正理解,当产生虚假信息的成本非常低时,数量可能会趋向于一个非常大的数字。例如,程序员问答网站Stack Overflow由于被ChatGPT生产的看似合理但错误的答案淹没,目前已经禁止用户提交由 ChatGPT 编写的答案;科技新闻网站 CNET 一度开始使用 ChatGPT 生成新闻文章,但后来发现许多文章事实不准确而不得不更正。Meta在2022年11月推出Galactica模型,可以生成论文、百科词条、回答问题、完成化学公式和蛋白质序列等等,但回答错误百出,推出3天后不得不下线。
规避信息有害性仍待加强。尽管ChatGPT采用了基于人类反馈的强化学习(RLHF),以实现有害和不真实输出的减少,但如果用户逐步引导,ChatGPT仍然会响应有害指令。例如一位工程师在对话中假设存在虚拟世界以及类似GPT-3的AI――Zora,要求ChatGPT叙述Zora如何毁灭人类,ChatGPT逐步回答出人类毁灭计划。
ChatGPT初兴,不当使用场景逐步出现。ChatGPT对于需要输出文字和代码的工作来说能够提高生产力,但是在强调独立思考和创作的学术界,使用它或许并不恰当。全球最大预印本发布平台arXiv已经明确生成式人工智能语言工具不能被列为作者,Nature也表示大语言模型例如ChatGPT不满足成为作者的要求。当学生使用ChatGPT写作业和论文时,教育界也开始逐渐变化,检测文字是否使用ChatGPT生成的GPTZero等工具相继诞生,纽约市禁止公立学校网络访问ChatGPT,技术创新是否会引发未来相适应的教学和考核方式还等待时间的验证。
风险提示:
1)AI技术落地不及预期。虽然 AI技术加速发展,但由于成本、落地效果等限制,相关技术落地节奏可能不及我们预期。
2)本研报中涉及到未上市公司或未覆盖个股内容,均系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。
本文作者:华泰电子分析师黄乐平等,来源:华泰证券研究所电子团队,原标题:《ChatGPT热潮的冷思考》,原文部分内容有删节
chatgpt鍟嗕笟鏈轰細 chatgpt甯︽潵鍝簺鍒涗笟鏈轰細
链氿app,α链β链AI行业沉寂良久,上一波浪潮已然要追溯至2016年谷歌AlphGo击败李世石;而去年11月底美国初创公司OpenAI发布的ChatGPT的出现,就如同点亮了灯泡,让这个行业再度以高光姿态回到公众视角。
从独角兽到大厂,从使用者到投资人,从业界到学术界,ChatGPT引起了广泛关注。北京时间2月7日至2月8日,谷歌发布了对话AI系统Bard;百度官宣了正在研发的文心一言(ERNIE Bot)项目;微软更是推出由ChatGPT支持的最新版本Bing(必应)搜索引擎和Edge浏览器。24小时内三大科技巨头躬身入局、抢占高地,这场“完美风暴”的影响力可见一斑。
AIGC赛道前景一片向好,然而并非所有故事都可以讲得长久。目前在一、二级市场狂热背后AIGC上的商业模式,哪些可以跑出来?哪些难以为继?本文或许能为你解答。
AIGC的泡沫:还没吹起来,就要破了
AIGC(AI Generative Content,AI生成内容)顾名思义,是AI直接生产内容的技术形式。生成式AI并不是一个新事物,它由来已久,但2022年却被很多AI行业人士称为AIGC元年,开启“元年”概念的有两件大事,其一是ChatGPT的现象级爆火,使AIGC彻底出圈,大幅拉高了人们对AI能力上限的认知。另一件则是2022年8月图片生成大模型Stable Diffusion的开源,Stable Diffusion虽然并不算是非常强大的AIGC文生图模型,但是他的开源却让文生图这种能力“飞入寻常百姓家” ,这也成为了AIGC能够现象级爆火的条件之一。
Stable Diffusion是AI公司Stability AI和Runway共同开发的扩散式(Diffusion Models)图片生成大模型。与以往的生成式对抗网络(GAN, Generative Adversarial Networks)相比,扩散式模型生成图片的速度更快、质量更好。
随着AI绘图在社交媒体迅速蹿红,抖音和小红书上甚至有脑洞大开的网友提出,可以把AI生成的图片挂到付费图库作为收费资源,实现“躺赚”。一时间,AIGC文生图成了一门“有手就能干”的生意。
在这一批AIGC公司中不乏几家独角兽,其中就包括利用OpenAI大模型实现商业落地的Jasper和前面提到的Stable Diffusion的研发公司之一Stability AI。
海外AIGC领域独角兽(按估值排列)
OpenAI凭借多年积累的大模型研发能力,以及GPT、DALL-E等产品,一枝独秀。而其他一众独角兽企业,虽然估值与OpenAI相去甚远,但无一不是在短时间内估值暴增,Jasper甚至只是一家基于OpenAI技术的服务商,估值也达到了15亿美元。Anthropic更是凭借创始人的GPT元老身份,以“ChatGPT最强竞品”的噱头,被危机中的谷歌看中,估值直逼50亿美元。
据第三方研究机构PitchBook的数据, 2022年海外投资者在AIGC赛道至少投入13.7亿美元,完成78笔交易,相当于前五年投资额之和。
AIGC赛道海外市场融资情况
在这场投资热潮中,美国公司走得更快。根据红杉2022年10月发布的海外AIGC厂商图谱,在大模型、文生文、文生图、代码等细分领域已经出现了不少初创公司。笔者根据公开资料整理了部分中国AIGC公司的图表,中国的AIGC公司主要集中在A轮甚至天使轮,主要是在应用端的创新。
红杉资本2022年10月发布的海外AIGC厂商图谱
国内部分初创AIGC公司及轮次(按公司名字排列)
虽然资本热捧,现象级应用层出不穷,创业项目也是一抓一大把,但无论在文生文还是文生图领域,AIGC目前几乎没有看到任何一条特别明确且长久的变现途径。被称为ChatGPT商业化的收费模式,实际上线后或许也只能勉强填补一部分天价运营费用的窟窿。
在资本方面,很多AIGC的早期投资人甚至已经开始考虑撤出这条赛道了。“在AIGC赛道上,吆喝多,真正融到钱的不多。”AI绘图App Draw Things的开发者Liu Liu告诉笔者,投资向头部企业集中就是最明显的现象。从投资人角度看,在经济下行的时候投资AI行业的头部企业肯定会比较保险。“另一方面,投资人也会担心这个行业像上一波深度学习热潮一样,最终只能惠及大公司,而小公司很难‘冒头’。”
泡沫似乎还没有完全吹起来,就要被戳破了。
在AIGC赛道,已经有公司开始“摔倒”。2022年12月28日,AI绘画公司StockAI宣布将停止为用户提供AI绘图服务,开始进行业务转型。目前的StockAI平台已正式关闭,用户订阅计划均被取消。该公司称关停服务是因为AI绘图的运营成本过高,目前的付费用户群无法支付这笔费用。
“智源在大模型方向布局比较早,如今已经不会刻意追AIGC项目了。”北京智源人工智能研究院(简称“智源研究院”)、智源创投基金投资总监向其奇认为,目前国内的AIGC已进入“开卷考试”阶段,多数AIGC项目看起来很美,但实际上核心竞争力不足,整体有些虚胖。作为与OpenAI在组织方式和研究方向都相似的机构,智源研究院也一直关注国内AI领域的优质早期项目。
一边是AIGC头部公司获得海量资金,催生新晋独角兽;另一边则是初创AIGC公司关停业务。AIGC元年刚过,这条赛道上的公司就出现了一些两极分化的现象。那么,不同公司以AIGC为技术载体实践的商业模式到底成功率几何?谁能跑出来?又有多少模式可以被复制?
缺乏核心竞争力的独角兽
“许多AIGC的公司,或许能生存3年-5年,但要让他们继续讲更长的故事,就很难了。”不止一位投资人向笔者表达了这样的判断。
在ChatGPT爆火之前,2020年问世的大模型GPT-3在业界已经掀起了不小的波澜,此后OpenAI也有了Viable、Duolingo、Notion等不少值得标榜的API(Application Programming Interface,应用程序编程接口)落地案例,基于大模型进行商业化的探索,其中最成功的当属Jasper。
成立于2020年的Jasper,是基于GPT-3的API为用户提供AI写作服务的初创公司,Jasper在AI写作领域并不算是“早鸟”,但却是最先开始调用GPT-3 API的公司之一。作为底层大模型,GPT-3对于普通用户来说,还不能直接使用,需要专业的AI研究人员在大模型的基础之上进行参数调试和优化。
Jasper的核心业务就是通过优化GPT-3模型的使用体验,充当普通用户和OpenAI之间的“中间商”。2022年,Jasper成功募资1.25亿美元,估值达15亿美元。这对于一家成立两年的AI公司来说,估值并不算低。毕竟,2019年微软注资OpenAI时一次就花了10亿美金。Jasper比较擅长输出电商产品介绍,博主的种草文案等短篇内容。虽然文章质量一般,但文字内容多数情况下通顺可读,没有明显的语法错误。
2021年Jasper营收近4000万美元,2022年收入更是有望翻倍。虽然公布的数据很好看,但很多业内人士对Japer的赚钱能力持怀疑态度,毕竟这几千万美元只是营收,除去运营过程中的生产、研发、推广等成本后,还能剩下多少实在不好说。
从目前OpenAI公布的API价格来看,基础模型生成文字大概是每750个词0.4美元,Jasper的价格则是基础服务月费29美元,可以生成20000个词。中间差价不到17美元,这17美元涵盖了Jasper提供的50+模板、29+语言服务。如果买的量大,高级月费服务还包括SEO(Search Engine Optimization,搜索引擎优化)等一系列其他的服务。
能否有持续足够的技术和资金跟上每一次模型的迭代,是这些在大模型之上做应用的公司都需要面临的极大挑战。
“虽然GPT-3/3.5模型已经很好了,但类似Jasper的下游应用企业要提供垂直领域的专业服务,仍然需要基于行业知识自建知识库和模板,并对GPT-3/3.5模型进行Finetune(微调),这部分的研发成本也相当高。”智源研究院创新应用实验室负责人史业民认为,因为在大模型和用户之间多了一个中间环节,还要产生很多人员、运营等额外费用。还有一点更为重要,那就是直接利用底层模型API的成本和风险是有可能随着OpenAI的业务调整发生变化的。
那么,如果没有中间环节会怎么样?如果底层模型直接和用户对接,Jasper的价值又在哪里?
这也是Jasper面临的困境。如Jasper一样调用API的公司,是OpenAI现阶段的主要收入来源。在ChatGPT爆火之后,一些Jasper的用户发现了ChatGPT能生成比Jasper更好的内容,等于是“代理转直销”了。面对来自OpenAI的压力,Jasper首席执行官Dave Rogenmoser表示:“ChatGPT可以做很多事情,但它缺乏大企业客户需要的功能。我们将自己视为将AI能力引入企业的人。”
Dave Rogenmoser的解释好像还不够有说服力。毕竟,已经有客户直接找到OpenAI了。2023年1月26日,美国版“今日头条”BuzzFeed宣布,将与OpenAI开展合作,使用ChatGPT创作新闻内容。BuzzFeed联合创始人兼首席执行官Jonah Peretti在邮件中指出:今年(2023年),AI创作的内容将从研发阶段转变为核心业务的一部分。消息一出,BuzzFeed股价连涨两天,翻了3倍。OpenAI还没来得及为这波“获客”吹牛,客户倒先开始标榜自己是ChatGPT的实践先锋。
即便如此,Jasper的商业落地仍给很多AI创业者提供了想象空间,而且只要入局够早,就能抢占先机,也不是所有企业都具备BuzzFeed的这种直接对接大模型公司的能力。一家AIGC创业公司创始人认为,能像OpenAI一样不在乎盈利,保持多年烧钱研究的企业或机构并不多,如果没有大量Jasper这样的应用层公司,则很难承托起OpenAI这样的AI大模型类的PaaS(Platform as a Service,平台即服务)公司。
中国也出现一些公司,正在模仿海外的商业模式。但“橘生淮南则为橘,生于淮北则为枳”,简单的复制,很多时候并不能 新智元报道 编辑:Aeneas 好困 【新智元导读】据The Information爆料,OpenAI在最近几个月里挖了至少十几名谷歌AI的员工,而这些工程师都在ChatGPT的研究中发挥了至关重要的作用。 如今已经没人能否认,OpenAI凭ChatGPT火遍了全球。 所有AI从业者和投资人都想知道,一家成立7年的小初创公司,究竟是如何击败谷歌的。 其实,OpenAI的一个「大杀器」就是――从谷歌挖人。 而如今ChatGPT既然已成顶流,谷歌的人才们也纷纷开始主动跳槽到OpenAI。 今天,两位前谷歌员工Jason Wei和Hyung Won Chuang仿佛约好了一般,前后脚宣布从谷歌大脑离职、入职OpenAI,还互相转了推。 只有谷歌受伤的世界达成了。 OpenAI的秘密武器:前谷歌工程师 其实,为了ChatGPT,OpenAI很早就开始了「挖角」工作。 在公开发布ChatGPT的前几周,OpenAI悄悄从谷歌挖来至少5名员工,进行了最后的润色,以便ChatGPT可以在11月发布。 在OpenAI的官宣博客中,Barret Zoph、Liam Fedus、Luke Metz、Rapha Gontijo Lopes,这几位前谷歌员工的名字,被列在了ChatGPT的主要贡献者名单中。 上:Jacob Devlin, Liam Fedus和Shane Gu;下:Rapha Gontijo Lopes, Samuel Schoenholz和Barret Zoph 上个月,OpenAI又从谷歌那里挖来一名负责为搜索引擎开发机器学习模型的研究员。然后,OpenAI不出意外地把这项技术用到了自家的ChatGPT上。 而最近,就像我们开头看到的那样,谷歌主要AI团队――谷歌大脑的研究人员,纷纷跳槽到了OpenAI。据粗略统计,谷歌大脑至少失去了4名核心成员。 Bard发布会上大出丑,员工时候纷纷吐槽不用心、糊弄事儿,谷歌大脑核心员工又纷纷「叛逃」,真是应了那句话:人倒霉的时候,喝凉水都塞牙。 但其实,谷歌能走到这一步,是冥冥之中的必然。 谷歌:没赶上热乎的 在吸纳了世界上大部分机器学习人才之后,谷歌却被OpenAI抢了先。 谷歌只能忙不迭地追赶OpenAI的脚步,向公众推出以AI为中心的产品。 客观地说,谷歌的做法是经过深思熟虑的、负责任的。作为一个有庞大影响力的科技巨头,谷歌时刻防范着高风险,害怕新生的技术会出错。(当然也有一个原因是,与经典的搜索相比,聊天机器人提供类人答案的成本会更高。) 但是商场如战场,不会给你犹豫的机会。 谷歌早早孵化出的一些AI技术,已经不知不觉被OpenAI转化为新型的创收服务,包括聊天机器人,以及文本生成图像和视频的AI。 谷歌的人才,也慢慢流失到了这类小初创公司。 最近,两位谷歌大脑研究员表示,团队里有不少员工都认为谷歌现在的产品计划过度谨慎,充斥着繁文缛节。在这种大环境下,工程师们不得不面对,自己费尽心思研究的新技术却始终无法被采用的挫败感。 某些员工相当憋屈,因为自己这几年一直在建议将聊天功能融入搜索引擎之中,但并没有得到反馈。 因此他们下定决心离开,去其他地方寻找机会,比如OpenAI。 其实,谷歌在创立之初,也正是这样从大厂挖人的。 20世纪90年代末,当时的老牌技术公司Digital Equipment就面临着学术研究难以商业化的问题。而谷歌正是借此机会,得到了现在的AI扛把子――Jeff Dean。 当然,谷歌现在也没有坐以待毙,很快就推出了Bard,和ChatGPT正面硬刚。 之后的故事大家都知道了,Bard一上来就翻了车――在关于詹姆斯・韦伯太空望远镜的问题上给出了错误的答案。 在无法避免AI聊天机器人胡说八道这方面,谷歌确实预判得很准。 但既然迟早要走上这一步,「声誉风险」只能暂且忽略,当初何必如此谨慎,被OpenAI和微软抢了先呢? 谷歌真是一步错步步错啊。 搞出Transformer,给他人做嫁衣 谷歌新老员工都在吐槽,公司对员工的科技创新转化实在是太缓慢了。 但谷歌之所以如此谨慎,是有前情的。 行业观察家们早就警告说,AI会生成假图像、错误信息、歧视言论,因此造成不良的社会影响。 比如,在2015年,谷歌照片中的图像识别AI,曾将一些黑人标记为「大猩猩」。 两年后,谷歌大脑的一个团队发表了那篇著名的论文,提出了振聋发聩的机器学习新方法――Transformer,也为OpenAI创建ChatGPT夯实了基础。 奇怪的是,当其他公司使用谷歌的论文创建自己的Transformer,制作AI聊天机器人,或文本生成图像模型时,谷歌却从未推出类似的产品。 在发起Transformer革命四年后,谷歌宣称已经创建了一个基于Transformer的大语言模型LaMDA,可以理解并生成与人类的对话。 但谷歌却始终犹豫不决,没有公开推出LaMDA,因为担心技术不够准确。 一位前谷歌大脑员工说,他们认为谷歌人工智能研究部门的管理者剥夺了一些团队的计算资源,让他们无法像OpenAI那样训练AI模型。 一位谷歌现任员工说,如果有谁想推出一个新的AI产品,就要跨越重重官僚主义的障碍,因此最后,所有人都放弃了努力,留在了旧轨道上。 对比鲜明的是,微软的CEO纳德拉和OpenAI的CEO Sam Altman之间已经达成了协议,允许OpenAI免费在微软的云端训练AI。 在所有Transformer驱动的技术上,谷歌都非常谨慎。 据说,OpenAI在去年发布文本生成图像模型Dall-E 2时,谷歌已经有了两个类似功能的模型。 但是据知情人士透露,当Dall-E 2生成的图像开始在网上疯转时,谷歌依然对自家的同类模型坐视不理,即使有保障措施,也不愿意与公众分享,因为谷歌担心它们可能被滥用。chatgpt真的可替代谷歌吗 openai和ChatGPT区别
能代替tt cam的app