淘优惠

淘优惠

正视技术差距和资本热度,掘金ChatGPT不能光靠“聊”

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

正视技术差距和资本热度的关系,正视技术差距和资本热度有关吗,技术进步偏向资本
第一财经资讯
・上海

这是一场美国科技巨头对决的盛况,也是一场中国科技厂商闻风而动的转折点。北京时间2月8日凌晨,微软推出由OpenAI提供最新技术支持的新版搜索引擎必应(Bing)与Edge浏览器。面对微软的快节奏进攻,谷歌也放弃缓慢迭代的策略,直接推出类ChatGPT产品――实验性对话AI服务Bard。

乘着海外巨头技术落地的东风,国内企业在二级市场攀上ChatGPT概念股。据第一财经记者观察,1月10日微软表示计划向 OpenAI 投资 100 亿美元以收购其49% 股权。也正是在这一时间点,微博搜索指数显示ChatGPT的搜索量开始出现上扬。进入2023年2月以来,在上证e互动和深交所互动易平台上有关ChatGPT的咨询和问答数量急速增加。

在机构人士看来,ChatGPT既不是单纯的概念炒作,也不能定义为划时代的技术突破,更多是在AI技术上的迭代更新,但在资本市场的ChatGPT概念股,更多仅是短期热点,长期需综合多因素观察。当二级市场板块轮动、热度退潮后,企业之间的技术与商业应用差距,才是亟需正面解决的重点。

打开网易新闻 查看精彩图片

ChatGPT“重击”搜索

一直以来,ChatGPT背后的生成式AI被质疑缺乏明确的商业化落地场景,此次,微软与谷歌将首个落地场景确定为搜索。

微软CEO、董事长萨提亚・纳德拉(Satya Nadella)表示,这是搜索的新一页,新的范式已经出现,军备竞赛从今天开始,我们将以最快的速度前进,每天都会加入新的内容,同时重新创造搜索引擎。

思必驰联合创始人、首席科学家俞凯对第一财经记者表示,微软并不是单纯只把ChatGPT融合进搜索引擎,而是包括Bing、Office、Teams等全家桶产品融合。从行业来看,ChatGPT可谓继Alpha Go后最大的里程碑进步。Alpha Go解决的是规则情况下的搜索和处理,而ChatGPT是在无规则前提下,部分解决自然语言交互的问题。

在微软的融合里,俞凯更看好Office和Teams的应用,ChatGPT本身就是在创造性、创作性方面带来了新的技术和体验。Teams+GPT可以自动生成会议笔记、推荐任务和个性化重点内容;Office+GPT,可以快速生成相应的文章模板。相比搜索引擎的升级来看,更具备快速应用的可能,因为是用户很直接的刚需。

Forrester分析师卢冠男对第一财经表示, ChatGPT的信息汇总能力可以将多个搜索结果内容整合后,更高效地呈现给用户,改善用户的搜索体验,但是否能取代还有待观察。

显然,多轮对话的交互方式,可以更好地整合上下文以及用户对搜索结果的反馈,从而提供更加个性化的结果。这些体验改善会成为搜索引擎改善升级的关注点。

但需注意的是,卢冠男表示,ChatGPT相关技术所提供的搜索结果也会存在一定为问题。比如 ChatGPT的反馈结果准确性可能会和原始数据有偏差。如何化解这个问题,以及面对其他上线后的挑战,仍有待观察。目前看到更多是ChatGPT和搜索引擎的结合而非替代。

谷歌23号员工、Gmail创造者保罗・布赫海特在推文中激进地表示,谷歌将在一两年内被彻底颠覆。当人们的搜索需求能够被封装好的、语义清晰的答案满足,搜索广告将没有生存余地。而占据全球接近84%搜索市场的谷歌,目前仍是一家50%营收来自搜索广告的公司。

在首都经济贸易大学广告学系副主任王水看来,由于同样依循“键入需求-结果满足”逻辑,ChatGPT会冲击搜索,也将导致谷歌和百度推出类似服务。然而,ChatGPT更可能影响“结果导向”的传统搜索,而非影响“过程导向”的新搜索。比如,当前很多搜索已非纯粹的信息对接,而是提供私域沉淀与销售转化能力。这一能力背靠生态,而非技术,ChatGPT很难在短期内替代。

但几乎可以确认的是,搜索引擎的商业化收入肯定会受到ChatGPT的挑战。王水提到,因为搜索广告依附于搜索生态,当搜索生态当中的流量转向ChatGPT对话模式的话,搜索内容生态中的广告商便会受到影响。

千条问询与个股八连板

目前生成式AI方面竞争最为激烈的当属微软与谷歌,国内相关技术领域的热度更多聚焦于二级市场。

以1月10日为节点,记者发现在两家投资者互动平台上共有49条先于这一节点的问询记录,主要针对科大讯飞、汉王科技、高鸿股份、拓尔思等企业。有超过三分之二的提问科技公司,其余涉及下游应用的企业,如金融、消费等。截至发稿,相关问题数总和数量为1054。

值得注意的是,科大讯飞一家早期就有八条提问,分别从“NLP技术突破”“技术投入成本”“算力平台芯片”“开发技术路线”“外部厂商挑战”等不同方面入手,甚至还有一条“询问”质疑科大讯飞的营销战略――“讯飞年年那么多研发投入,得了很多世界冠军,却没有推出引领和震惊世界的技术,大部分中国百姓甚至都不知道科大讯飞,营销上是否需要重新思考一下?”对此,科大讯飞内部人士告诉记者,公司对于布局ChatGPT的态度依旧是要“等等看”。

1月10日之后,多数在投资者互动平台上被问询公司的主营业务涵盖半导体芯片设计、自然语言处理、图像识别、人工智能训练和消费应用等领域。2月1日,万得公布ChatGPT指数(8841669.WI),根据权重股样本的信息,该指数有66.7%的股票选自信息技术行业,有29.2%的股票选自可选消费行业,剩余4.2%选自半导体材料行业。行业分布与记者了解到的问询企业所在的行业分布情况基本一致,该指数在近6个交易日内涨超26%。

在一众个股中,真正引起交易所关注的还是汉王科技。2月8日,ChatGPT概念股汉王科技午后再度触及涨停,走出8连板,日内成交额近29亿元。似乎深交所7日向七连板的汉王科技下发的关注函全未让热情的股民收手。但深交所已要求汉王科技说明公司NLP业务的具体产品、应用情况、研发投入及相关财务数据。要求汉王科技结合公司NLP业务及其他主营业务的经营情况、竞争情况等,以及2022年业绩预计情况,对公司经营风险、业绩亏损等进行充分、明确的风险提示。

尽管二级市场热火朝天,一位关注硬科技领域的投资人对第一财经记者表示,投资动作会非常谨慎,其个人不会选择相关领域的标的,因为国内产品在软件架构、算力支撑、芯片设计等各方面,均存在一定差距。

在过去10年中,比较标准的一个自然语言处理的模型通常有几百万个参数,Open AI的大模型GPT-3拥有1750亿的参数,这个大模型比起之前的AI模型在体量上是几万到几十万倍的增长。

不过,启明创投合伙人周志峰提到,OpenAI 1750亿参数的GPT-3耗费了大约500万美元的训练资金,大模型耗费的成本对于创业公司是一个压力,也会影响效果。

7日,一款号称“首个中文版ChatGPT”的大模型中国元“Yuan”,由元语智能推出的功能型对话大模型ChatYuan上线后,小程序一度崩溃,但评论区也有网友表示:大概仅为GPT2的水平、反应比较慢,还需要增加数据量多练练。

谈到中外差距,俞凯对记者表示,ChatGPT的核心是大模型技术和对话智能技术,其中大模型技术主要包括三方面:上下文学习、思维链推理、指令学习。所谓的“大模型”其实是指基础模型(foundationmodel),当参数足够大的时候,比如当有千亿级以上的大模型时,不再需要额外的采取数据对各个领域进行小规模的、进一步训练了,也就是原本的基础模型因为参数足够大,所以直接被称为“大模型”。大模型的算法是通用的,而数据量在超过千亿级之后,对比也就不再那么明显。

换而言之,俞凯称,底层基础的算法是公开的,并不存在算法上的明显差距。当数据量足够大,微不足道的数据差距影响也没那么明显。中美的差距,主要是在工程化能力、基础架构设置、人员经验,以及长期信念决心的问题等。

打开网易新闻 查看精彩图片

国内厂商的机会窗口

IDC中国研究总监卢言霞对记者表示,基于ChatGPT可能会诞生一批新创企业,但单纯依赖大模型无法提供持续的竞争力。垂直领域的数据、面向场景的模型优化、工程化的解决方案,才是将AI落地的根本,也是建立竞争优势的关键。

人工智能公司能否借助ChatGPT实现一轮更新迭代也是二级市场暴涨的原因之一,卢冠男对记者表示,ChatGPT的发布让 OpenAI网站的访问量迅速增长,证明了其市场需求的潜力。在这样的背景下,AI相关企业也会受到比以往更多的关注和资源。ChatGPT的发展或近期整体生成式AI的发展都是对AI 2.0 趋势的体现。

俞凯也认可ChatGPT技术对AI企业的启发作用,他称,新技术的突破往往给创业者提供了更多的机会。关键是看具体如何结合,基于高潜刚需的需求场景来突破,而不是从技术本身来考虑。从聊天机器人的方向看,融合语音、文本、图像信号的多模态感知技术也有很大机会。以当前新起的虚拟数字人为例,多模态、智能化的完整解决方案可以更好地应对不同场景的复杂变化,多模态交互成为行业发展的必然趋势。

“未来我们仍然会看到AI相关领域的各种算法,还有深度学习、机器学习类的岗位人才缺口,不仅会短缺,而且这个短缺的缺口会继续扩大。”米高蒲志科技行业总监文芳萍告诉第一财经,她认为新概念的出现仍与前期的技术积累有关。

因为大模型的出现,AI在很多语言处理领域展示出的能力超越了人类。从产业界角度来看,影响更大的是大模型具备了超强的泛化能力。此前深度学习发展了10年,只有科技大厂、AI独角兽拥有顶级的AI人才、算法工程师,才可以完成对模型的调参、优化,让人工智能在某些狭义场景中达到令人满意的效果,但是其他广大的行业和企业中是非常缺乏AI人才的,这也严重阻碍了AI去赋能百业。

卢冠男对记者表示,海外相关产品在国内落地方面目前没有明显进展,确实留给国内厂商的机会窗口。人工智能算法落地需要考虑中国数据安全法和算法推荐管理规定的合规要求。目前大多产品服务处于内测阶段,所以海外AI产品在本地化方面还没有投入太多资源。国内厂商在满足本地客户需求的同时,也需要关注合规方面的实践。无论是利用第三方API构建新的产品服务,还是推出新模型支持现有服务,这一过程如何满足合规要求,在实践上仍有待探索。

第一财经记者陆涵之、刘晓洁对本文亦有贡献

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。


每日短评丨会用中文聊天的机器人ChatGPT风靡全球 (1月12日)星话大白


资讯(1)

台积电第四季度盈利强劲,但对前景持谨慎态度。

台积电(TSMC)公布了强劲的盈利,但对前景持谨慎态度。该公司表示,由于芯片行业出现周期性低迷,预计2023年台积电将“微幅成长”。这家全球最大的芯片代工制造商报告称,第四季度净利润同比增长78%,至2959亿元新台币(合96亿美元),超过分析师预测的2874亿元新台币。

个人短评:

这个新闻可以结合之前三星利润大幅下降来看。

这轮芯片技术竞赛,台积电显然是把三星给甩开了。

至于牙膏厂,虽然牙膏厂的簇拥者认为,牙膏厂虽然进程落后,但工艺比台积电强多了。

不过业绩不会说谎,全球的手机芯片厂、显卡芯片、都还是以能第一时间抢到台积电最先进制程的订单,作为竞争优势。

资讯(2)

会用中文聊天的机器人ChatGPT风靡全球 再掀人工智能伦理新辩论。

新一代人工智能技术驱动的聊天机器人ChatGPT问世刚一个月就吸引了上百万的用户蜂拥试用,在全球的流行程度呈爆炸式增长。ChatGPT是美国初创公司OpenAI去年11月底推出的一个自然语言处理工具。它由新一代人工智能技术驱动,会和向它提问的人进行类似人类之间的书面对话。

个人短评:

这个我也去尝了鲜,有时间可以单独写篇文章分析一下。

我觉得这个聊天机器人的应用场景,短时间可以直接应用的,主要就是服务于美国舆论战,是美国颜色革命利器,让未来的美国水军更加以假乱真。

其次是比较根深蒂固的另外一种“有颜色”的场景。

还有就是“情感安慰”相关的服务。

不过一想到,人类有一天会从AI身上去寻求情感安慰,总觉得哪里不对劲。

资讯(3)

今晚9点半,美国通胀数据公布,美国12月CPI同比增长6.5%,市场预期值也是6.5%。

个人短评:

这次通胀数据,整体符合市场预期,既没有超预期回落,也没有比市场预期高。

经济学家们,总算准了一次。

所以,晚上美股也没有出现前面两次,动辄3%以上的暴涨暴跌,目前波动并不算大。

关于美国通胀的回落,我之前也分析过,主要是去年基数太高,如果今年通胀不能保持环比大幅增长,哪怕只是持平,那么今年上半年,美国通胀也将回落到5%左右。

不过美国通胀想回落到5%以下,还是比较困难。主要美国的服务业通胀,仍然还是居高不下,这次12月的服务业价格仍然环比走高0.5%,这也导致美国核心通胀率整体回落并不大。

美国通胀还是比较顽固的,美联储想要把通胀控制下来,那么今年至少还是得加息到5%利率左右。

如果今年2月1日议息会议开始只加息25基点,那么美联储今年还有3次加息,每次加息25基点。



chatgpt使用感受


此文与 @Kwc-Oliver 和 @王立武 联合创作,是对Generative Pre-training Transformer迭代思路提纲挈领的总结,如有错漏,欢迎指出。

ChatGPT的爆火一度让我感到恍惚:最开始我看好自然语言处理,计算机视觉火了;行吧那我看好计算机视觉里的自动驾驶,加密货币火了;行吧那我看好加密货币里的以太坊,自然语言处理里的ChatGPT火了。行业冥灯的人设已然不可动摇,既然如此我就先不看好ChatGPT了,咱就单纯试试理解一下 ChatGPT在干啥。

人类早期驯服自然语言模型和教小婴儿说话差不多,一遍不行就两遍,两遍不行就三遍。爸爸们靠不断重复地叫自己“爸爸”并给出丰厚的回报才能忽悠到小家伙跟着叫两声。小婴儿通过叫“妈妈”和叫“爸爸”的不同反馈,对于词语也有了自己的理解(embedding)。

但光靠这两个词,小婴儿还是没法理解爸爸妈妈之间的对话,什么“奶粉钱”、“学奥数”、“小时了了,大未必佳”,那都是啥跟啥啊。小婴儿需要把连续的语句分解成一个个的词语(text segmentation),一点一点慢慢学习。“奶粉/钱”、“学/奥数”、“小时/了了,大/未必/佳”。通过了这层考验的小婴儿理论上具备了识别“碳碳键/键能/能否/否定/定论一”的能力。

接下来该教小婴儿学习一下人情世故了,人类说话得看场合看气氛,不能葬礼上恭喜发财,婚宴上万望节哀。所以要把一句话的上下文(context)也仔仔细细交代给小婴儿,虽然他也不一定完全理解,但即使没法死记硬背(recurrent neural network),也得留个印象以后别踩坑(long short term memory)。学习到这里就可以算是合格的小学生了,已经能理解“一/去/二三/里,烟村/四五/家,亭台/六七/座,八九十/枝/花”里的数字是上下文之间的连接,不会把“一去二三里”的下句,直接填上“八九十枝花”。

数数日子小学生该进初中了,这时的学习目标是“抓重点”(attention)。班主任开口一讲就是四十五分钟,课外阅读翻开一看就是六七十页,习题册终于做完已经八九点钟。输入太多了,正常人类都处理不来这么多信息。而且很多时候,重要的信息其实并不在一起出现,比如“这次考试考得不错,爸爸为你感到高兴,升入初二要更加努力,初三暑假爸爸带你去旅游,你的电脑密码帮你改了”,这一长串话的重点其实只有“爸爸把电脑密码改了”。为了处理这种关键词和主语相隔太远的问题(long distance dependency),也为了加快阅读速度(gpu parallelization),初中生慢慢形成了自己的阅读策略(transformer)。

既知道找上下文也知道怎么抓重点,这就可以升入高中了。我们希望高中生能通过文字理解人类社会长期积累下来的语言知识(generative pre-training transformer)。毫无疑问每个学科都有自己的词汇体系和句法规范,但它们一定都遵循普遍的文字逻辑。所以一旦高中生拥有了基本的中文阅读能力(generative pre-training),就可以基本无障碍地学习并理解每门学科(discriminative fine-tuning)。当他可以门门学科都懂个大概的时候(robust transfer performance),就该去大学整活了。这个时候的高中生,已经能读明白“无边落木萧萧下,不尽长江滚滚来”里的借景抒情了才对。

来了大学差不多刚好叛逆期,就觉得老一代人鼓捣的这些东西没啥道理,我这么厉害肯定能搞出新的突破。只要阅读了足够多的文献(sufficiently varied text corpus),大学生(GPT-2)可以沿着“假设-推导-失败”这样的过程去构建属于自己的猜想,而且不需要导师(without explicit supervision)。大学的他应该会很喜欢“东风不与周郎便,铜雀春深锁二乔”,难得遇到一个颇为合理的历史假设。

大学毕业该念博士了。经过漫长的学术训练,这位博士(GPT-3)学习了很多艰深晦涩的知识,渐渐超越了人们的日常语言体系。他的水平又增长了很多,但说的话不一定能被普通人准确地理解。为了帮他展现出自己真正的实力,我们找来了一个段子手帮忙写稿。通过插科打诨(instruct tuning)拉近他的表达与日常语言体系之间的距离(alignment);再帮助他战胜一下社恐心魔,多和几个真人对话(reinforcement learning from human feedback)。他也就真正有了接近真人的聊天能力(ChatGPT)。博士毕业的他已经可以理解人类的语言并用同样的语言风格加以回应,而且他的回应基本完全符合人类的思维结构和知识体系。

我们也以下图总结了从小婴儿到博士毕业的全部历程:

著名互联网哲学家张一鸣曾说过:有一种走捷径的方式,就是对事物的过度抽象,对方法论的过度追求。因为你对一个事情抽象,相当于思维上加杠杆。一旦这个杠杆加错,通常是失之毫厘,谬以千里。

那么在理解ChatGPT这样革命性的新事物上,我们将其抽象成小婴儿的成长,必然不能准确概括其中的深意。就像复述笑话的人往往抓不住微妙的笑点。祝坚持读到此处的读者继续探索,通用人工智能近在眼前,“总有艰险,哪怕是谎言,我等待你出现”。

References

  • Embedding: Efficient Estimation of Word Representations in Vector Space
  • Recurrent neural network: Sequence to Sequence Learning with Neural Networks
  • Long short term memory: Long Short-Term Memory
  • Attention: Structured Attention Networks
  • Long distance dependency: Gradient Flow in Recurrent Nets: the Difficulty of Learning Long-Term Dependencies
  • GPU parallelization: Can Active Memory Replace Attention?
  • Transformer: Attention Is All You Need
  • GPT: Improving Language Understanding by Generative Pre-Training
  • GPT-2: Language Models are Unsupervised Multitask Learners
  • GPT-3: Language Models are Few-Shot Learners
  • Alignment: Aligning Language Models to Follow Instructions
  • ChatGPT: ChatGPT: Optimizing Language Models for Dialogue