淘优惠

淘优惠

人工智能ChatGPT爆火背后:以后跟你一起上网的没有真人了?

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

cogito人工智能,人工智能tts,gts人工智能,人工智能cp规则
12.2
知识分子
The Intellectual

图源|Pexels

 导  读

未来三五年内几乎一定会发生的事情是:社交媒体、短视频平台上开始大量出现普通人不容易分辨,完全由AI创作的“灌水”内容。这些内容既可以极大丰富社交媒体的内容厚度,还可以根据AI对人类兴趣爱好的学习追踪,为不同人群打造更为庞大、牢固的“信息茧房”。
撰文 | 王咏刚
责编 | 邸利会
●                   ●                    
近日,ChatGPT火遍了全网。人工智能研究和部署公司OpenAI 发布的短短5天内,就吸引了100万用户。在官方描述中,称其是一个“可以连续回答问题、承认自己的错误、挑战不正确的前提并拒绝不适当的要求”的对话模型。从闲聊、回答问题到写小说、诗歌,帮程序员解决程序的Bug等等,ChatGPT表现出的能力让不少人惊叹。
吴军谈人工智能chatgpt智力等级 chatgpt在人工智能产业链哪个环节人工智能 吴飞,吴军的智能时代读后感300字,人工智能郭军,吴志强 人工智能

  这段时间,一款名叫ChatGPT的人工智能聊天系统就像平地起春雷,突然刷爆网络。

  “从目前普遍的对话感受来看,ChatGPT的最大亮点就在于其优秀的意图识别与语言理解能力,这令人意识到人工智能的交互能力已经实现了跨越式进展。”易观智慧院高级分析师陈晨评价。

  有问必答,侃侃应对。这种神奇的人机互动体验,勾起人们绞尽脑汁向ChatGPT提问的热情,并为其带来惊人的用户量:该系统在两个多月前由美国人工智能研究公司OpenAI推出,今年1月便已达到1亿月活跃用户,用户增长速度堪称史无前例。

  这款产品大受欢迎,其重要幕后功臣是被业内称为预训练模型的技术。面对ChatGPT的爆火,国内科技机构和企业纷纷“亮剑”。据最新消息,中国版ChatGPT将于下个月与公众见面。

  参数规模从几百万狂飙至几千亿

  “目前,预训练技术是人工智能研究的重要突破口。”阿里研究院未来技术中心负责人苏中解读,传统的研究方法中,标注成本一直是阻碍人工智能算法推向更大数据集合的障碍,而预训练技术不依赖数据标注,就可以训练出一个大规模深度学习模型。

  科技日报记者了解到,由于不需要数据标注,预训练模型往往可以使用更大的数据集,因而可以选择更大的模型规模——这就催生了预训练大模型。

  “与以往的人工神经网络相比,预训练大模型最大的不同在于它规模足够大,深度学习网络的层数多、连接多、参数多。”IDEA研究院(粤港澳大湾区数字经济研究院)认知计算与自然语言研究中心讲席科学家张家兴接受记者采访时介绍,2012年前后的深度学习网络只有几百万参数;2018年前后主流的预训练模型达到1亿参数;目前被证明非常有效的大规模预训练模型已有几千亿参数,短短几年时间提升了几千倍。

  量变引起质变。苏中分析,在对预训练模型各种不同的技术评测中,算法性能展示了一个规律:数据规模越大、预训练模型参数越多,算法输出精度往往也越高。

  除了规模大以外,张家兴谈到,目前的预训练大模型由于采用了新的结构模型,非常适合并行训练。同时,在训练方式上,人工神经网络的预训练任务类似“解题”,比如把一句话的某个词或前半句去掉,让预训练模型利用海量大数据对句子进行恢复,这样训练下去,预训练模型的“解题”能力就会越来越好。而且,在大语言模型的基础上,引入指令学习,可以远超模型微调带来的收益。在此基础上,人类的反馈可以帮助模型更好地理解人类意图和接收信息,人机对话也就越来越流畅。

  “ChatGPT在底层数据、核心技术、用户体验等各方面都可以说是里程碑式的人工智能产品。”旷视研究院基础科研负责人张祥雨表示,ChatGPT的核心技术是人工智能语言大模型,其关键是如何让人工智能模型具备逻辑推理能力,以及如何让人工智能学习全互联网的知识。这些ChatGPT基本都做到了,因此在决策和知识环节有了很大的突破。

  国内多家科技机构已布局相关领域

  据外媒报道,多家国外科技巨头正重金投入预训练模型和人工智能生成内容(AIGC)赛道。记者了解到,国内已有不少科技机构和企业布局相关领域。

  张家兴告诉记者,IDEA研究院认知计算与自然语言研究中心在此方向上布局已久,该中心拥有国内最大的开源模型体系——封神榜,已开源的98个模型正在全力支持中国AIGC的发展,探索研发适配各个领域的个性化可定制模型,支持全部自然语言处理(NLP)任务。

  “很高兴能在深度学习高速发展的第十年节点上,看到AIGC和ChatGPT的出现,今天所有这些自然语言处理任务正在被统一到ChatGPT模式下,我们也正在整合之前的模型和技术,推出我们的类ChatGPT模型。”张家兴说。

  记者从百度获悉,百度已投入开发类似ChatGPT的相关技术,该项目名字确定为文心一言,英文名ERNIE Bot,3月份完成内测后面向公众开放。目前,文心一言在做上线前的冲刺。

  “ChatGPT主要涉及自然语言处理相关技术,属于认知智能领域的应用之一,科大讯飞在该方向的技术和应用方面具备长期深厚的积累。”2月8日晚,科大讯飞在投资者互动平台回应称,公司已面向认知智能领域陆续开源了6大类、超过40个通用领域的系列中文预训练语言模型,并于去年12月启动生成式预训练大模型任务攻关,人工智能学习机将成为该项技术率先落地的产品,今年5月将进行产品级发布。

  此外,360公司2月7日在投资者互动平台表示,该公司也计划尽快推出类ChatGPT技术的原型版产品。“AIGC技术除了在搜索引擎的应用之外,还可以辅助数字安全能力的提升。”360公司称。(记者 刘园园)(记者操秀英、刘艳对此文亦有贡献)

原标题:ChatGPT爆火,国内研发进展如何?
责任编辑:曾少林

chatgpt用了英伟达多少芯片 下载chatgpt苹果版要收费吗

gtc 英伟达,英伟达p和t,英伟达 gsync,英伟达带ti

作者|吴明灿

编辑|桑明强

最近的科技圈狂欢,属于ChatGPT。

自从OpenAI公司公开了ChatGPT的公测平台后,ChatGPT就迅速霸占了国内各平台的科技榜单,短短一周,用户量已经突破了1百万人。但事实上,它不是一个新概念,确切的说,他算是介于GPT-3和GPT-4中间的一个彩蛋,而且,GPT-3已经是现象级的AI产品了。

在ChatGPT之前,OpenAI推出了GPT-3,同样是对人类语言的理解,GPT-3对比ChatGPT来说就显得冰冷。后来,在GPT-3的基础上,ChatGPT引入了人类偏好学习机制,让他的回答更贴近人类,不仅如此,ChatGPT学会了纠正提问中的错误,并对一些敏感的问题做出回避。

在一些业内人士看来,ChatGPT的出现对传统的搜索引擎是一个冲击。无论是谷歌还是百度,用的都是一套“推荐制”的搜索方式,而ChatGPT跳过了网页浏览和整合这个步骤,直接给你一个答案,而这样的搜索结果显然更加效率,能大量节省用户浏览和比对的时间。

更有人预言,ChatGPT会颠覆现在已有的产业业态,就像当年互联网对线下商业的冲击一样。那么,事实真的如此吗?这篇文章我们来好好聊一聊。

01 ChatGPT带来了什么改变?

大约在6年前,一篇大名鼎鼎的论文《Attention Is All You Needed》正式发表,它第一次提出了注意力机制(Attention),并且在Attention的基础上创造了一个全新的NLP(自然语言处理)模型Transformer。

Transformer是GPT和BERT的前身。谷歌和OpenAI在自然语言处理技术上的优化,都是基于这个模型。

后来,从2018年开始,GPT技术基本上是一年迭代一次,所使用的参数量从初代GPT的1.17亿,增加到GPT-3的1750亿。优化的背后,是OpenAI巨额的研发经费投入。据相关数据显示,GPT-3训练一次的费用是460万美元,总训练成本达到了1200万美元,不仅测试成本非常高,GPT技术对算力的要求也是目前AIGC技术领域最高的。

各项技术算力需求图源国盛证卷

与此同时,在大算力的驱动下,AIGC生成的结果会更优质,更效率。从第一代的GPT技术到现在的ChatGPT,如今的技术已经可以让AI跟人进行自然的交流。因此,它也就具有了更多的应用场景,比如搜索引擎、电商客服等。

有趣的是,最近大家都在担忧谷歌会不会被ChatGPT替代掉的问题。关于这个问题,我们先来看一个应用场景:我从旅游景点推荐的方向,分别问了ChatGPT这样几个问题,它给出的答案如下:

ChatGPT问答测试图源新眸自制

以往我们需要查找一项攻略的时候,需要经历四个步骤才能得到答案:输入、检索、整理、结果,而ChatGPT跳过了中间的两个步骤,实现了从输入到结果的新搜索方式。

总结起来,就是ChatGPT技术已经可以替代部分的搜索引擎功能,大幅提高了用户的检索效率。再回到ChatGPT的核心技术上,GPT的全称是生成式预训练模型(Generative Pre-Training Transformer),ChatGPT也就是在无监督无标记,这种更符合日常沟通的条件下,识别人的语言并进行对话。

某种程度上,NLP技术的优劣,决定了AI对人类意图的理解能力,如果AI能理解人类的意图,就能生产更符合人类需求、更优质的产品。

作为AIGC赛道上重要的一个阶段,NLP技术的升级是整个AIGC技术更新的第一步。

ChatGPT在原来GPT的模型基础上加入了人类反馈学习的机制,也就意味着,新的GPT技术将更好的理解人类的自然语言。

用建筑设计领域举个例子,AIGC技术如果能完美的理解设计师的意图,就能免去很多繁琐和重复的工作,在提高效率的同时,也能释放劳动力的潜力,创作者可以逃离重复的工作,利用多余的时间进行自我提升。

从GPT-1到如今的ChatGPT,在NLP技术上的优化和迭代,让AIGC技术有能力开拓更多的应用场景。如果将优化后的AIGC技术落实在企业应用端,也会进一步提高企业效率,释放更多的人力成本。

AIGC应用场景图源红杉资本

02 焦虑是留给其余AI企业的

在技术圈和投资者们都为AIGC技术狂欢的同时,感到焦虑的是大部分AI企业。对于AI赛道上的其他企业来说,OpenAI和它们之间已经形成了很大的差距。

在ChatGPT发布之前,不是没有人挑战OpenAI的技术。

自从OpenAI发布了GPT-3并创开创了AIGC大算力的发展前景的时候,不少工程师开始研究对NLP过程进行瘦身,在保证运行效果不变的情况下,通过降低算力和参数量的需求,开发Transformer模型在应用端的潜力,目的在于希望小企业也能有能力运用NLP的新技术,但其实这是比较难实现的,尤其是参数量的需求对于AIGC技术来说是刚需,越多的参数量,所产出的AIGC作品也就更优质。

就像一位分析师在李rumor公众号中所提出的问题:“如果商用智能作为公司助手,你是会选择高价但是能精准提高效率的,还是低价但是准确率只有70%-80%的产品呢?”从长期投资的角度来看,企业是会倾向更精准的机器的。

最典型的例子是,在GPT-3发布之后不久,Meta AI推出了OPT技术。

OPT和GPT-3的运行效果几乎没有什么区别,参数量也是很巧合的1750亿。不仅如此,Meta AI还将OPT技术做了开源,提供给所有需要的企业和个人作为研发的基础技术。

那么问题来了,推特上的一位数字科技的风险投资人Andrew Steinwold这样评论GPT-4技术,他说:“GPT-3需要1750亿参数,GPT-4明显会拥有100万亿的参数量,你们想用GPT-4做出什么样的东西来呀?”

也许GPT-3对参数和算力的要求还能被一些比较大的企业满足,如果换做是参数量翻了几百倍的GPT-4,能跑得动巨额参数的企业也只能是凤毛麟角了。

AIGC未来对算力和规模的要求,对于进入赛道尚且年轻的企业来说更是不可能超越的。某种意义上,OpenAI凭借着大规模和大算力,在同行和自己之间构建了足够厚的技术壁垒,而这份研发投入,是非常难超越的。在全球市场排在头部的企业也就几家,能做到微软这个量级的企业就更少了。

这也是OpenAI开发GPT技术让人感到害怕的地方。

对于AIGC这个赛道来说,算力、算法、数据都是促使它优化的主要因素,而GPT技术的迭代升级,将大数据的重要性放到了一个空前的位置。在大算力、大投资、大规模的要求下,后来的AIGC企业想要做出更好的技术,只会变得更难。

也有人会问,为什么国内做不出ChatGPT这样的产品?是创新力不够吗?其实,创新力是一个因素,但不是全部。

03 我们距离ChatGPT还有多远?

我们从融资、科研投入、技术三个方面分别聊聊国内的情况。

国内企业有很多从事AIGC研究的企业,例如盗梦师、TIAMAT等,但是国内的投资人对AIGC的狂热度远不及海外。在海外独角兽公司Jasper和Stability AI在今年10月相继获得了1.25亿美元和1.01亿美元的融资后,国内的AIGC企业目前只有TIAMAT完成了百万美元的天使轮的融资。

先不看投资人的金钱实力,单凭投资逻辑,对于国内投资市场来说,投资人更关心AIGC的商业化落地问题。百度集团副总裁吴甜就曾针对AI的深度学习说过这样的话:“深度学习技术已经开始向多个行业进行大规模地渗透推广,但目前AI大生产仍处于起步阶段。”这也意味着,其实企业内部也对AIGC的商业化程度不够自信。

再比如PICO这样的元宇宙系列产品,最近也面临着销售瓶颈,这样的情况时国内很多高科技企业都会面临的问题,技术是好的,但落实在产品销售上就卖的不好,从某种程度上也会抵消企业内部对一个新产品的信心。

由于国内的AI企业在核心技术门槛上并不具备先天的优势,如果想实现净利润的提升,最终总会走向技术商业化。笔者此前针对科大讯飞的商业模式做过一些了解,对于科大讯飞来说,语音技术门槛被突破,单纯做技术不能赚钱的话,它会先选择卖产品挣钱,先将技术在产品端落地了,有一份收入来源,剩下的就边走边看。

在这样的逻辑下,国内AI企业就会更关注一项技术能不能实现快速实现商业化,是否可以在产品端落实之后带来收益。

但是OpenAI的思路明显和国内的大部分企业都不一样,OpenAI之前获得了微软的20亿投资,进行GPT的开发。GPT-4技术需要的大算力和大规模,显然在近几年是不能回本的。光是GPT-3在测试阶段就花出去了千万美金,作为算力要求翻了几百倍的GPT-4技术,在开销方面也只会成百倍的增加。

总结起来,这也是国内外科研逻辑的不同。相比国外,国内更追求商业产品的落地,投资人在对一些概念性的产品进行投资时也更加谨慎。然而,在大算力的新竞争生态下,融资投入的增加对于AIGC企业来说非常重要。

其次,是研发人员待遇的问题,根据市场调研数据,国内的企业研发人员相比于美国的企业,收入更依赖工龄和学历。

中美两国研发人员收入对比图源OECD

最后从国内AIGC相关的技术发展方面,根据Gartner数据统计,国内的数字化技术还集中在发展阶段。而美国的大部分技术都已经可以平稳发展。还有一个现象就是,在国内很多技术就算发展了5-10年也还是分布在创新孵化阶段,然而美国的很多技术在发展了1-2年后就能进入成熟阶段。从这个个统计结果来看,美国的企业相比于国内,研发效率明显更高。

综上来看,国内企业想要发展AIGC技术,首先要解决的就是资金问题。按照国内高科技投资的逻辑,AIGC技术在获得大量融资前,应该先让投资者看到它的应用前景。但是现在的AIGC赛道,虽然应用场景很多,但是商业前景还不够明朗。

04 谈谈AIGC这门生意

实际上,尽管AIGC的技术一直在迭代升级,AIGC的商业化推进其实是困难的。首先,AIGC对于算力的要求越来越大,不是一般企业可以负担的起的,也只有一些大的B端企业可以负担AIGC的大规模和大运算需求,这样一来将来能使用AIGC技术做应用的公司并不多。

其次,AIGC的应用路线还很模糊,就拿搜索引擎这一应用场景来说,ChatGPT还不足以取代传统的搜索引擎。

网络上关于ChatGPT击败传统搜索引擎的论调很多,我们回到前文提到的旅游推荐的应用场景去说,当我提问ChatGPT能不能给我一些旅游建议的时候,它直接给出了答案,搜索效率是提上去了,但是这个答案一定就是我需要的吗?未必。

比如,我问它圣诞节伦敦有哪些值得去的地方。它给我列出了5个城市,现实的情况是,英国的圣诞活动各地都有,它直接给我列出的5个城市,一定程度上也减少了我的选择。

ChatGPT现在的问题在于,他给出的答案往往是大众性质的、普适化的,而非个性化的。

在用户刚开始做检索的时候,大部分情况下对自己的需求是没有很明确的认知的。而在使用传统浏览器的时候,往往是在检索过程中才能进一步缩小自己的需求范围,而ChatGPT是直接将用户能看到的答案范围进行了缩减,它给出的答案是正确的,但不一定就是最合适用户的。

就现在的情况看,AIGC的应用前景并不明朗,尽管AIGC可以运用在多种场景中,但好的技术,不一定能在商业上迅速落地。

尽管OpenAI用钱烧出了GPT技术的迭代,但是这一做法也有它的市场局限性,在大算力的要求下,没有多少企业可以承担得起GPT-3 的运作,就算是面向大众测试的ChatGPT,它的参数量要求也很大,将来如果运用在B端市场,对于多数的企业来说是个不小的负担。ChatGPT的出现也只是AIGC的一次技术迭代升级罢了,它的应用前景还不明朗,现在就谈到劳动力替代和技术垄断,还太早了。