淘优惠

淘优惠

chatgpt是如何实现的 chatgpt是ai里程碑吗

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt是什么意思,chatgpt怎么下载,chatgpt官网,chatgpt中文

缘起

输入几个简单的关键词,AI能帮你生成一篇短篇小说甚至是专业论文。作为上知天文下知地理对话语言模型,最近大火的ChatGPT在邮件撰写、视频脚本、文本翻译、代码编写等任务上强大表现,让埃隆・马斯克都声称感受到了AI的“危险”。最近大火的ChatGPT的计算逻辑来自于一个算法名字叫transformer。它来源于2017年的一篇科研论文《Attention is all your need》。本来这篇论文是聚焦在自然语言处理领域,但由于其出色的解释性和计算性能开始广泛地使用在AI各个领域,成为最近几年最流行的AI算法模型,无论是这篇论文还是transformer模型,都是当今AI科技发展的一个缩影。

这也是我想在这里给大家分析这篇文章的核心要点和主要创新的初衷。

但我非AI(数学,计算机)专业,只是梳理并分享自己学习的体会和思考,与大家一起讨论,欢迎各位多提宝贵意见;所述并不专业,各位大牛可以绕行。

为什么选择分析一篇本该在科研圈里流传的科研论文,作为公众号的首篇呢?

从Transformer提出到“大规模与训练模型”GPT(Generative Pre-Training)的诞生,再到GPT2的迭代标志Open AI成为营利性公司,以及GPT3和ChatGPT的“出圈”;再看产业界,第四范式涉及到多个重要领域比如生物医疗,智能制造纷纷有以transformer落地的技术产生。在这个浪潮下,我的思考是:

一是,未来很长一段时间在智能化领域,我们都将经历“科研、算力、基础架构、工程、数据、解决方案”这个循环的快速迭代;流动性、创新性短期不会稳定下来,而是会越来越强。我们很难等到科技封装好,把这些知识全部屏蔽掉,再去打磨产品。未来在竞争中获胜的,将是很好地“解决了产品化和科研及工程创新之间平衡”的团队。我们一般理解的研发实际上是工程,但AI的实践科学属性需要团队更好的接纳这种“流动性”。因此对所有从业者或者感兴趣智能化的小伙伴了解全栈知识成了一个刚需。

二是,通过对这篇论文的探讨,可以更直观地理解:在科研端发生了什么,以什么样的速度和节奏发生;哪些是里程碑?是科学界的梅西横空出世,带我们发现真理;哪些是微创新?可能方向明确了,但还有很多空间可以拓展;哪些更像炼金术?仍然在摸索,尚需要很长一段时间,或者一直会保持这个状态。

三是,在AI领域,由于技术原因,更多的论文是开源代码的,一方面,促进了更多人参与进来改进迭代;另一方面,科研跟工程实现无缝连接,一篇论文可以拉动从核心代码到平台,到具体应用很大范围的价值扩散。一篇论文很可能就是一个领域,一条赛道,甚至直接驱动业务价值和客户价值的大幅提升。

四是,?AI技术发展有很多领域(感知,认知,感知又分图像、语音、文字等,认知也可以分出很多层次)之前这些领域的算法逻辑存在很大差别,transformer的出现有一定程度上推动各个领域汇聚的迹象,介绍清楚这篇文章,对把握整体,可能有些作用。另外ChatGPT属于现象级应用,大家更有直观感受,未来这类应用的体验提升和更新速度只会更快,理解了其背后的逻辑,更有助于我们把握这个趋势。

现今,知识迭代速度很快,需要打下坚实的基础。我的私心是希望通过公众号分享文章,激励自己更好地理解、梳理相关知识,以做尝试;如果大家比较接受,后面我会逐步把在工程、方案、产品和企业智能化的思考逐渐沉淀并分享在这个公众号里面。

论文介绍

下面步入正题,开始介绍这篇论文,会涉及一些技术细节及公式,可能还需要仔细看一下(先收藏,留出15-20分钟比家好),相信一旦看进去,你会对AI的理解加深很多。

总体把握

这篇论文的结构非常精炼,提出问题,分析问题,解决问题,给出测试数据。顶刊文章讲究言简意赅,有描述,有代码,有结果;其中最核心的是以下这张图,作者团队提出transformer的核心算法结构:

整篇文章就是围绕这张图来进行解释的,由于篇幅所限,我们聚焦在一条主线上:1.文章想解决主要问题是什么 2.如何解决的 3.从文章提出的解决方案作为一个案例来引发整体思考,因此我们将内容简化,主要关注核心部分。

这张图表达的内容如果理解了,那基本上你掌握了这篇论文85%的内容,也是最关键的部分。

《Attention is all your need》在编写时主要是为了考虑NLP任务,是由几个Google的科研人员一起完成的,其中一个背景是Google也在推广自己的并行计算芯片以及AI TensorFlow开发平台。平台主要功能特点是并行计算,这篇文章的算法也是在最大限度的实现并行计算。我们就以一个简单的例子来把这个算法串一遍。

核心内容

需求是我们需要训练一个模型,进行中文到英文翻译。

背景知识:这个需求要把“翻译:我爱你 to I love you”转置成一个y=f(x)问题,x代表中文,y是英文,我们要通过训练得到f(),一旦训练成功f(),就可以实现翻译。大家拼的就是谁的训练方法更准确,更高效,谁的f()更好用。

之前自然语言处理主要的算法叫RNN(循环神经网络),它主要的实现逻辑是每个“字”计算之后将结果继承给第二个字。算法的弊病是需要大量的串行计算,效率低。而且当遇到比较长的句子时,前面信息很有可能会被稀释掉,造成模型不准确,也就是对于长句子效果会衰减。这是这篇文章致力于要解决的问题,也就是说这篇文章有训练处更好的f()的方法。联想一下ChatGPT可以做论文,感受一下。

在Transformer里,作者提出了将每个字与句子中所有单词进行计算,算出这个词与每个单词的相关度,从而确定这个词在这个句子里的更准确意义。(这句话要是理解了,后面其实可以不看了)

在此处,要开始进入一些技术细节,在开始之前,我们有必要再熟悉一下机器学习领域最核心的一个概念――“向量”。在数字化时代,数学运算最小单位往往是自然数字。但在AI时代,这个最小单元变成了向量。这是数字化时代计算和智能化时代最重要的差别之一

举个例子,比如,在银行,判断一个人的信用额度,我们用一个向量来表示

向量是一组数据的集合,也可以想象成在一个超高维度空间里的一个点。一个具体的信用额度向量,就是在8个特征组成的高维空间的一个点。数据在高维空间将展现更多的数学性质比如线性可分,容易让我们抓住更多隐藏的规律。

向量的加减乘除是计算机在进行样本训练是最主要的计算逻辑。第四范式一直强调的高维,实时,自学习,其中高维就是把企业信息拉升到一个非常高维的空间,变成向量。

Transformer模型的主要意义就是找到了一个算法,分成三步把一个词逐步定位到了一个高维空间,在这个过程中赋予这个单词比其它算法更优的信息。很多情况下这个高维空间有着不同的意义,一旦这个向量赋予的信息更准确更接近真实情况,后面的机器学习工作就很容易展开。还拿刚才信用额度向量举例子

这两个向量存在于两个不同的向量空间,主要的区别就是前者多了一个向量特征:“年薪”。可以思考一下如果判断一个人的信用额度,“年薪”是不是一个很重要的影响因子?

以上例子还是很简单的,只是增加了一个特征值,在transformer里就复杂很多,它是要把多个向量信息通过矩阵加减乘除综合计算,从而赋予一个向量新的含义。

好,理解了向量的重要性,我们看回transformer的三步走,这三步走分别是:1.编码(Embedding)2. 定位?(Positional encoding)3. 自注意力机制(Self-Attention)这个真的大名鼎鼎

举个例子,比如,翻译句子Smart John is singing到中文。

首先,要对句子每个词进行向量化。

我们先看“John”这个词,需要先把“John”这个字母排列的表达转换成一个512维度的向量john?这样计算机可以开始认识它。说明John是在这个512维空间的一个点;这是第一步:编码(Embedding)

再次,第二步?定位(Positional encoding):利用以下公式(这是这篇文章的创新)

微调一个新的高维空间,生成一个新的向量

我们不用太担心这个公式,它核心意义是:1.在这个新的向量里面每一位由原来的0和1表示,分别取代成由sin和cos表示,这个目的是可以通过sin和cos的定律,让这个新向量不仅表示John这个单词的意义,还可以表示John在Smart John is singing这个句子的位置信息。如果不理解,可以直接忽略,只要记住第二步是用来在“表达John这个词的向量”中,加入了John在句子中的位置信息。John已经不是一个孤立的词,而是一个具体句子中的一个词,虽然还不知道句子中其他词是什么含义。

如果第一步计算机理解了什么是John,第二步计算机理解了“* John**”。

最后,第三步,自注意力机制(Self-Attention),通过一个Attention(Q,K,V)算法,再次把John放到一个新的空间信息里,我们设为

在这个新向量里,不仅包含了John的含义,John在句子中位置信息,更包含了John和句子中每个单子含义之间的关系和价值信息。我们可以理解,John作为一个词是一个泛指,但Smart John就具体了很多,singing的Smart John就又近了一步。而且Attention (Q,K,V)算法,不是对一个单词周围做计算,是让这个单词跟句子里所有单词做计算。通过计算调整这个单词在空间里的位置。

这种方法,可以在一个超长句子中发挥优势,而且最关键的是一举突破了时序序列的屏障,以前对于图像和NLP算法的划分,很大程度上是由于NLP有很明显的时序特征,即每个单词和下一个以及在下一个有比较明显的时序关系。但Transformer这种算法打破了这种束缚,它更在意一个单词跟句子中每个单词的价值权重。这是Transformer可以用到everywhere的主要原因。

计算过程

(如果不感兴趣,可以跳过这一部分介绍,直接进入启发收获部分,如需一些基础知识,可以参考“智能化学习与思考”公众号的基础知识文章)

具体的计算过程,用翻译句子“我爱你”到“I love you”举例(这句更简单一些)。首先进行向量化并吸收句子位置信息,得到一个句子的初始向量组。

(由于样本每个句子长短不同,所以每个句子都会是一个512*512的矩阵,如果长度不够就用0来代替。这样在训练时,无论多长的句子,都可以用一个同样规模的矩阵来表示。当然512是超参,可以在训练前调整大小。)

接着,用每个字的初始向量分别乘以三个随机初始的矩阵WQ,Wk,Wv?分别得到三个量Qx,Kx,Vx。下图以“我”举例。

然后,计算每个单词的attention数值,比如“我”字的attention值就是用“我”字的Q我分别乘以句子中其他单词的K值,两个矩阵相乘的数学含义就是衡量两个矩阵的相似度。然后通过一个SoftMax转换(大家不用担心如何计算),计算出它跟每个单词的权重,这个权重比例所有加在一起要等于1。再用每个权重乘以相对应的V值。所有乘积相加得到这个Attention值。

这个attention数值就是除了“我”字自有信息和位置信息以外,成功的得到了这个句子中每个单词的相关度信息。

大家可以发现,在所有注意力系数的计算逻辑中其实只有每个字的初始矩阵WQ,Wk,Wv是未知数(这三个矩阵是所有文字共享的)。那么我们可以把这个transformer简化成一个关于输入,输出和这个W矩阵的方程:其中X是输入文字信息,Y是翻译信息。

这里有必要再介绍一下机器学习的基础知识:Transformer算法本质上是一个前馈神经网络模型,它的计算基础逻辑,不去管复杂的隐藏层,就是假设Y=f(x)=wx,(目标还是要算出一个f())然后随机设置一个w0,开始计算这个y=w0x的成本函数,然后再把w0变成w1,计算y=w1x的成本函数,以此类推计算出无数w(不是无数哈,也会收敛的),然后比较哪个w的成本函数最小,就是我们训练出来的f()。那么在transformer里,这三个初始矩阵就是那个w0。

再回到transformer,在计算Attention之后,每个单词根据语义关系被打入了新的高维空间这就是Self-attention(自注意力机制)。

但在transformer里,并不是代入了一个空间,而是代入了多个高维空间,叫做多头注意力机制,

文章中没有给出更清晰的理论支持,为什么是多头

主要原因是在训练时效果很好。这也是AI科研论文的一个特点,常常凭借非常高的科研素养和敏感性,发现一些方向,并且通过测试确实有效,但不一定可以给出很完美的理论支撑。这往往也给后续研究者一些可以进一步完善的空间。

事实证明,如何提升Attention(Q,K,V)效率是transformer领域迭代最快的部分。之后的Bert算法提出预训练机制成为了主流,后面会做进一步介绍。

当然,事后我们可以理解是把这个句子中的逻辑关系放到不同的高维空间去训练,目的就是希望抓取更多的信息,这一部分可以更加深刻理解科研人员对空间的应用。

除了以上内容,还有一些技术点比如Mask机制、layer norm、神经网络激函数饱和区控制等,由于篇幅关系以及属于技术细节就不一一介绍了。

如果大家理解了多头自注意力机制,基本已经85%掌握了这篇论文的重要内容,也对还在快速扩展影响力的transformer模型有了一个比较直观的认识。

启发收获

从理论科研进步的角度看

1.Transformer打破了时序计算的逻辑,开始快速出圈,多个AI原本比较独立的领域开始在技术上融合。再往里看,Transformer能打破时序很重要一点是并行计算的算力模式给更复杂的计算带来了性价比上的可能性。算力的进一步提高,必将在AI各细分领域带来融合,更基础设施级别的模型,算法仍将不断推出。AI领域在图像,NLP;感知认知领域的专业分工也会慢慢变模糊。

2.AI科研确实具有一些实验性质。除了核心思想,确实还有很多技术点的解决方向已经明确,


chatgpt前景 chatgpt横空出世

chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt中文

最近,ChatGPT在互联网火得“一塌糊涂”!无论是在科技界还是在投资界,ChatGPT俨然成为了大家关注的焦点、讨论最多的话题

这两天,有关“ChatGPT”的词条更是霸榜微博热搜!

图片来源:2月7日11时23分微博热搜

在国内,甚至掀起了商标抢注潮!据企查查APP显示,“CHATGPT”已被来自深圳、合肥、广州、四川等地的科技、贸易公司及多名自然人抢注,国际分类涉及广告销售、科学仪器、设计研究等,当前商标状态均为注册申请中。

图片来源:企查查

那么,ChatGPT究竟是何方神圣?为何受这么多人“追捧”?

ChatGPT在“讨好人类”,但仍存在很多的局限性

在业内不少人看来,ChatGPT几乎是无所不能的!它会聊天、画画、写文章、作诗、创作剧本、出题、答题,甚至还可以编代码……人类能做的各种事情,它总能实现,并且完成度极高。以聊天为例,如今的智能聊天机器人已经对人类语言的理解和处理驾轻就熟,对起话来游刃有余。

说到这里,想必不了解ChatGPT的朋友应该都明白“这家伙”主要是干什么的了。作为美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,自2022年11月30日发布以来,就备受世界各行各业关注。

从网站访问量来看,鲸网跨境获悉,根据SimilarWeb分析,OpenAI已经跻身全球TOP50网站,去年11月的访问量为1830万,到今年1月份,访问量一度狂飙至6.72亿,增长3572%。主要访问人群是技术社区

图片来源:SimilarWeb

从注册用户量来看,公开数据显示,仅上线5天,ChatGPT注册用户数就超100万,上线两个月,用户数更是破亿,成为有史以来增长最快的消费者应用

图片来源:勾股大数据

在人工智能领域,ChatGPT将其功能特性发挥到了极致,使人们的工作、学习和生活等各个方面均发生了前所未有的变化,有积极的作用但也饱受争议

一些企业表示担忧,未来很可能会被ChatGPT取代,谷歌、Meta等硅谷顶级科技公司似乎也感受到了威胁。其中,谷歌对ChatGPT的出现尤为重视,对此亮出“红色代码”最高级别警报。

这里就不得不提到谷歌其中的一个竞争对手微软,其向ChatGPT开发商OpenAI 投资了数十亿美元,该合作伙伴关系使微软在将可能改变众多行业以及互联网搜索业务的新AI突破商业化方面加强与谷歌的竞争

当然,谷歌也没有坐以待毙,其宣布将推出聊天机器人Bard,与ChatGPT展开对抗

图片来源:谷歌

此外,据Study.com的一项新研究调查显示,美国有89%的大学生都在使用ChatGPT做作业,真实比例可能更高,这在无形中为学生提供了作弊的机会

图片数据来源:Study.com

为杜绝这一现象,纽约的教育系统全面封杀了ChatGPT!斯坦福大学的研究团队也提出了用于检测AI生成文本的全新算法DetectGPT,该技术可对未来越来越普遍的人工智能写作论文事件起到很好的反制作用。

为应对被滥用的问题,ChatGPT开发商OpenAI新发布了一款能标记出OpenAI产品以及其他AI创作软件编写的内容的“分类器”(classifier),但目前仍有许多局限性。

OpenAI首席执行官Sam Altma在其发布的推文中承认,“目前ChatGPT有局限性,用户应该注意他们对所获得答案的依赖程度。”

Sam Altma发布的推文

微软创始人比尔・盖茨在一次接受媒体采访时也曾表示,“AI将变得有争议,这是‘2023年最热门的话题’,它有能力‘改变就业市场’,但需要思考,边界在哪里?否则,可能会迷失方向。”

因此,对于横空出世的ChatGPT,如何权衡其利弊非常重要,特别是对于企业而言,这关乎到企业整体的战略布局和投资回报!接下来,我们就来聊聊ChatGPT潜在的商业模式,给出海企业的一些观察和思考

聊聊“ChatGPT出海”,AIGC行业将大有可为

在互联网飞速发展的时代,技术创新是每个企业不可或缺的增长核心。随着OpenAI进入公众视野,ChatGPT走红全球,也再次带动了投资者对AIGC行业的热情。

近年来,国内众多企业都在布局人工智能赛道。鲸网跨境获悉,根据企查查的数据显示,每年人工智能相关企业注册量均呈上升趋势,目前,我国现存人工智能相关企业已超过109万家

图片数据来源:企查查

从区域分布来看,广东以16.45万排名第一,其次为江苏和山东,分别有9.44万家、9.26万家;从城市分布来看,广州以6.81万家排名第一,其次为深圳、上海等大城市。

图片数据来源:企查查

在这些企业中,以大厂百度为代表,在人工智能赛道已经取得了不错的成绩。此前,百度宣布将推出一款类似于ChatGPT产品。目前该消息已得到确认。据新浪科技2月7日报道,百度的这款产品中文名字确定为文心一言,英文名ERNIE Bot,今年3月份完成内测,面向公众开放

除此之外,由于ChatGPT概念的持续活跃,二级市场上,多只相关个股飘红。Wind数据显示,自1月以来,AIGC概念股整体上涨

回到正题,为什么说ChatGPT的出圈将推动AIGC行业的发展?有业内人士表示,AIGC是继PGC(专业生产内容)、UGC(用户生成内容,即用户原创内容)之后的新型内容创作方式。而ChatGPT只是AIGC(人工智能生成内容)行业的众多产品之一,属于其中的一个典型应用

先来说说ChatGPT,你可以把它视为谷歌搜索,它会通过对话和结构化的形式为你呈现信息,这点与谷歌直接抛出一堆信息来源不同

鲸网跨境了解到,目前已有不少卖家将ChatGPT应用到其工作之中,主要包括以下几方面:

1.市场调研

分析市场电商发展、行业潜在机会

2.选品参考

分析产品需求,可细化到受众、客单价等

3.找广告关键词

优化广告投放关键词

4.拟产品的标题

了解用户搜索习惯

5.撰写产品描述

可作为底稿,自己再进一步优化

6.整理社媒文案

非常智能,连hashtag都会选好

7.编写营销邮件

可作为参考,根据实际情况调整

8.谷歌SEO

对独立站卖家比较有帮助

再来看看AIGC,随着ChatGPT的技术日渐完善,AIGC出海或将在电商虚拟主播、金融、医疗、教育、游戏及影视娱乐等多领域爆发

国内AI大厂科大讯飞、百度、腾讯优图、超图软件等已开始加码AIGC赛道,正在积极探索相关产品落地,海外市场也或将成为他们拓展目标。

值得一提的是,随着AI技术的迅猛发展,人工智能技术(包括内容、GPU芯片、AI服务器和AI云服务等在内)的供应商将率先从中获益

写在最后,ChatGPT未来的前景

就目前而言,尽管ChatGPT技术还在逐步迭代升级,不过其商业化之路已经开启,鲸网跨境从其官网了解到,OpenAI推出付费订阅服务ChatGPT Plus。

当然,不可否认的是,随着ChatGPT技术提升,其交互性和智能性将更加强大,同时将贯穿到人们生产生活中的更多细分场景之中。例如客服机器人、智能办公、智能家居等行业,未来定有ChatGPT的一席之地。

另外,AIGC赛道目前也仍处发展初期,ChatGPT的发展与其相辅相成。如何合理地利用,以提高企业效益,是每个企业所需要思考的

属于AI的时代,已悄然而至。虽然当前阶段,底层技术发展、商业模式还不算成熟,但相信在不久的将来,它会给行业带来更多新的惊喜。

原创/鲸网跨境


winvscode使用教程 vscode中的chatgpt插件

windowsvscodeC++配置,vs code windows,vscode win,vs code如何使用

机器之心报道

编辑:蛋酱、小舟

ChatGPT 的 Debug 功能,有人应用化了。

ChatGPT 这几天可谓是风头无两。作为一个问答语言模型,它最大的优点就是可以回答与编程相关的问题,甚至回复一段代码。

尽管有人指出 ChatGPT 生成的代码有错误,但程序员们还是对它写代码、找 bug 的功能很感兴趣,有人还给 VScode 构建了一个 ChatGPT 插件。

一直以来,VS Code 都是开发者心目中的生产力神器,它免费、开源且跨平台,被称为最好用的 IDE。

把 VS Code 和 ChatGPT 结合使用,用户将获得来自 AI 的编程指导,包括代码解释、找 bug 等功能。

ChatGPT 中文版 VSCode 插件上线仅几天,已有 4 万多次下载,收到广泛好评。

该插件的开发者是 B 站 UP 主时夕说:

如何使用

鉴于 ChatGPT 未面向中国大陆开放服务,因此很多大陆网友无法使用自己的手机号码注册 OpenAI 账号。但作者表示,目前 VSCode ChatGPT 的免登录、免注册、免代理版本已经上线,并在 VSCode 的插件商店提供了更新。

开发者只需简单安装即可使用插件,然后可以通过「ChatGPT: 切换国内 / 国外模式命令」将当前模式切换到国内,实现免登录、免注册、免代理。

作者也提到, JetBrains 家族的 IDE 的插件正在开发中,而其他 IDE 的插件恐怕短时间内还不能面世。

具体的使用方法,作者在下载界面给出了操作指南:

首先,在编辑器中右键触发菜单。

或者快捷键打开命令面板(ctrl+shift+p 或者 command+shift+p),输入 "ChatGPT"。

目前支持的代码功能包括:

ChatGPT: 请输入问题:直接对 ChatGPT 提问

ChatGPT: 添加测试代码:为当前选中的代码,或者当前文件添加测试代码

ChatGPT: 代码为什么有问题(需要同时选中报错):询问代码出现的问题,需要将报错也一起选中

ChatGPT: 优化这部分代码:对当前选中的代码,或者当前文件,进行优化或者重构

ChatGPT: 解释这部分代码:对当前选中的代码,或者当前文件,进行解释

ChatGPT: 执行自定义命令 1:添加一个对选中代码,或者当前文件执行的自定义命令 1,添加后可以直接执行

ChatGPT: 执行自定义命令 2:添加一个对选中代码,或者当前文件执行的自定义命令 2,添加后可以直接执行

执行了一个命令之后,侧边栏会弹出一个交互窗口:

后续所有的问题、回答、异常。都会在这个窗口中显示。

可以在交互窗口的底部输入框中,直接输入问题,询问 ChatGPT

也可以执行前面的命令,对代码进行询问。

询问过后,请等待一会儿,交互窗口中会自动出现结果。

查询成功时,如果结果中包含代码。那么,我们可以通过: "复制代码"、”插入 “、” 新建“ 这三个按钮来获取代码。

"复制代码":顾名思义,将代码复制到剪切板中

"插入":将当前代码,插入到当前的文件中。

"新建":将当前代码,插入到一个新的文件中。

查询失败时:会出现自助解决方案,请按照方案进行操作。

用户评价

如果说此前 Copilot 是让开发者面向 GitHub 编程,那开发者现在可以开始习惯面向 ChatGPT 编程了。

于是有人说了:「从面向 github 编程又进一步,这下复制粘贴都不用搜索了,我也更废物了。」

从今以后,Copilot 和 ChatGPT 要算作程序员的「左膀右臂」了。

有趣的是,这个 ChatGPT 中文版 VSCode 插件就是作者在 ChatGPT 的帮助下写出来的。

另有开发者发现,虽然 ChatGPT 中文版还不算完美,但它有一大妙用是――自动添加注释:

就算写代码的人已经忘了注释想表达什么,至少 ChatGPT 还能记得:

甚至,已经有人开始用它来写作业了?

你要试试吗?