淘优惠

淘优惠

chatgpt底层逻辑 chatgpt会让程序员失业吗

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt是什么意思,chatgpt国内能用吗,chatgpt入口,chatgpt哪里下载

这几天chatGPT真的很火,但火不是主要问题,是很多人自发的使用它来散播焦虑,大肆宣扬xxx要失业了这样的话,于是秉承着实事求是的态度,不妨来验证一下

先给它个任务,写一下渲染函数,但现有信息太少,它表示这里可以是任何渲染前的准备工作和渲染时的操作
于是它教我们怎么写文档注释,并且提供了一个例子,注意函数中的注释,它是真的打算教会我怎么去写,而这真的很像一个实际的渲染流程
这里出现了一个输入时没有的类型Viewport,于是我们询问它这个类型的定义,这种viewport的定义虽然比较原始,但也可行
当尝试让它用vulkan来编写时,发现代码戛然而止了

试了好几次都无法让ai继续显示后面的代码,索性我们之前使用的是ash,变更换一下要求――implement this function with vulkan backend crate ash(接下来的使用代码块,而不是图片了):

然后以上代码和我们使用的ash版本并不匹配,我们会看这样的错误:

unresolved imports `ash::version`, `ash::vk_make_version`could not find `version` in `ash`

于是我们直接将该错误反馈给ai(做甲方的感觉真好)

然而这个解决方案依旧是过时的,vk这个module中也没有VK_API_VERSION_x_x这样的东西
事实上这个宏也已经弃用了
在官方库中查找到的结果

经过一些了解,发现chatgpt并不连接网络,知识也截至去年,这里使用今年的ash版本确实有些欺负它,想必继续下去,bug和历史遗留问题只会更多,那么这个问题由于时效性不太适合,那我们不妨试试别的,比如我们准备一个d语言的枚举:

它看懂了,但在不确定语言的情况下,它选择了c#,解释代码倒是还算不错

于是我们告诉它这其实d语言的代码:

它开始进行迷惑操作了,它说d语言的枚举定义有些不同,然后输出了一样的代码

接下来我们来试试给它一段代码,让它提供优化方案:

这是在下学d语言的时候随手写的一个向量类型(没有考虑simd,缺失不少功能,也正好给它提供了大量的可优化的空间)

它对代码进行了简单的分析,然后给出了很多方案
  • Add more documentation to the code to explain what each part of the code is doing and how it should be used. This will make it easier for others (and yourself) to understand the code and use it properly.――首当其冲的是添加更多的文档来帮助使用者了解代码,由于该代码并没有投入使用的预期,所以这一条我们暂且忽略,不过这条建议确实很常规

  • Consider implementing the class as a struct rather than a class. This will make it more lightweight and can improve performance in some cases.――改为使用struct而非class实现向量,使其更加轻量级,这是项目设计层面的问题,个人觉得倒不失为一种办法,但并不一定能让项目更好(这里我是将Matrix认定为一列由向量组成的向量,如果使用struct会提升这方面的实现难度和心智负担),但也算是合理的建议

  • Use the and annotations on the class and its methods to indicate that they can be used in a context and are safe to use, respectively.――该建议才是我所期待的建议(指和我使用的语言有关的,提升代码可读性或者其他功能的建议),使用@nogc和@safe来表示该类型可以在无gc条件下安全使用(得益于我这里的数组使用的是静态长度),该建议很实用,也比较专业

  • Use the keyword in the method to indicate that the parameter is only used for input, not output. This can help the compiler generate more efficient code.――同样是关于语言本身的建议,在opIndex函数中声明index为in来提高编译后代码的质量(这里我解释一下,d语言可以通过在函数参数声明某个参数为in来强调该参数一定是输入变量,此时将可以提高对该变量访问的效率【忘记是不是寄存器相关的问题了】)

  • Use the syntax to explicitly disable certain operations on instances. For example, you could disable the and operators for s of different lengths, since these operations don't make sense in that case.――使用=delete来去除一些不合理的运算操作,例如长度不同的向量的*和除法(建议是有道理的,但修改方式不太合理,长度相同也不能胡乱运算,但这提醒了我需要对类型做更多的限制,也就是我之前没有考虑到类型安全问题)

  • Consider using functions, such as and , to perform operations on instances. This can make the code more concise and easier to read.――建议使用标准库算法库中的map和zip函数来表达向量运算的代码,可以提高可读性,代码也更简洁,这倒是对的

  • Use statements to check for invalid input and throw appropriate exceptions when errors are encountered. This will make the code more robust and prevent it from crashing in unexpected ways.――使用assert来判断不合理的输入,提高代码稳定性,但有些东西完全可以直接通过编译器类型限制来达成(这里在下另有打算)

  • Consider implementing the class as a range, so that it can be used with the range-based loop and other range-based functions in the module. This will make it easier to work with instances and make the code more flexible.――将Vector实现为一个range类型,提高代码扩展性(这个我当时还是初学者,确实没有注意到这一点,确实值得优化一下)

@nogc和@safe的实现需要将delegate也声明成@nogc和@safe,此时如果传入的delegate不符合要求就会导致程序崩溃,但这里我们暂且按照它说的先改了

然后是index的参数改成in

避免不合理的运算的方法我们这里使用的是限制传入的另一个Vector必须与我们this同类型(由于长度是模板参数,所以同时保证了长度和内部类型的一致),例如:

然后是用标准库算法库的map和zip来代替直接遍历每个值,类似这样

然后就:

有c++ stl内味儿了

大概原因是float数组并不能这么用,但如果去掉[]中的长度就没有问题了,所以该功能应该是基于slice的,于是

哦哦哦,@safe情况下不能用指针,得用引用
指针类型也不行

最后发现自己创建一个slice即可

所以还是自己菜,不能怪ai

将Vector实现为range类型,这个建议并不合理,主要原因是我们使用的是一个静态的数组作为函数的内部数据,而range类型则需要实现popFront(或者popBack),如果我们实现range类型就需要将内部数据修改为slice,并手动为其管理内存和当前的长度,将会产生更多的开销(也更难限制运算双方的长度),故而最后一条并不在采纳的范围之内

总结一下,该ai对于代码的阅读应该是效果最好的功能,自己编写代码时则由于有依赖库的时效性的问题,质量不能保证,但代码编写思路它还是过关的,那么当我们把修改后的代码再发给它会得到什么

它以为我们全部都采纳了,就离谱

看来读代码的能力也是有极限的,那么我们来试试让它写测试

没能生成完整,但我能猜到最后一行没有生成完的是什么,然而这代码是错的,类模板不是这样用的,我也没有通过this(T...)(T t)这样的构造函数,所以这个测试基本没有办法使用,点击try again,再给它一次机会

还是没有生成完,这里我们先看生成的那部分,还是一样的问题,模板参数的使用不符合定义,但和上面的测试一样,思路都是对的(也许是我的模板参数定义方式不专业也说不定,如果是我的问题,那我之后得去好好研究一下)

让它加一个变长参数的构造函数试试

它改动了不少,但这里我们只关注

this(T...)(T args)

? ? {

? ? ? ? this.data=args[0 .. len];

? ? }

这个函数,这里还是由问题的,如果args的数量不够len,那么就会数组越界(D有边界检查,但这显然不是我们需要的效果)

写个测试看看
果然

所以我们需要做一下修改,要么就是直接因为长度不符就抛出错误,要么就是剩下的位置自动补0

但是:

不能正常转换类型

其实原因是不定量参数并非这样书写,这样其实是不定类型的一系列参数,应当写成下面这种

但是当T为向量类型是该函数就会报错,故而

那么看到这里想必各位对这个ai的水平有了一定的了解了吧

那么如果我们给出需要的功能,让ai来实现,他能实现成什么样子呢(有了上面的例子,想必各位能猜到一些了吧)

看来它没有理解我的意思
看来它不打算自己动手,只是告诉我怎么写
它说它不会写代码

看来c++,ai都不用啊,那么我们换个语言试试:

呃,过于简单了
老敏捷开发了
我们不妨来试试这代码
代码倒是没有错,但其实有很多地方有问题
敏捷开发正统在openai了属于是
代码倒是没有什么毛病,但是不符合aql的语法,比如return只能在最后
return在最后是没有错,但为啥要return上面那一条语句呢?而且return只能有一个
它直接回滚了
return的位置对了,但for变成了双份

连续生成了几次都不能解决这一次的问题,于是只能改一下提需求的思路,让它把return改成可选返回值

肯定是错的,它自己的预期生成结果都是错的
宏定义的几种情况出现了冲突
试了三次,依旧是这样的代码,看来它已经黔驴技穷了

看来rust也虽然ai用,但ai用的也不好,当然实际情况下为了类型安全之类的问题,也不可能直接这样使用aql,那么如果我们改一下思路,使用derive宏呢

看着还不错的样子

这里的代码先不管是不是完整的完成了任务,连通过编译都不能,首先上面的quote会导致rust认为你大括号对不上,那么我先把段合并一下

然后就是一些trait不符合的问题

经过一番查阅资料和学习之后(在下并不怎么了解derive macro和proc-macro2这个库):

然后当我们实际使用的时候就会

没有看明白错误(可能是因为我不了解derive macro吧)

在在下没有搞清楚derive的工作原理之前,看样子是进行不下去了(如果aql系列的投票是rust当选,那么应该还是绕不开这玩意儿的)

简单总结一下就是该ai看代码的能力还不错,改代码的建议有些也挺实用,但你如果打算通过它来写代码,可能还是不够强(当然,一些简单的工作和一些经典的算法它倒是没有什么大问题,这也是这段时间散播焦虑者主要让它生成的代码类型),我个人可能会考虑让它来帮我做一些简单的工作,或者验证一些简单的代码是否存在问题之类的,但它目前应该还不能替代我吧(应该吧)



chatgpt真的可替代谷歌吗 ai对话系统chatgpt引发热议

chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt官网

pixabay.com

编写代码、翻译小说、参加考试……2022年末,人工智能聊天机器人ChatGPT刷爆网络。一位互联网从业者“爆料”:现在几乎所有程序员都争先恐后去领略它的超高情商和巨大威力,ChatGPT输出的答案有时幽默、有时深刻,很难分清与他对话的究竟是人还是机器。

ChatGPT由人工智能研究实验室OpenAI于11月30日推出。上线短短5天,用户数量已突破100万。由于太过火爆,OpenAI不得不暂时关闭了用户的测试入驻窗口。

2016年3月,AlphaGo击败围棋世界冠军李世石,被视为人工智能发展历程中的一次里程碑事件。而今,ChatGPT再次掀起了一波人工智能发展应用的高潮。它究竟会给人类社会带来哪些深刻影响?人工智能的颠覆性应用即将来了吗?

擅长“丝滑”写作,有时也会“翻车”

科幻作家刘慈欣的艺术三部曲之《诗云》中曾经描绘过这样一个故事:外星人仰慕地球文学,但又苦于无法写出李白那样的诗句,于是他们用量子计算机将所有汉字的排列组合穷举出来,这之后,任何人写下的任何文字都能在外星人的“文学数据库”中找到。

从某种程度上来看,GPT的技术路线与“诗云”类似。2017年,人工智能领域一篇重磅论文《transform(一种采用自注意力机制的深度学习模型)》横空出世。这篇论文用巧妙的计算模拟出任何两个词之间所有维度的潜在关系,这一模型影响了其后的人工智能研究。

2018年,OpenAI推出第一代GPT,之后两年迭代了三个版本。2020年,GPT-3的问世在业界掀起不小的波澜。这是一个拥有1750亿参数、利用45万亿字节文本数据进行训练的人工智能算法模型。在它出现之前,世界上最大的语言模型是微软旗下的Turing-NLG,还不到两亿参数。

“最新推出的ChatGPT大约相当于GPT的3.5版本。”国内领先的文本处理公司达观数据联合创始人文辉表示。尽管目前尚未有ChatGPT的相关论文披露,但人们可以从关于GPT的论文中了解到,GPT是通过文字接龙以及人工引导接龙反馈的模式训练这一语言模型的。

比如,让GPT在“你好”后面接一个字,它在浏览了大量互联网信息后,会筛选出人类使用频率较高的字,如美、高、吗等,工程师给接“美”的标注“这是一个好答案”,手工标注几万条后,再输入到计算机模型中,创建出一个模拟老师的机器人模型,再让机器学习这一模型。

instructGPT阐述了如何训练GPT

总之,GPT每次输出的答案其实是一次概率分布,它能“丝滑”地写出美妙的文章或代码,却很可能在极简单的问题上“翻车”。比如,当你问它numbers(数字)这个单词有几个字母时,它有时会回答7,有时会回答9。

聊天之外,ChatGPT将会撼动谁?

ChatGPT上线的短短几天之内,它已经参加了美国高校的入学资格考试(SAT),成绩为中等学生水平;用《老友记》主角口吻创作了剧本对白;构思了简短的侦探小说……人们迫切地想要知道,它还会给我们带来多少惊喜?

尽管这一机器人模型的名字中有chat(聊天),但受ChatGPT影响最大的,并非微信这样的聊天工具,而是搜索引擎。“许多人已经养成了同一个问题问一遍搜索引擎,再问一遍ChatGPT的习惯。”文辉说。虽然目前ChatGPT仍会出现“人工智障”的回答,或是反复横跳的立场,但它无疑是给民用AI的落地,以及下一代搜索引擎指明了方向。

从发展趋势看,ChatGPT很可能会成人们的私人助理。你可以列出这周的工作关键词,让它写一篇工作报告;或者让它帮你订一张从上海到北京的机票;又或者模仿你喜欢的作家的口吻发一条网络信息……这些工作它都能胜任。或许,我们离人人配备一个处理文字的“AI小秘书”的时代已经不远了。

不过,ChatGPT也并非无所不能。由于它的答案不是从一篇文档中摘出来,而是由模型自生成,这使得它更容易“一本正经地胡说八道”。比如,当它按照你的要求生成一段代码,如果你对此并不熟悉,可能看不出其实通篇都是错;对于一些最新发生的事,比如阿根廷和法国谁能赢得世界杯冠军,传统搜索引擎可能几分钟后就能全网查询,但自生成结果则要慢得多。

图文并茂,生成式AI时代或已到来

刘慈欣在创作《三体》时未曾想到,如果那时有ChatGPT,罗辑在描述梦想中的女孩时,她的形象就会被自动生成出来。ChatGPT的能力已经涉及到AI模型之间的合作,毕竟引领了文字生图潮流的人工智能图像生成器DALL-E,也是出自OpenAI之手。

pixabay.com

“人工智能在几秒钟之内迅速生成图片、视频等创造性内容,业内普遍认为AI的下一个范式――生成式AI时代已经到来。”文辉说。

虽然在全局层面还无法与ChatGPT的“智能”一较高下,但在特定垂直领域,中国人工智能企业的AI智能也能与ChatGPT“掰掰手腕”。如今,税务、金融、新能源汽车等行业的许多企业,都用上了达观数据的“自动流程机器人”(RPA),其核心就是一套语义智能识别系统,机器人可以自动填写单据、自动识别单据内容、自动判断填写内容是否合法合规。

回答开放问题一直是人工智能的痛点。科大讯飞今年在交互系统的认知关键技术上取得了突破性进展。目前,讯飞定义了1517个意图、近2000个事件,围绕认知智能技术,实现了于语义图网络的开放场景语义理解,在深度语义理解技术上又迈进了一大步。

作者:沈湫莎

责任编辑:任荃

*文汇独家稿件,转载请注明出处。

举报/反馈


chatgpt下一代 chatgpt强大吗

chatgpt官网,chatgpt入口,chatgpt概念股,chatgpt哪里下载

来源:中国经营报

  本报记者 秦枭 北京报道

  近期,美国人工智能公司OpenAI发布免费机器人对话模型ChatGPT(GPT-3.5系列),模型中首次采用RLHF(从人类反馈中强化学习)方式。模型目前处于测试阶段,用户与ChatGPT之间的对话互动包括普通聊天、信息咨询、撰写诗词作文、修改代码等。功能如此“全面”的ChatGPT被称作“最强AI(人工智能)”,面世5天便已有超过100万用户使用。

  多位业内人士在接受《中国经营报》记者采访时表示,ChatGPT-3.5发布之后,5天时间用户破100万,速度确实惊人。但这并不是“初始速度”,而是“再次加速”,两年前GPT-3推出的时候,就已经引发过热议。之所以再次成为网红,除了OpenAI的明星效应之外,核心原因是其进入了一个认知门槛低的领域――文字交流。

  五天用户破百万

  GPT的全称是“Generative Pre-trained Transformer”(生成型预训练变换模型),由人工智能公司OpenAI训练与开发。经历多次迭代,ChatGPT是其为对话而优化的语言模型,处于GPT-3和即将发布的GPT-4之间。

  天使投资人、知名互联网专家郭涛向记者解释道,相对以往的人机对话模型来说,ChatGPT可以非常好地模拟人类的聊天行为,理解能力和交互性表现也更强,并能精准地回答用户提问,将大幅提升用户使用体验。

  ChatGPT一经面市,其用途便被广泛地开发,有人用其写作文,有人用其作诗,甚至有人让其写代码。由于其富有趣味性,上线5天,ChatGPT的用户即突破100万。特斯拉创始人马斯克也称:“许多人陷入了该死的疯狂ChatGPT循环中。”

  安信元宇宙研究院院长焦娟认为,ChatGPT火爆的背后,是终于有一款应用,能满足用户去搜索并一次性得到一个接近于满意的答案的需求。

  在《元宇宙》作者李俊翼看来,不久前,AI绘画软件就已经非常火爆,但制作和使用图片依然有比较高的门槛,使用场景和频次实际上非常有限。而文字交流显然比绘画更容易被普通大众感知,对结果更容易给出客观评价,响应速度也是不能忽视的体验要素。在部分人看来,新的GPT已经基本突破了“图灵测试”的限定,在内心可以把TA当做一个“准人类”看待,这和Siri、智能客服等还是有非常微妙的差异,这种认同不仅形成试用注册行为上的火爆,更能引发强烈的思考意愿和延展想象。

  但是记者注意到,在ChatGPT的使用过程中,并不是所有的回答都能够让消费者满意,甚至会出现一些错误的答案。

  焦娟向记者分析道,ChatGPT目前的问题,是很难界定好所选取的应用方向,到底是去满足用户的“增量信息”需求还是“重要决策”需求。如,我如果要完成老师布置的作业,探究“人在病毒性感冒后,应该采取什么措施”,ChatGPT能帮我交上去一份非常完美的作业;但如果我真的得了病毒性感冒,ChatGPT的回答,我可能不敢将其用于真实生活中治疗病毒性感冒的决策上。

  对此,OpenAI的首席执行官Sam Altman回应称,我们正在试图阻止ChatGPT随机编造,现阶段让其与当前技术保持平衡是很棘手的。随着时间的推移,我们会根据用户反馈来改进它,相信ChatGPT会变得更好。

  商业化为时尚早

  不少网友戏称,ChatGPT的优异表现,让文字工作者、程序员等从业者都感受到了威胁,或将取代谷歌搜索引擎等说法不绝于耳。但其商业化的前景目前并不被看好,而且,其上一代产品GPT-3历经两年商业化尝试,也难言成功。

  ChatGPT具有广泛的商业化前景,将推动众多行业的快速变革,有望在AIGC(利用AI技术自动生成内容的生产方式)、客户服务、医疗健康、教育、家庭陪护等领域快速落地。但郭涛强调,ChatGPT目前还尚处于发展的早期阶段,存在关键核心技术发展不成熟、算法模型不完善、理解能力不足、回答问题不够灵活和对语料库依赖过多等突出问题,距离大规模的商业化应用还需要很长一段时间。

  焦娟也持类似的观点。她认为,在一些局部领域,确实可以去商业化了。这种“局部”领域,对ChatGPT的要求是能有“增量信息”,而非用于重要决策;故在能“锦上添花”的领域,ChatGPT可以去尝试商业化。

  不仅如此,商业化就意味着收费。Sam Altman说过因为计算成本实在太高,将来GPT会收费。但从OpenAI开发GPT-3模型开始,到ChatGPT目前都尚处于免费的状态。

  据统计,从ChatGPT进化到ChatGPT-3的过程相当烧钱――参数量从1.17亿增加到1750亿,预训练数据量从5GB增加到45TB,其中GPT-3训练一次的费用是460万美元,总训练成本达1200万美元。

  不过,在李俊翼看来,即使要求支付低额费用,新的ChatGPT版本依然会非常火爆。但新技术的商业化不是一锤子买卖,这种注册收费并不是有效的商业模式。对于新版本,大众在体验场景下给出了非常高的评价,可以用“惊艳”来形容,但这并不等于在实用场景中对使用价值的“满意”。只有在实用场景中提供可持续的价值,商业化才有坚实的基础,这还要考虑商业竞争环境,只要有核心玩家坚持免费,直接商业化就无法走通。

  李俊翼分析道,大众用户长期享受免费文字聊天服务才是大概率趋势,就像互联网搜索引擎一样,而最终商业模式也会类似,走向广告和深度细分服务等方向。ChatGPT和搜索引擎的技术原理、数据机制等方面有很大不同,无法直接取代搜索引擎的技术生态位置,但流量入口之争已经相当鲜明,确实有可能改变搜索引擎的商业价值生态位置。他举例道,曾经喊过“颠覆教育”的百科、搜索、MOOC,最终都只是成为教育生态中的普通工具,商业价值到底有多少?网络科技生态已经非常复杂,ChatGPT只有“文字对话”这个单一价值锚点,目前谈论“商业化”还为时过早。放在现实中思考,身边每个人都能聊天,能够无所不聊的,通常都是朋友,而那些能把“聊天”作为商业模式的,都有谁呢?

  深度科技研究院院长张孝荣也认为,ChatGPT目前还处于实验室阶段,远远未到商业化阶段。如果该技术成熟,达到了商业化水平,那么人机语言交互问题或将不存在,前景极为广阔。

  警惕泡沫化风险

  ChatGPT火爆的背后,其实是大规模预训练语言模型的发展,在这一领域,国内外也出现了一拨投资人,单笔融资金额甚至高达10亿元,其中不乏多家知名投资机构。

  郭涛提醒道,当前ChatGTP相关概念已经出现泡沫化现象,例如相关概念股股票大涨、初创企业估值虚高等,随着ChatGTP、AIGC等相关概念热度的日益升温,短期内或将产生大量的泡沫,行业投资者、创业者以及相关的从业者需要警惕风险。

  李俊翼则认为,投资泡沫是必然的,并不可怕,也没有必要担心。没有泡沫的互联网,死气沉沉;没有泡沫的人工智能,呆若木鸡。这就像人,谁还没有些不靠谱的大梦想呢?只要有一万个人做同一个梦,万一实现了,那就是整个人类的进步。

  “这个领域的长足进步,必须靠泡沫化的投资来支撑。”焦娟也分享了自己的看法,她说:“是否会泡沫化不是关键,关键是泡沫化后能否收得了场?怎样收场?AI在国内,2021年开始进入泡沫破灭期,持续至今,若能有新的技术突破,就收得了场。”

举报/反馈

上一篇 chatgpt官方

下一篇 ChatGPT功能