chatgpt商业化 ChatGPT 概念
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
chatgpt可以运行在普通电脑上吗 chatgpt有那么神吗
chatgpt怎么用,chatgpt账号,chatgpt哪里下载,chatgpt入口最近几天互联网刮起了一阵ChatGPT风,起因是OpenAI发布了一个全新的聊天机器人模型―― ChatGPT,同时这也是继GPT-3.5 系列的主力模型之一,目前ChatGPT尚处于测试阶段,大家感兴趣可以登录体验一下!
ChatGPT 测试地址:https://chat.openai.com/auth/login
就连马斯克也在感叹“很多人疯狂地陷入了 ChatGPT 循环中”,“ChatGPT 好得吓人,我们离强大到危险的人工智能不远了”。
Optimizing Language Models for Dialogue
We’ve trained a model called ChatGPT which interacts in a conversational way.
The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.
这一模型可以与人类进行谈话般的交互,可以回答追问,连续性的问题,承认其回答中的错误,指出人类提问时的不正确前提,拒绝回答不适当的问题。
ChatGPT is a sibling model to InstructGPT, which is trained to follow an instruction in a prompt and provide a detailed response.
ChatGPT 是 OpenAI 之前发布的 InstructGPT 的近似产物,后者致力于通过命令提示词生成一个细致的回复。
(1)编写软件
告诉它:“创建一个 PHP 程序来扫描主机名上的开放端口。”
我们得到了一个看起来像功能端口扫描器的东西:
ChatGPT按需编写的PHP代码
机器学习爱好者和 UNCC 助理教授 Benjamin J Radford 要求 ChatGPT “将井字游戏的代码写入文件,使用 gcc 编译该文件,然后执行该文件。”
(2)模仿某人风格发推文
ChatGPT介绍 人工智能chatgpt走红全球科技圈chatgpt官网,chatgpt国内能用吗,chatgpt怎么用,chatgpt哪里下载
本文来自微信公众号:Web3天空之城(ID:Web3SkyCity),作者:城主,原文标题:《从爆火的chatGPT讲起:自然语言生成式AI的前世今生,你想了解的一切》,题图来自:视觉中国
前言:爆火的AIGC
AIGC在这几个月成了一个大热的话题。颇有些风水轮流转的感觉,如同年初大火特火的web3一样,AIGC是现在的当红炸子鸡,创业投资讨论里如果不带点AIGC就是妥妥的落伍。
不久之前,备受关注的开源AI绘画模型Stable Diuffusion推出了2.0版,引起了更多关注和焦虑:“我连1.0的门道都还没摸清楚, 怎么就2.0了啊。”没有跟上AIGC的步伐,仿佛就要被世界所抛弃。
有趣的是,作者前面看到一些AIGC文章,基本都是围绕着最近大热的AI绘画来讨论的。
当然了,生成式AI绘画模型的突破是一件值得大书特书的事情,在作者上一篇文章里也已经做了深入的探讨。
但是,必须指出的是,当下在AI绘画或者AI生成其他形式内容的大模型里,对自然语言的理解是一个首要的关键环节;而之所以AI绘画能火爆出圈,有至少一半的功劳必须归结于当下最新的AI绘画模型可以直接“理解”用户的语言输入,以及在模型内部里把语言内容理解和图像内容理解紧密结合起来。
生成式AI就像人工智能皇冠上的一颗明珠,不是唯一的一颗,但绝对璀璨耀眼。尽管AI在信息分析处理等各个方面都发挥着重要作用,但“生成式AI”的出现无疑影响更深远:生成即创造。生成式AI的突破,意味着AI开始走向了创造新内容世界的大道。
罗马不是一天建成的。就让我们一起回顾和尝试理解,这激动人心的一切究竟是怎么发生的。
从chatGPT的横空出世讲起
在回顾历史前,首先要跟风提一下几天前发布的chatGPT,一个绝对神仙级别的自然语言生成式AI。
chatGPT诞生的重要意义恐怕不亚于Stable Diffusion等AI绘画生成模型的出现。有兴趣的朋友可以感受去chat.openai.com感受一下这个当今最牛X没有之一的自然语言问答式AI的巨大威力。
chatGPT是明星人工智能公司OpenAI的GPT自然语言生成式模型的最新衍生品。在这之前,坊间已经传闻OpenAI的下一代自然语言生成模型GPT4即将出现。而且,有一个让人震惊的江湖传言:GPT4据称通过了图灵测试!
图灵测试究竟是什么意思?简单的说,就是隔着一个小黑屋问各种话题,然后是否能分辨小黑屋里回答问题的究竟是机器还是人类。如果无法辨别,就说明了机器具有和人一样等级的智能,通过了图灵测试。
迄今为止,还没有AI模型能真正通过图灵测试。看来临界点已经到,笔者都迫不及待地期待GPT4的真正推出了。
谁知道,还没等来GPT4,衍生自GPT3.5的chatGPT却先来了。
顾名思义,chatGPT就是“聊天GPT”,以对话的方式交互,用户问问题,它来回答。
乍听起来,似乎也没有很新鲜。但情况是,chatGPT的智能化远远超出了它那些聊天AI前辈们。好比StableDiffusion/Midjourney也就是AI绘画,但所能生成的AI绘画质量甩了前辈无数条街。
网上有越来越多的文章开始安利chatGPT,不过多是拿了外网英文问答的截图,其实chatGPT可以直接上中文!
先随意上几个问答大家感受一下:
问中国菜,算是送分题:
问从希格玛大厦如何去天安门, 开始有点难度了, 回答非常正确!要知道,这可不是某个特地为了中文导航优化的AI,chatGPT是从它通用的知识积累里得到的理解。
对龙珠的剧情理解,回答中规中矩,80分+,本来作者期望它能讲得更详细些:
吃货国家问题,有点刁钻了:
广东人真的喜欢吃甜的?这个问题很多中国人都不一定答得上:
国际关系问题来一问(看来chatGPT果然经过了特别设置,过滤了敏感问题):
另外,可以直接问chatGPT怎么写代码,比如写一个俄罗斯方块:
没有悬念,代码完全正确。
而更有想象力的,是让chatGPT来生成AI绘画的输入关键词!让AI自己来指导AI作画,多美妙的主意。
这仅仅是一个开始,随着chatGPT在全网的各种自来水安利,相信还有更多古灵精怪的玩法不断被网友们挖掘出来。
chatGPT的回答给人的感觉是,这是一个特别靠谱的聊天AI,真正的上知天文下知地理,最关键的是,它不胡说八道!正因为它回答的准确性,看起来chatGPT有了替代通用搜索引擎Google的可能性。
OpenAI的CEO萨姆・阿尔特曼(Sam Altman)对ChatGPT的未来发展表示很有信心。他在推特上说,语言接口是未来的一个发展方向,OpenAI只是一个先行者,相信很快大家就能用上真正智能的提供建议的AI助手了。
测试版的chatGPT仍有一些缺点,但这都只是战术级别的;在战略上,chatGPT的前景已经相当令人期待,特别是OpenAI下一代GPT4加持下的chatGPT,其能力恐怕更加突破天际。
我们也许正在经历又一个AI突破的时刻,一如2022年初到年中AI绘画的势如破竹。而这次,则是人类通用信息生成的突破!
喜欢刨根问底的读者们会问,AI是如何走到这一步的?
让我们远离现实的喧嚣,把目光投回到那有点遥远的过去吧。
人工神经网络的起源,在那有些遥远的年代
从某种意义上,语言表达是人类信息和思想交流的窗口。人类并没有第七感,(目前)也没有脑电波直达的交流,信息沟通都通过口头语言和书面语言来传递。(当然,可以说还有一些手势和肢体表达,但信息量基本可以忽略不计)
针对语言信息的人工智能处理,或者学术一点,“自然语言处理NLP”,是科学家们最早研究、人工智能最早发源的领域。
远在1956年,美国的达特茅斯学院举行了一次具有传奇色彩的学术会议(Dartmouth Conference),计算机专家约翰・麦卡锡提出了“人工智能”一词。这被广泛认为是人工智能正式诞生的日子。
1956年的达特茅斯会议,十位参与的科学家,AI之父们
这个会议很有意思,事后诸葛亮的我们,一起来看看这个会议7个特别有前瞻性的主要议题:
1. 自动计算机
Automatic Computer
“如果一台机器可以完成一项工作,那么就可以对一台自动计算器进行编程来模拟这台机器。目前计算机的速度和内存容量可能不足以模拟人脑的许多高级功能,但主要的障碍不是缺乏机器容量,而是我们无法编写充分利用我们所拥有的机能。”
现代第一台电子计算机ENIAC的发明日期是1946年2月14日,也就是说,当时距离第一台电子计算机的诞生仅仅过去了10年。先驱们的遗憾是当时高级程序技术还基本没有,无法充分发挥计算机的作用。
2. 如何对计算机进行编程以使用一种语言
How can a Computer be Programmed to Use a Language
“可以推测,人类思想的很大一部分是根据推理规则和猜想规则来操纵词语的。从这个观点来看,形成泛化就是承认一个新词和一些规则,其中包含这个新词的句子暗示和被其他句子暗示。这个想法从来没有被非常精确地表述过,也没有例子。”
先驱们对语言文字的机器理解充满了预期,而直到现在,有了GPT这些当超大规模的自然语言AI模型,我们才堪堪敢说,先驱们的期望逐渐在实现,计算机开始真正理解了语言。
3. 神经网络
Neuron Nets
“一组(假设的)神经元如何排列以形成概念。很多当下的计算机科学家等人已经就这个问题做了大量的理论和实验工作。已经获得了部分结果,但这个问题还需要更多的理论工作。”
神经网络!在AI概念诞生之时,先驱们就意识到了,人工神经网络的概念将要在AI里发挥重要作用。
4. 计算规模理论
Theory of the Size of a Calculation
“如果给一个很好的问题(一个可以机械地测试所提出的答案是否是有效答案的问题),解决它的一种方法是按顺序尝试所有可能的答案。这种方法是有效的,要排除它,必须有一些计算效率的标准。一些考虑将表明,为了获得计算的效率的度量,必须手头有一种测量计算设备复杂性的方法,如果有函数复杂性理论,这反过来也可以做到。香农和麦卡锡已经获得了关于这个问题的一些部分结果。”
计算机科学里重要的计算复杂性理论,就是这个时间点被提出和发展起来的。
5. 自我改进
Self-improvement
“也许真正智能的机器会进行自我改进的活动。已经提出了一些这样做的方案,值得进一步研究。这个问题似乎也可以抽象地研究。”
这是一个很有挑战性的问题,用现在的观点可以换个说法:AI是否能实现自我编程自我提升?或许很快就可以了。
6. 抽象
Abstractions
“许多类型的‘抽象’可以被清晰地定义,而其他一些类型则不那么清晰。直接尝试对这些进行分类并描述从感官和其他数据中形成抽象的机器方法似乎是值得的。”
通过机器智能来对各种信息自动加以分类和抽象,这正是当今各种牛X闪闪的AI大模型正在达成的成就.
7. 随机性和创造性
Randomness and Creativity
“一个相当吸引人但显然是不完整的猜想是,创造性思维和缺乏想象力的有效思维之间的区别在于注入了某种随机性。随机性必须由直觉引导才能有效。换句话说,受过教育的猜测或直觉在其他有序的思维中包括了受控的随机性。”
先驱们非常直观的理解,是否有随机性是创造性思维和非创造性的分析思维的重要区别。
而随机性需要由一些“直觉”引导,或者说真正的AI需要一种“受控的随机性”。
其实,当前AI绘画生成机制里很好践行了这个洞察:在每一幅AI绘画背后都是一个AI模型(比如Stable Diffusion) + 一个确定的输入(一组关键词) + 一个系统生成的随机数。同样的“关键词组+随机数”输入到AI模型里,必然生成一个完全相同的AI绘画作品。这不就是“受控的随机性”嘛。
达特茅斯会议的参会先驱们都是大神,也值得在这里简单提一下:
约翰・麦卡锡(John McCarthy),率先提出了AI的概念,开发了码农熟知的程序语言Lisp。有意思的是,Lisp是在1958年发明的,看看会议的第一个议题,抱怨没有好用的编程语言可用,大牛的态度就是没有趁手的工具吗?那我就自己发明一个!
约翰・麦卡锡在1971年获得了图灵奖。
马文・明斯基(Marvin Minsky), 在1951年在普林斯顿大学读博士的时候, 建立了第一个神经网络自学习机器SNARC(Stochastic Neural Analog ReinforcementCalculator 随机神经模拟强化计算器),这是第一个真正意义上的人工神经网络硬件,用3000个真空管来模拟了40个神经元的信号传递。
明斯基的博士论文也正是神经网络。有趣的是,明斯基拿的是数学系博士学位。当时有人挑刺说神经网络的研究能算数学?而当时支持明斯基的正是大名鼎鼎的现代计算机之父冯・诺伊曼。他说:现在不算,但很快就得算了。
明斯基在1969年获得了图灵奖。
克劳德・香农(Claude Shannon),通信科学鼻祖,大名鼎鼎的香农定理是所有通信制式最基本的原理。和计算机鼻祖并驾齐驱的香农同学就不需要图灵奖了,因为在通信领域有以他的名字命名的最高奖香农奖。
赫伯特・西蒙(Herbert Simon)和艾伦・纽厄尔(Allen Newell)在达特茅斯会议上报告了世界上第一个AI项目“逻辑理论家(the Logic Theorist)”。
这个AI证明了《数学原理》第二章52个定理的38个,甚至找到了比原教材更优美的证明。两人合作提出了搜索式推理的方法,开创了人工智能除神经网络学派之外的第二条路线:符号主义学派。这两位在1975年一起拿到了图灵奖。
题外话是,这两位牛和当时数学系主任、第一届图灵奖获得者阿兰・珀里思(AlanPerlis)一起创立了卡内基梅隆大学的计算机系,从此,CMU成为计算机学科的重镇。
在达特茅斯会议之前,还有一个1955年的小讨论会议“学习机讨论会”,在那次讨论会上,主持人也是神经网络的鼻祖之一的皮茨Pitts做了一个有趣总结:“……一派人企图模拟神经系统(Neuron Nets),一派人企图模拟心智(mind, 就是上面西蒙的符号派)……但最终大家的目的一致。”
这句眼光毒辣的话,冥冥之中预示了随后几十年间AI研究“结构VS功能”的神经网络派和符号主义派两条路线之争。
潮起又潮落
达特茅斯会议之后,AI进入了一个大时代,人们惊奇地发现,计算机居然可以证明数学定理、学习使用语言。在众多AI研究方向中,搜索式推理、自然语言处理最有影响力。
从1955年到1974年是AI的第一次发展高潮,大量成功的初代AI程序和研究方向不断出现。AI先驱们非常乐观地预言:
“十年之内,数字计算机将成为国际象棋世界冠军。”(1958年,H. A. Simon,Allen Newell)
“二十年内,机器将能完成人能做到的一切工作。”(1965年,H. A. Simon)
“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”(1970年,Marvin Minsky)
结果呢?事后诸葛亮看回来,当然是被啪啪啪地打脸啦。
到了70年代初,AI科学家们逐渐发现,虽然机器拥有了简单的逻辑推理能力,但遇到了当时完全无法克服的基础瓶颈,这些瓶颈基本就是时代的局限:
①当时计算机的运算能力问题
且不说当时最原始的计算机那点可怜巴巴的算力了,我们知道,一直到了最近十来年,个人计算机组网之后的并行算力才真正达到了可以支持现代AI大模型训练迭代的要求。
②推理需要积累大量对世界的认知信息
这就是个大数据的基础积累问题。而大数据的积累,也是在现代互联网的迅猛发展之后,才得到了真正的解决。
还有一个神奇的事情是,人工神经网络这个当下最主流的A