淘优惠

淘优惠

chatgpt商业化 ChatGPT 概念

热门文章 0
chatgpt,chatgpt账号,chatgpt哪里下载,chatgpt入口
21世纪经济报道记者 董静怡 上海报道
人工智能“技术奇点”越来越近了。
近日,聊天机器人模型ChatGPT风靡全网。凭借背后强大的技术,ChatGPT可以完成流畅对答、写剧本、写代码等各项功能,目前全球已经积累超过百万的用户。它甚至可以创作诗歌和笑话,这是一种之前被认为只属于人类的能力。
OpenAI的联合创始人马斯克评价道,“好得可怕,我们离强大到危险的AI不远了。”
这并不是AIGC(AI generated content,AI技术生成内容)第一次震惊人类。时间推回到八个月以前,主业从事PPT设计的博主阿文偶然刷到一位艺术家的微博,内容包括几张十分惊艳的图片,“一开始我还以为是他自己画的,结果他说那是直接通过文字生成的,在那时的我看来这是一件不可思议的事情。”
被深深震撼的阿文投身关注起AI绘画这个领域,并在微博上做起了相关技术的推广者。短短几个月,阿文深刻感受到技术的飞速精进与完善,“4月份的时候生成的图片还是比较偏意识流的,五六月份的时候已经画得越来越像人,尤其是现在已经非常恐怖了。”
OpenAI创始人兼CEO?Sam Altman曾表示:“十年前的传统观点认为,人工智能首先会影响体力劳动,然后是认知劳动,再然后,也许有一天可以做创造性工作。现在看起来,它会以相反的顺序进行。”
由此也掀起一场关于AI替代人类的讨论,插画师、媒体工作者等从事内容生产的群体感受到了危机,抵制AIGC的声音此起彼伏。只是历史的车辆滚滚向前,技术的发展并不会因为人类的怀疑而有所停留。
“这项技术出来了,你就不可能再把它塞回去,”阿文表示,“这是一场离我们特别近的技术革命,我们能做的就只有调整心态迎接它。”
AIGC走向大众
在AIGC逐步“爆发”的过程里,看似两条路径的ChatGPT和AI绘画,其实始终由一根线串连。想了解整个过程,要先看回这根线的始端:ChatGPT背后的科技公司,OpenAI。
背靠微软的全球顶级AI实验室OpenAI提出了强大的预训练语言模型:GPT(Generative Pre-trained Transformer)系列,这一系列的模型可以在非常复杂的NLP任务中完成诸如生成文字、生成代码、回答问题等。有趣的是,2018年,当第一代GPT刚刚面世时,一心专注于强化学习的OpenAI还只是用它来做语言理解方面任务,未曾想到,GPT的生成潜力才将是带领该公司走向闻名的技术道路。
这并没有持续很久,在GTP-2出世之时,OpenAI显然已经发现了GTP真正的强项。得益于更高的数据质量和更大的数据规模,彼时GTP-2生成的故事在流畅度和逻辑性上已经有了惊人的效果。
更大的转变在2020年,也就是GTP-3的现身。1750亿参数的GPT-3曾一度是AI历史上最大的机器学习模型,预训练的数据量是GTP-2的十倍不止。至此,OpenAI对GPT-3的期望已经放在了实用性和通用性上,商业化路径逐渐显露,释放出API接口供公众调用,不到一年就吸引了约300家公司。
随后的一年里,OpenAI进行了多次多模态的探索,比较知名的是文字生成图片的模型DALLE和DALLE2,可以将它们理解为是GPT-3的图像版本。尤其是2022年推出的新版DALLE2,其使用的扩散模型将图片的生成提升到了一个新的高度,对文字的理解更加精确、绘画水平更高、渲染更快,已经可以生成完整的人像和图片,AI绘画的能力开始被更多人关注。
今年8月,借鉴DALLE2的思路,StabilityAI的Stable Diffusion模型横空出世,该模型是最新的扩散模型,能够在消费级显卡上实现DALLE2级别的图像生成,生成效率却提高了30倍。目前在该模型下,AI生成的图片已经具有极高的艺术性,甚至可以与专业画师媲美。此外,与DALLE2不同的是,Stable Diffusion完全免费开源,所有代码均在GitHub上公开,任何人都可以拷贝使用,这为AI绘画带来新的生机。
目前,Stable Diffusion的各渠道累计日活用户超千万,已经吸引超过20万开发者。其背后的公司Stability AI作为初创公司,于10月宣布获得了1.01亿美元超额融资,估值已达10亿美元,成为新晋独角兽。而在这波AIGC的浪潮里,开头提到的领头企业OpenAI,如今估值更是已经超过了200亿美元。
商业化初尝试
在红杉资本一篇名为《生成式AI:一个充满创造力的新世界》(Generative AI: A Creative New World)的文章中,红杉表示,生成式AI,让机器开始大规模涉足知识类和创造性工作,这涉及数十亿人的工作,未来预计能够产生数万亿美元的经济价值。
这点出了AIGC的商业化前景,一时间赛道火热,国内外龙头纷纷下场。
今年9月底,Meta发布了一个新的人工智能系统Make-A-Video,可以基于文本提示生成短视频。紧接着,Google也发布两款文本转视频工具,分别是强调视频品质的Imagen Video,以及主打视频长度的Phenaki。这较此前提到的文本生成图像来说又是新一轮的技术升级。
国内大厂中,百度、阿里、商汤、美图等企业都有AIGC的相关布局,百度创始人兼首席执行官李彦宏在出席2022联想创新科技大会时表示,过去一年无论是在技术层面还是商业应用层面,人工智能都有了巨大的进展,有些甚至是方向性的改变。
西湖心辰COO俞佳在接受21世纪经济报道记者采访时表示,已明显感受到AI生成文字和AI生成图像发展到了商业可用的阶段。去年年底,西湖心辰上线了Firday平台,聚焦AI写作;今年8月,AI绘画平台盗梦师上线,创造出日增5万用户的增长速度。
从应用角度来看,如今的AIGC作为工具来说无疑已经是成熟的。
以文字生成为例,据俞佳介绍,西湖心辰的Firday平台可以生成短视频脚本、口播、营销文本、甚至雅思作文等,基本与国际上普遍的文字生成功能大同小异。
而这样的商业模式已经被证明是可行的。海外初创公司Jasper提供生成Instagram标题,编写TikTok视频脚本、广告营销文本等内容,截至2021年,已拥有超过70000位客户,包括Airbnb、IBM等知名企业,并创造了4000万美元的收入。在最新一轮的融资里,Jasper获得了1.25亿美元资金,目前估值已达15亿美元。
文字生成图片的应用虽仍主要是C端玩家的娱乐消遣,但已有专业用户逐步入坑。据百度AI绘画平台文心一格的相关负责人介绍,以文心一格为例,在辅助创作方面,该平台可以启发画师、设计师、艺术家等专业视觉内容创作者的灵感,提供创意思路,辅助进行艺术创作;在提升效率层面,可以为媒体、作者等文字内容创作者提供高质量、高效率的配图,提升创作效率。
近期,OpenAI已经与全球最大的版权图片供应商之一的Shutterstock达成深度合作,Shutterstock将AI绘画引入商业图库。有分析人士认为,随着AUGC的成熟和完善,AI绘画必将代替类似的图片素材。
“AIGC还处于非常早期,目前文字生成已经与行业结合地比较好了,图片生成也会是一样的,”俞佳表示,“毕竟行业本身的需求一直是存在的,只是之前还没有被满足而已。”
头豹研究院高级分析师朱晓雯告诉21世纪经济报道记者:“从目前来看,在部分细分场景,例如绘画、翻译等内容生产领域,可能会有很快的落地化普及,但要实现大规模的商业化落地,保守估计需要3~5年的时间积累才有可能。”
国盛证券认为,AIGC 将是 Web?3.0?时代的生产力工具。当我们迈入Web?3.0时代,人工智能、关联数据和语义网络构建,形成人与网络的全新链接,内容消费需求飞速增长,UGC、PGC这样的内容生成方式将难以匹配扩张的需求。由此,将来文字生成、图片绘制、视频剪辑、游戏内容生成皆可由AI替代。
抵制还是拥抱?
AIGC在短时间内带来的冲击有些大,正如阿文所说,我们正在经历一场技术变革。只是这场变革既然来得突然,就必然会带着众多问题和怀疑,就像所有新技术初来乍到时一样。
朱晓雯表示,当前,AIGC赛道尚处于孕育探索阶段,相关法律法规、技术伦理等问题仍亟待解决,短期内还难以实现大规模商业化应用。
版权是当下比较敏感的话题之一,也是很多人抵制AIGC的原因之一,在AI绘画领域尤为严重。一些原画师抨击AI绘画是未经授权作品的拆解和再拼凑,这也导致了接受AI技术的画师因担心侵权,在日常工作中不敢商用该技术。
出现这个问题的原因与用来训练AI的数据源有关,里面很多内容没有经过授权,而AI生成的成品中出现了与原画相似的痕迹。“但如果想都经过授权几乎是不可能的,比如一些非常好的模型,用的图可能有20亿张,不可能把所有的图都去跟图源作者确权。”阿文表示。
对于此,俞佳向记者解释称,AI作画的逻辑并不是搬运和抄袭,而是通过学习了解了“画画”是一个怎样的概念,“如果一个小朋友从小就只看梵高的画,之后你让他自己创作,他很有可能画出来就和梵高的风格很像。”
浙江汉鼎律师事务所张永辉律师在接受21世纪经济报道记者采访时表示,著作权法中针对作品的独创性具有明确规定,作品必须具备独创性和可复制性。
“AIGC的绘画风格与绘画内容都是由用户通过网络技术设计而成,与普通画作一样,可以体现一定的智力水平和作者的创作表达,其生成内容具有思想表现形式的作品外观,应当获得著作权法的保护。”张永辉律师表示,“如果AIGC软件只是简单地复制粘贴原画作,或者照搬原作品成为自己的作品一部分,那就需要获得原作者的同意并支付使用费。”
创作者们对于版权问题的敏感程度体现了他们对于自创内容的珍视,而AIGC如今所能做到的几乎已经达到了创作者的平均水平,人类创作的价值突然被降低,这也是一些人抵制新技术的另一层原因,由此引出了那个老生常谈话题:AI会取代人类吗?
回答此问题或许可以从一段历史中窥见结果。
19世纪时,法国诗人Charles Pierre Baudelaire曾称摄影为“艺术最致命的敌人”,原本以写实为目标的绘画作品在照相机问世后变得失去了意义和光彩,人们对真实的定义出现新的变化。但这却促使了画家们思考如何化危为机,并积极探索出绘画艺术的新形式。十九世纪六七十年代,以莫奈马奈为代表的印象主义画派产生,打破了写实油画长期一统天下的局面,艺术又迎来了新的春天。
这与AIGC的发展是类似的。AI并不会扼杀人所有的意义,而是会开辟更多可能性。“人与AI一定会是一个协同的形式,”俞佳认为,“人并不会丢了饭碗,但他的角色会产生变化。”
李彦宏曾公开表示,AIGC需走过“助手阶段”“协作阶段”和“原创阶段”三大阶段。俞佳认为,如果按照这个来分,目前的AIGC已经处于“协作阶段”,即除单纯辅助外,AI还在一定程度上扮演引领者的角色,为人类提供灵感和思路。
高晓雯认为,一方面,AIGC还需针对需求离散化和时间精力的有限等痛点展开,进一步拓展深度学习等;另一方面需要对制作内容进行一定的管控,需要有完善的法律法规,确保其发展为一项有效、合规的高科技产业。
阿文的态度则更为开放,他认为知道风向在哪里,及时调整自己就可以。“把AI纳入到自己工作流程,我觉得是一个迟早的问题。既然躲不掉的话,还不如早一点拥抱它。”

chatgpt可以运行在普通电脑上吗 chatgpt有那么神吗

chatgpt怎么用,chatgpt账号,chatgpt哪里下载,chatgpt入口

最近几天互联网刮起了一阵ChatGPT风,起因是OpenAI发布了一个全新的聊天机器人模型―― ChatGPT,同时这也是继GPT-3.5 系列的主力模型之一,目前ChatGPT尚处于测试阶段,大家感兴趣可以登录体验一下!

ChatGPT 测试地址:https://chat.openai.com/auth/login

就连马斯克也在感叹“很多人疯狂地陷入了 ChatGPT 循环中”,“ChatGPT 好得吓人,我们离强大到危险的人工智能不远了”。

Optimizing Language Models for Dialogue

We’ve trained a model called ChatGPT which interacts in a conversational way.

The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.

这一模型可以与人类进行谈话般的交互,可以回答追问,连续性的问题,承认其回答中的错误,指出人类提问时的不正确前提,拒绝回答不适当的问题。

ChatGPT is a sibling model to InstructGPT, which is trained to follow an instruction in a prompt and provide a detailed response.

ChatGPT 是 OpenAI 之前发布的 InstructGPT 的近似产物,后者致力于通过命令提示词生成一个细致的回复。

(1)编写软件

告诉它:“创建一个 PHP 程序来扫描主机名上的开放端口。”

我们得到了一个看起来像功能端口扫描器的东西:

ChatGPT按需编写的PHP代码

机器学习爱好者和 UNCC 助理教授 Benjamin J Radford 要求 ChatGPT “将井字游戏的代码写入文件,使用 gcc 编译该文件,然后执行该文件。”

(2)模仿某人风格发推文

ChatGPT介绍 人工智能chatgpt走红全球科技圈chatgpt官网,chatgpt国内能用吗,chatgpt怎么用,chatgpt哪里下载

本文来自微信公众号:Web3天空之城(ID:Web3SkyCity),作者:城主,原文标题:《从爆火的chatGPT讲起:自然语言生成式AI的前世今生,你想了解的一切》,题图来自:视觉中国

前言:爆火的AIGC

AIGC在这几个月成了一个大热的话题。颇有些风水轮流转的感觉,如同年初大火特火的web3一样,AIGC是现在的当红炸子鸡,创业投资讨论里如果不带点AIGC就是妥妥的落伍。

不久之前,备受关注的开源AI绘画模型Stable Diuffusion推出了2.0版,引起了更多关注和焦虑:“我连1.0的门道都还没摸清楚, 怎么就2.0了啊。”没有跟上AIGC的步伐,仿佛就要被世界所抛弃。

有趣的是,作者前面看到一些AIGC文章,基本都是围绕着最近大热的AI绘画来讨论的。

当然了,生成式AI绘画模型的突破是一件值得大书特书的事情,在作者上一篇文章里也已经做了深入的探讨。

但是,必须指出的是,当下在AI绘画或者AI生成其他形式内容的大模型里,对自然语言的理解是一个首要的关键环节;而之所以AI绘画能火爆出圈,有至少一半的功劳必须归结于当下最新的AI绘画模型可以直接“理解”用户的语言输入,以及在模型内部里把语言内容理解和图像内容理解紧密结合起来。

生成式AI就像人工智能皇冠上的一颗明珠,不是唯一的一颗,但绝对璀璨耀眼。尽管AI在信息分析处理等各个方面都发挥着重要作用,但“生成式AI”的出现无疑影响更深远:生成即创造。生成式AI的突破,意味着AI开始走向了创造新内容世界的大道。

罗马不是一天建成的。就让我们一起回顾和尝试理解,这激动人心的一切究竟是怎么发生的。

从chatGPT的横空出世讲起

在回顾历史前,首先要跟风提一下几天前发布的chatGPT,一个绝对神仙级别的自然语言生成式AI。

chatGPT诞生的重要意义恐怕不亚于Stable Diffusion等AI绘画生成模型的出现。有兴趣的朋友可以感受去chat.openai.com感受一下这个当今最牛X没有之一的自然语言问答式AI的巨大威力。

chatGPT是明星人工智能公司OpenAI的GPT自然语言生成式模型的最新衍生品。在这之前,坊间已经传闻OpenAI的下一代自然语言生成模型GPT4即将出现。而且,有一个让人震惊的江湖传言:GPT4据称通过了图灵测试!

图灵测试究竟是什么意思?简单的说,就是隔着一个小黑屋问各种话题,然后是否能分辨小黑屋里回答问题的究竟是机器还是人类。如果无法辨别,就说明了机器具有和人一样等级的智能,通过了图灵测试。

迄今为止,还没有AI模型能真正通过图灵测试。看来临界点已经到,笔者都迫不及待地期待GPT4的真正推出了。

谁知道,还没等来GPT4,衍生自GPT3.5的chatGPT却先来了。

顾名思义,chatGPT就是“聊天GPT”,以对话的方式交互,用户问问题,它来回答。

乍听起来,似乎也没有很新鲜。但情况是,chatGPT的智能化远远超出了它那些聊天AI前辈们。好比StableDiffusion/Midjourney也就是AI绘画,但所能生成的AI绘画质量甩了前辈无数条街。

网上有越来越多的文章开始安利chatGPT,不过多是拿了外网英文问答的截图,其实chatGPT可以直接上中文!

先随意上几个问答大家感受一下:

问中国菜,算是送分题:

问从希格玛大厦如何去天安门, 开始有点难度了, 回答非常正确!要知道,这可不是某个特地为了中文导航优化的AI,chatGPT是从它通用的知识积累里得到的理解。

对龙珠的剧情理解,回答中规中矩,80分+,本来作者期望它能讲得更详细些:

吃货国家问题,有点刁钻了:

广东人真的喜欢吃甜的?这个问题很多中国人都不一定答得上:

国际关系问题来一问(看来chatGPT果然经过了特别设置,过滤了敏感问题)

另外,可以直接问chatGPT怎么写代码,比如写一个俄罗斯方块:

没有悬念,代码完全正确。

而更有想象力的,是让chatGPT来生成AI绘画的输入关键词!让AI自己来指导AI作画,多美妙的主意。

这仅仅是一个开始,随着chatGPT在全网的各种自来水安利,相信还有更多古灵精怪的玩法不断被网友们挖掘出来。

chatGPT的回答给人的感觉是,这是一个特别靠谱的聊天AI,真正的上知天文下知地理,最关键的是,它不胡说八道!正因为它回答的准确性,看起来chatGPT有了替代通用搜索引擎Google的可能性。

OpenAI的CEO萨姆・阿尔特曼(Sam Altman)对ChatGPT的未来发展表示很有信心。他在推特上说,语言接口是未来的一个发展方向,OpenAI只是一个先行者,相信很快大家就能用上真正智能的提供建议的AI助手了。

测试版的chatGPT仍有一些缺点,但这都只是战术级别的;在战略上,chatGPT的前景已经相当令人期待,特别是OpenAI下一代GPT4加持下的chatGPT,其能力恐怕更加突破天际。

我们也许正在经历又一个AI突破的时刻,一如2022年初到年中AI绘画的势如破竹。而这次,则是人类通用信息生成的突破!

喜欢刨根问底的读者们会问,AI是如何走到这一步的?

让我们远离现实的喧嚣,把目光投回到那有点遥远的过去吧。

人工神经网络的起源,在那有些遥远的年代

从某种意义上,语言表达是人类信息和思想交流的窗口。人类并没有第七感,(目前)也没有脑电波直达的交流,信息沟通都通过口头语言和书面语言来传递。(当然,可以说还有一些手势和肢体表达,但信息量基本可以忽略不计)

针对语言信息的人工智能处理,或者学术一点,“自然语言处理NLP”,是科学家们最早研究、人工智能最早发源的领域。

远在1956年,美国的达特茅斯学院举行了一次具有传奇色彩的学术会议(Dartmouth Conference)计算机专家约翰・麦卡锡提出了“人工智能”一词。这被广泛认为是人工智能正式诞生的日子。

1956年的达特茅斯会议,十位参与的科学家,AI之父们

这个会议很有意思,事后诸葛亮的我们,一起来看看这个会议7个特别有前瞻性的主要议题:

1. 自动计算机

Automatic Computer

“如果一台机器可以完成一项工作,那么就可以对一台自动计算器进行编程来模拟这台机器。目前计算机的速度和内存容量可能不足以模拟人脑的许多高级功能,但主要的障碍不是缺乏机器容量,而是我们无法编写充分利用我们所拥有的机能。”

现代第一台电子计算机ENIAC的发明日期是1946年2月14日,也就是说,当时距离第一台电子计算机的诞生仅仅过去了10年。先驱们的遗憾是当时高级程序技术还基本没有,无法充分发挥计算机的作用。

2. 如何对计算机进行编程以使用一种语言

How can a Computer be Programmed to Use a Language

“可以推测,人类思想的很大一部分是根据推理规则和猜想规则来操纵词语的。从这个观点来看,形成泛化就是承认一个新词和一些规则,其中包含这个新词的句子暗示和被其他句子暗示。这个想法从来没有被非常精确地表述过,也没有例子。”

先驱们对语言文字的机器理解充满了预期,而直到现在,有了GPT这些当超大规模的自然语言AI模型,我们才堪堪敢说,先驱们的期望逐渐在实现,计算机开始真正理解了语言。

3. 神经网络

Neuron Nets

“一组(假设的)神经元如何排列以形成概念。很多当下的计算机科学家等人已经就这个问题做了大量的理论和实验工作。已经获得了部分结果,但这个问题还需要更多的理论工作。”

神经网络!在AI概念诞生之时,先驱们就意识到了,人工神经网络的概念将要在AI里发挥重要作用。

4. 计算规模理论

Theory of the Size of a Calculation

“如果给一个很好的问题(一个可以机械地测试所提出的答案是否是有效答案的问题),解决它的一种方法是按顺序尝试所有可能的答案。这种方法是有效的,要排除它,必须有一些计算效率的标准。一些考虑将表明,为了获得计算的效率的度量,必须手头有一种测量计算设备复杂性的方法,如果有函数复杂性理论,这反过来也可以做到。香农和麦卡锡已经获得了关于这个问题的一些部分结果。”

计算机科学里重要的计算复杂性理论,就是这个时间点被提出和发展起来的。

5.  自我改进

Self-improvement

“也许真正智能的机器会进行自我改进的活动。已经提出了一些这样做的方案,值得进一步研究。这个问题似乎也可以抽象地研究。”

这是一个很有挑战性的问题,用现在的观点可以换个说法:AI是否能实现自我编程自我提升?或许很快就可以了。

6. 抽象

Abstractions

“许多类型的‘抽象’可以被清晰地定义,而其他一些类型则不那么清晰。直接尝试对这些进行分类并描述从感官和其他数据中形成抽象的机器方法似乎是值得的。”

通过机器智能来对各种信息自动加以分类和抽象,这正是当今各种牛X闪闪的AI大模型正在达成的成就.

7. 随机性和创造性

Randomness and Creativity

“一个相当吸引人但显然是不完整的猜想是,创造性思维和缺乏想象力的有效思维之间的区别在于注入了某种随机性。随机性必须由直觉引导才能有效。换句话说,受过教育的猜测或直觉在其他有序的思维中包括了受控的随机性。”

先驱们非常直观的理解,是否有随机性是创造性思维和非创造性的分析思维的重要区别。

而随机性需要由一些“直觉”引导,或者说真正的AI需要一种“受控的随机性”

其实,当前AI绘画生成机制里很好践行了这个洞察:在每一幅AI绘画背后都是一个AI模型(比如Stable Diffusion) + 一个确定的输入(一组关键词) + 一个系统生成的随机数。同样的“关键词组+随机数”输入到AI模型里,必然生成一个完全相同的AI绘画作品。这不就是“受控的随机性”嘛。

达特茅斯会议的参会先驱们都是大神,也值得在这里简单提一下:

约翰・麦卡锡(John McCarthy),率先提出了AI的概念,开发了码农熟知的程序语言Lisp。有意思的是,Lisp是在1958年发明的,看看会议的第一个议题,抱怨没有好用的编程语言可用,大牛的态度就是没有趁手的工具吗?那我就自己发明一个!

约翰・麦卡锡在1971年获得了图灵奖。

马文・明斯基(Marvin Minsky), 在1951年在普林斯顿大学读博士的时候, 建立了第一个神经网络自学习机器SNARC(Stochastic Neural Analog ReinforcementCalculator 随机神经模拟强化计算器)这是第一个真正意义上的人工神经网络硬件,用3000个真空管来模拟了40个神经元的信号传递。

明斯基的博士论文也正是神经网络。有趣的是,明斯基拿的是数学系博士学位。当时有人挑刺说神经网络的研究能算数学?而当时支持明斯基的正是大名鼎鼎的现代计算机之父冯・诺伊曼。他说:现在不算,但很快就得算了。

明斯基在1969年获得了图灵奖。

克劳德・香农(Claude Shannon)通信科学鼻祖,大名鼎鼎的香农定理是所有通信制式最基本的原理。和计算机鼻祖并驾齐驱的香农同学就不需要图灵奖了,因为在通信领域有以他的名字命名的最高奖香农奖。

赫伯特・西蒙(Herbert Simon)和艾伦・纽厄尔(Allen Newell)在达特茅斯会议上报告了世界上第一个AI项目“逻辑理论家(the Logic Theorist)”。

这个AI证明了《数学原理》第二章52个定理的38个,甚至找到了比原教材更优美的证明。两人合作提出了搜索式推理的方法,开创了人工智能除神经网络学派之外的第二条路线:符号主义学派。这两位在1975年一起拿到了图灵奖。

题外话是,这两位牛和当时数学系主任、第一届图灵奖获得者阿兰・珀里思(AlanPerlis)一起创立了卡内基梅隆大学的计算机系,从此,CMU成为计算机学科的重镇。

在达特茅斯会议之前,还有一个1955年的小讨论会议“学习机讨论会”,在那次讨论会上,主持人也是神经网络的鼻祖之一的皮茨Pitts做了一个有趣总结:“……一派人企图模拟神经系统(Neuron Nets),一派人企图模拟心智(mind, 就是上面西蒙的符号派)……但最终大家的目的一致。”

这句眼光毒辣的话,冥冥之中预示了随后几十年间AI研究“结构VS功能”的神经网络派和符号主义派两条路线之争。

潮起又潮落

达特茅斯会议之后,AI进入了一个大时代,人们惊奇地发现,计算机居然可以证明数学定理、学习使用语言。在众多AI研究方向中,搜索式推理、自然语言处理最有影响力。

从1955年到1974年是AI的第一次发展高潮,大量成功的初代AI程序和研究方向不断出现。AI先驱们非常乐观地预言:

“十年之内,数字计算机将成为国际象棋世界冠军。”(1958年,H. A. Simon,Allen Newell)

“二十年内,机器将能完成人能做到的一切工作。”(1965年,H. A. Simon)

“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”(1970年,Marvin Minsky)

结果呢?事后诸葛亮看回来,当然是被啪啪啪地打脸啦。

到了70年代初,AI科学家们逐渐发现,虽然机器拥有了简单的逻辑推理能力,但遇到了当时完全无法克服的基础瓶颈,这些瓶颈基本就是时代的局限:

①当时计算机的运算能力问题

且不说当时最原始的计算机那点可怜巴巴的算力了,我们知道,一直到了最近十来年,个人计算机组网之后的并行算力才真正达到了可以支持现代AI大模型训练迭代的要求。

②推理需要积累大量对世界的认知信息

这就是个大数据的基础积累问题。而大数据的积累,也是在现代互联网的迅猛发展之后,才得到了真正的解决。

还有一个神奇的事情是,人工神经网络这个当下最主流的A