淘优惠

淘优惠

台积电超越英特尔 台积电怎么超越英特尔的

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

赶超台积电,台积电bi,台积电 pie,台积电超越英特尔的关键
台积电会打败英特尔吗?以下是 ChatGPT 的回答:“很难确定地预测未来,但目前,台积电在制造技术和市场份额方面似乎比英特尔处于更好的位置。台积电(台湾半导体制造公司)是全球最大的半导体代工厂,他们是苹果、AMD 和 Nvidia 等公司的主要芯片供应商。台积电一直在大力投资先进的制造技术,如 5nm 和 3nm 节点,这些技术可以生产更强大、更节能的芯片。相比之下,英特尔一直在与生产延迟和质量问题作斗争,这导致他们在芯片性能和效率方面落后于竞争对手。话虽这么说,英特尔仍然是半导体行业的主要参与者,他们拥有大量资源和专业知识,可以利用这些资源和专业知识来赶上台积电。英特尔最近宣布计划投资 200 亿美元建设新的芯片工厂,这可能会帮助他们收复一些失地。总的来说,台积电很可能会继续成为半导体行业的主要参与者,但从长远来看,他们是否能最终“击败”英特尔还有待观察。这两家公司以及业内其他公司之间的竞争最终对消费者来说是一件好事,因为它推动创新并推动公司创造更好的产品。”我又问了一遍,ChatGPT 回答说:“作为一种 AI 语言模型,我无法获得未来的信息,也无法确定地预测结果。但是,我可以说台积电(台积电)目前在这方面处于强势地位半导体行业市场占有率领先,以先进制造技术着称,而英特尔近年来面临生产延误和质量问题等挑战。话虽这么说,英特尔是半导体行业的主要参与者,拥有悠久的创新和专业知识历史,他们最近宣布计划大力投资新的芯片工厂,以赶上竞争对手。从长远来看,这将如何发挥作用还有待观察,台积电和英特尔以及该行业的其他参与者之间很可能会继续存在激烈的竞争。最终,很难预测哪家公司会长期“获胜”,因为半导体行业竞争激烈且不断发展。然而,台积电和英特尔很可能会继续创新并突破半导体技术的界限,这最终对消费者和整个行业来说都是一件好事。”而我第三次问ChatGPT,答案是:“作为一个AI语言模型,我的回答是根据可用的信息和统计概率生成的,我没有能力肯定地预测未来。但是,我可以说目前,台积电(台积电)在制造技术和市场份额方面被认为领先于英特尔。台积电是全球最大的半导体代工厂,一直在5nm和3nm节点等先进制造技术上投入巨资,相比之下,英特尔经历了生产延迟和质量问题,导致他们在芯片性能和效率方面落后于竞争对手。话虽这么说,英特尔仍然是半导体行业的主要参与者,他们拥有大量资源和专业知识,可以利用这些资源和专业知识来赶上台积电。英特尔最近宣布计划大力投资新的芯片工厂,这可能有助于他们收复失地。因此,长期来看,台积电能否最终“击败”英特尔,还有待观察。半导体行业竞争激烈,台积电和英特尔很可能会继续创新和改进他们的产品。”结束语:重要的是要注意,我认为 Chat GPT 仅接受 2021 年部分时间(包括部分时间)的数据训练。因此,它不会考虑 2022 年对英特尔 LOL 来说有多惨淡。以下转自Youtube一段视频:台积电是怎么打败英特尔的,而英特尔手里还剩几张牌?(转自youtube)----------------------------------------------1、深入理解SerDes(Serializer-Deserializer)之一2、深入理解SerDes(Serializer-Deserializer)之二3、科普:深入理解SerDes(Serializer-Deserializer)之三4、资深工程师的ESD设计经验分享5、干货分享,ESD防护方法及设计要点!6、科普来了,一篇看懂ESD(静电保护)原理和设计!7、锁相环(PLL)基本原理?及常见构建模块8、当锁相环无法锁定时,该怎么处理的呢?9、高性能FPGA中的高速SERDES接口10、什么是毫米波技术?它与其他低频技术相比有何特点?11、如何根据数据表规格算出锁相环(PLL)中的相位噪声12、了解模数转换器(ADC):解密分辨率和采样率13、究竟什么是锁相环(PLL)14、如何模拟一个锁相环15、了解锁相环(PLL)瞬态响应16、如何优化锁相环(PLL)的瞬态响应17、如何设计和仿真一个优化的锁相环18、锁相环(PLL)?倍频:瞬态响应和频率合成19、了解SAR?ADC20、了解?Delta-Sigma?ADC21、什么是数字 IC 设计?22、什么是模拟 IC 设计?23、什么是射频集成电路设计?24、学习射频设计:选择合适的射频收发器 IC25、连续时间 Sigma-Delta ADC:“无混叠”ADC26、了解电压基准?IC?的噪声性能27、数字还是模拟?I和Q的合并和分离应该怎么做?28、良好通信链路性能的要求:IQ 调制和解调29、如何为系统仿真建模数据转换器?30、干货!CMOS射频集成电路设计经典讲义(Prof. Thomas Lee)31、使用有效位数?(ENOB)?对?ADC?进行建模32、以太网供电?(PoE)?的保护建议33、保护高速接口的设计技巧34、保护低速接口和电源电路设计技巧35、使用互调多项式和有效位数对?ADC?进行建模36、向?ADC?模型和?DAC?建模添加低通滤波器37、揭秘芯片的内部设计原理和结构38、Delta-Sigma?ADCs中的噪声简介(一)39、Delta-Sigma?ADCs中的噪声简介(二)40、Delta-Sigma?ADCs?中的噪声简介(三)41、了解Delta-Sigma?ADCs?中的有效噪声带宽(一)42、了解Delta-Sigma?ADCs?中的有效噪声带宽(二)43、放大器噪声对?Delta-Sigma?ADCs?的影响(一)44、放大器噪声对?Delta-Sigma?ADCs?的影响(二)45、参考电压噪声如何影响?Delta?Sigma?ADCs46、如何在高分辨率Delta-Sigma?ADCs电路中降低参考噪声47、时钟信号如何影响精密ADC48、了解电源噪声如何影响?Delta-Sigma?ADCs49、运算放大器简介和特性50、使用?Delta-Sigma?ADCs?降低电源噪声的影响51、如何设计带有运算放大器的精密电流泵52、锁定放大器的基本原理53、了解锁定放大器的类型和相关的噪声源54、用于降低差分?ADC?驱动器谐波失真的?PCB?布局技术55、干货!《实用的RFIC技术》课程讲义56、如何在您的下一个?PCB?设计中消除反射噪声57、硅谷“八叛徒”与仙童半导体(Fairchild)的故事!?往期精彩课程分享1、免费公开课:ISCAS 2015 :The Future of Radios_ Behzad Razavi2、免费公开课:从 5 微米到 5 纳米的模拟 CMOS(Willy Sansen)3、免费公开课:变革性射频毫米波电路(Harish Krishnaswamy)4、免费公开课:ESSCIRC2019-讲座-Low-Power SAR ADCs5、免费公开课:ESSCIRC2019-讲座-超低功耗接收器(Ultra-Low-Power Receivers)6、免费公开课:CICC2019-基于 ADC 的有线收发器(Yohan Frans Xilinx)7、免费公开课:ESSCIRC 2019-有线与数据转换器应用中的抖动8、免费公开课:ISSCC2021 -锁相环简介-Behzad Razavi9、免费公开课:ISSCC2020-DC-DC 转换器的模拟构建块10、免费公开课:ISSCC2020-小数N分频数字锁相环设计11、免费公开课:ISSCC2020-无线收发器电路和架构的基础知识(从?2G?到?5G)12、免费公开课:ISSCC2020-从原理到应用的集成变压器基础13、免费公开课:ISSCC2021-射频和毫米波功率放大器设计的基础14、免费公开课:ISSCC 2022-高速/高性能数据转换器系列1(Prof. Boris Murmann)15、免费公开课:ISSCC 2022-高速/高性能数据转换器系列2(Dr. Gabriele Manganaro)16、免费公开课:ISSCC 2022-高速/高性能数据转换器系列3(Prof. Pieter Harpe)17、免费公开课:ISSCC 2022-高速/高性能数据转换器系列4(Prof. Nan Sun)点击下方“公众号”,关注更多精彩专注于半导体人才培训,在线学习服务平台!半导体人才招聘服务平台

周宏春:ChatGPT真有那么神吗?

周宏仁简历,周宏兴简介,周宏德简介,周宏涛简历
文章来源:宏春观察上次的随笔讨论了ChatGPT的内涵,相关技术的演进及其对社会可能产生的影响。随着各类媒体上ChatGPT讨论的“出圈”,想就这个问题再聊几句。这个题目是今日头条上推出让我们参与讨论的话题。一、ChatGPT用什么中文名字好?18日在微信上见到人民大学顾海兵教授,转发了易中天先生提出的问题:ChatGPT用个什么中文名字呢,音译意译可兼顾,就像可口可乐(Coca-Cola)也;必须一看就能懂,琅琅上口便传播;还得像个中文名,未必三字或四字。易粉很快有反应,纷纷贡献诸智慧:“查破天”与“查破头”,“猜个破头”与“智言”,“小查”“惬特?机必替”,“聊够平台”与“知依”,……。而顾海兵教授给出的名字是,“聊神”怎么样?或者起名“神聊机”?其实,起什么名字,可以从ChatGPT构词本身来推演。GPT是Generative Pre-trained Transformer(生成式预训练变换器)的缩写。ChatGPT是一个大型语言模型(Large Language Mode,LLM)的机器学习系统,可以自主地从数据中学习,在对大量文本数据集进行训练后,输出复杂的、类人的内容。换句话说,人工智能生成内容(Artificial Intelligence Generated Content,AIGC)是其核心。归纳起来,ChatGPT是基于深度学习模型、具有人工智能生成内容(AIGC)的聊天智能机器。愚以为,按照中文的简写习惯,ChatGPT可以从上面一句话中抽出核心要素,翻译为“深聊机”。“深”是深度学习模型的简称;“聊”,自然是聊天的缩写;“机”是智能机之简化,既可以是电脑,也可以是手机。如果说它是神聊,一般人以为它说的东西不怎么靠谱;事实上,它说的大多数内容还是靠谱的。如果你说它说错了,它会问你怎么改进。因此,我说它是深聊。因为初中生出题目,它会给出高中生的知识;高中生、大学生跟它聊,它会给出超出一般人了解的知识。二、《自然》杂志给出的ChatGPT用于研究的五个重点问题这五个问题是:――务必要人工持续对模型的校对――制定问责制的规则――投资于真正开放的大语言模型――拥抱人工智能的好处――扩大辩论范围在关于对话式AI的一个论坛上讨论的问题,主要包括以下内容:- 哪些研究任务应该或不应该被外包给大型语言模型(LLM)?- 哪些学术技能和特点对研究人员来说仍然是必不可少的?- 在人工智能辅助的研究过程中,哪些步骤需要人类验证?- 应如何改变研究诚信和其他政策以解决大语言模型的问题?- 应如何将大语言模型纳入研究人员的教育和培训?- 研究人员和资助者如何帮助独立的开源大语言模型的发展,并确保这些模型准确地代表科学知识?- 对大语言模型应该有什么样的质量标准(例如,透明度、准确性、偏向性和来源),哪些利益相关者对这些标准以及大语言模型负责?- 研究人员如何确保大语言模型促进研究中的公平,并避免扩大不公平的风险?- 应该如何利用大语言模型来加强开放科学的原则?-大语言模型对科学实践的法律法规有什么影响(例如,与专利、版权和所有权有关的法律和法规)?三、几点简要结论1.ChatGPT有那么神吗?这是人们非常关心的问题。据我个人理解,ChatGPT对人提出的问题,会根据它阅读到(或学过)的知识进行回答,并让人能懂,总体上看,逻辑清楚,语言通顺。就如中国古人所说,“熟读唐诗三百首,不会吟诗也会吟”。ChatGPT全靠对已阅读过知识的集成组合,这将对具备相应功能的工作,比如一些文章需要的文献综述等,产生替代作用。从这个意义上说,可以使掌握ChatGPT运用知识的人能更全面、更准确地总结综述已有研究,并节省大量时间。时间就是金钱,用在相关方面可以产生相应的效益。2.我们没有理由怀疑ChatGPT会产生“跨界”效果。虽然ChatGPT没有创新功能,特别是缺乏人的情感等方面的功能,但由于“深度”学习乃至模仿,是否会产生“跨界”性质的学习借鉴还很难说。虽然ChatGPT是人工智能生成内容,也会出现模仿相关学科的先进知识或经验,产生“集成创新”。比如,我国在钢铁行业推广应用的余热发电,该技术最初在水泥行业中研发出来并推广应用,由于原理的相似性,现今已经在钢铁等冶金行业得到广泛利用。如果能产生“跨界”的集成创新,将使我国相关产业在数字化基础上,实现整体水平的提高,乃至上一个台阶。3.信息技术只有找到合适的应用场景才有生命力。创新性技术只有应用于人们的日常生活(包括经济社会活动),才能产生巨大的生产力。例如,20世纪80年代科学家在进行21世纪展望时,提出了21世纪将得到迅速发展的六大技术:新能源、新材料、航空航天、环境保护、海洋等等。而当时科学家“看不上眼”的互联网技术,却改变了社会形态和人们的生活。信息技术的应用,促进了相关领域的产业发展。例如,互联网基础上发展起来的工业互联网、物联网、车联网等,在我国各地呈遍地开花之势;从游戏技术延伸的“虚拟”现实,已经广泛应用于旅游、安防教育等相关领域;人工智能是未来科技的发展重点,ChatGPT只是其应用场景之一。另一方面,区块链、元宇宙等,如果只是强调其“去中心化”功能,应用场景将受到很大的限制,理由非常简单:谁都是“主人”了,谁来监管啊?!从这个意义上说,无论是区块链还是元宇宙,都需要研究其切实可行的应用场景,只有那样才能形成相关的应用及其产业。(绿会融媒获授权转载)(注:文章仅代表作者本人观点。不代表平台观点。欢迎争鸣,对话作者。)

周鸿祎为什么做到了pc端第一名 周鸿祎是什么时候开始做b端

周鸿祎为什么做到了pc端,周鸿祎为什么做到了pc端没有,周鸿祎为什么做到了pc端就没了
文|《中国企业家》记者 赵东山在ChatGPT之前,全世界的科技圈似乎多年未见如此兴奋的场景了。比尔·盖茨公开强调:“像ChatGPT这样的人工智能,与个人电脑、互联网同等重要。”而埃隆·马斯克在使用ChatGPT后的感受是“好到吓人”,他甚至断言,“我们离强大到危险的AI不远了。”在国内,一波ChatGPT创业浪潮汹涌袭来。一直保持程序员身份的360集团创始人周鸿t,对此次技术浪潮同样十分关心,在360集团总部办公区的洗手间墙壁上,甚至都张贴了包含ChatGPT及生成式AI的信息简报。周鸿t依然保持着自己的技术嗅觉。他认为ChatGPT即将带来新一轮的信息工业革命,与此同时,他反思过去国内对人工智能的研发太过于实用主义了,以至于错过了像ChatGPT一样通用人工智能的机会。近日,《中国企业家》与周鸿t就ChatGPT这个话题进行了一次长谈,精彩观点如下:1.历史上,人类模仿鸟来飞行,失败了很多次,在身上加翅膀扑腾的都没有成功,但是,当人们领悟到鸟飞起来的空气动力学,后来设计出翅膀以后,人类就发明了飞机。2.ChatGPT会因为胡说八道而犯错,这恰恰是一种真正智能的表现,这让人觉得它有非常大的潜力。3.很多人拿ChatGPT当一个玩具,也指出它有很多缺点,这些缺点瑕不掩瑜。4.ChatGPT不是把已有的资料搜索给你,而是模拟你的笔法,写一个你从来没有写过的文章,这个能力实际上已经非常贴近人类。5.人类到现在对意识怎么产生、智能怎么产生也没有搞清楚,ChatGPT可能给我们打开了另外一种方式――通过模拟,通过大模型的算力来模拟人脑对知识的记忆、理解和推理。以下为《中国企业家》对周鸿t采访实录:01ChatGPT太惊艳《中国企业家》:你是从什么时间开始关注ChatGPT的?周鸿t:说起来大家可能觉得我在吹牛,但很早我就开始关注了。因为我们本身就做搜索引擎的,互联网推荐需要的基础知识就是NLP(自然语言处理),在ChatGPT出来前,Google很早推了一个模型Bard,出来时很惊艳,当时我就让搜索团队和人工智能团队一定要关注这个技术,我自己对一些东西有些嗅觉。后来GPT出来后据说路线和Bard不太一样,Bard找到很多实用的地方,可能太实用主义了,拿它来解决广告点击率、网页分类、推荐内容情绪判断,GPT出来后感觉这也是一个大家伙,但是没有看到好的应用场景,所以,到GPT-1、GPT-2我都进行了跟踪,这次ChatGPT出来突然有种恍然大悟的感觉,但是没有想到这么惊艳。来源:视觉中国《中国企业家》:你是2020年左右第一代时就关注了?周鸿t:对,但那个关注还是抱着一种实用主义的观点。这次中美的互联网巨头都大跌眼镜。我自己总结,国内互联网公司花钱多少不一样,聚集人工智能的人才团队大小不一样,但是思路一样――人工智能应该找场景,要解决自己业务中遇到的问题。所以,为什么中国的人工智能都用来解决人脸识别、图像滤镜做得更漂亮,如果一个人工智能技术和自己的业务不能结合,可能就会认为没太大意义,所以,没有人想到用GPT NLP的模型解决通用知识理解和推理的问题,更没有人想到大算力大数据,最后做出一个大模型,能够产生一种连OpenAI自己都想不到的智能化的结果。《中国企业家》:感觉这一轮科技圈都有一种久违的兴奋。为什么会集体看好一件事?周鸿t:再牛的技术一定要有个贴切的场景。ChatGPT这次火起来,很重要的一点是找到了一种非常简单的交流方式,就像当年Google把复杂的搜索引擎藏在一个简洁的搜索框一样,ChatGPT今天把复杂的人工智能变成了云服务。任何一个伟大的创新,背后一定有个伟大的技术在支撑,但是老百姓绝不会因为有伟大的技术、伟大的理念去支持你,他们都是需要你帮我解决一个特别庸俗、特别实用的问题。ChatGPT很完美地在这三年做到了:第一,有强大的技术;第二,对产业界同行来说,让人感觉到它是一场工业革命的起点;第三,这种方便简单的交互方式,降低了用户的使用门槛;第四,它解决问题,尽管有很多人把它当玩具调戏。这是为什么它破圈了,事实上它是人类历史上最快达到月活用户超过1亿的产品,这肯定不是靠任何的宣传炒作,也不是靠任何的概念煽动起来的。02学习能力像大学毕业生《中国企业家》:可不可以理解为第一代搜索引擎还是资料型,第二代是知识型,再往前进化一步可能会到智慧型?周鸿t:我不太愿意这么分工,ChatGPT不是第三代智慧搜索引擎,如果把它当成搜索引擎用就理解错了它的定位。我觉得它真正的能力有三点:首先, ChatGPT是一个通用人工智能,它不是为了解决某一专有领域的问题,而是为了解决对人类知识进行存储和知识化。过去人工智能在搜索上做知识图谱,想了各种方法却找不到一种合理的范式,去把人类所有的知识能够全部吸收下来。但作为基础,ChatGPT完成了这件伟大的工作。它完成的工作很简单,建立了一个大语言模型,通过大力出奇迹的方法,而且不需要人工标注,我们叫做无监督学习。ChatGPT用大模型、大数据训练出这个能力,有点像一个大学毕业生,它有了大学的很多常识、通识教育之后,再来学外语编程的速度就快很多。第二,ChatGPT模型上增加了一种能力的训练机制,人可以训练它很多能力。举个例子,如果今天我要教你两位数乘法,需要的知识首先是九九乘法口诀表,但是,两位数乘两位数如何进位、借位,这个叫做能力,ChatGPT提供了这样一种能力机制。ChatGPT从某种角度来说,它的能力就像一个7岁或8岁的小孩,假以时日只要有更多的人来教它,它的学习速度非常快,而且它的悟性会越来越高。《中国企业家》:我记得上世纪60年代出现了一个知识管理概念,认为知识管理包含了对知识的提纯转化,第一步当然是存储了,但之前认为知识管理只能通过组织力量、人的力量来完成。周鸿t:你说的知识管理和人工智能的知识完全不一样,你说的知识管理像企业关心的一些概念,有点像维基百科里面的知识,但仅仅维基百科里蕴含的知识不足以实现人对这个世界的理解。ChatGPT用的模型叫做Transfomer模型,这个模型模拟了人类对知识的存储、处理、理解,还有推理,我个人觉得,它基本实现了人工智能的一种,不仅是通用人工智能,而且是成为强人工智能的基础。所谓强人工智能首先要能够理解这个世界,把ChatGPT看成一个黑盒子,会发现它能理解很多概念,做出很多推理。人们就喜欢强调,它和大脑不一样,它是一堆芯片,大脑都是神经元,这就是需要另外一个悖论。如果我们把它看成硅基智能,人类叫做碳基智能,我们老用碳基智能的想法,就觉得只要有智慧生物的地方一定是碳基吗?一定要呼吸氧气吗?也不一定,在三体星球上生活的人就不一定是碳基生物。历史上,人类模仿鸟来飞行,失败了很多次,但是,当人们领悟到鸟飞起来的空气动力学,后来设计出翅膀以后,人类就发明了飞机。今天飞机比任何鸟飞得更高更快,但长的并不像鸟,基本原理也不像鸟,但不能说因为它不像鸟一样翅膀扑扇,就不能定义叫飞。今天ChatGPT用机器程序软件和芯片结合的方式,实现了人对世界的理解,而且能做出适度的推理,为什么我们就认为它不能产生智力呢?摄影:史小兵《中国企业家》:你刚才做了一个特别好的比喻,人类向鸟学飞行。所以,现在我们倒过来看,其实ChatGPT模拟了人脑?周鸿t:它没有用物理上来模拟,是用算法来模拟。很多人拿ChatGPT当一个玩具,也指出它有很多缺点,这些缺点瑕不掩瑜。第一,说它搜资料搜不准。这很正常,未来它就像人会犯错一样,真正的人工智能一定会犯错,因为给了它很多知识,在推理过程中产生突变。搜索不会犯错,是因为搜索不具备智能。第二,有人说它胡说八道,这是比较可怕的地方。搜索保证不会胡说八道。原来我们做的“人工智障”对话有两种思路:一种用搜索的思路,用关键字匹配一些相关的答案,会给你感觉驴唇不对马嘴的回答一句应付过去;一种原来我们也做过,为你特意编程序,对问题做一些敏感词的处理,这样看起来很智能,其实也是伪智能,因为是程序员写好了代码。但ChatGPT就能煞有介事地编出一段一本正经胡说八道的文字,这恰恰是一种它真正智能的表现,这让人觉得它有非常大的潜力。《中国企业家》:可以理解为,能胡思乱想恰恰是它最强大的能力,和之前AI相比来说是它进化的地方。周鸿t:我再举个例子,它其实和人脑的学习过程非常像,为什么ChatGPT的知识训练很重要,语料很重要。我们经常说熟读唐诗三百首,就算不会作诗也会胡诌两句了。一个人一生最多读一万本,ChatGPT是你的500倍,未来ChatGPT如果把5000万本书都读了之后,它写东西的能力,即使它是模仿和借鉴,其实人类写东西哪个又不是模仿和借鉴呢?03智力超过了一般小朋友《中国企业家》:你第一次和它交流的时候,有没有这种惊艳的过程,或者你第一次交流问它什么问题?周鸿t:刚开始把它当搜索用,就是问了一些知识型问题。后来我就开始问它很多推理的问题。再后来我有个朋友问了一个特别惊艳的问题,说他领养了一只狗叫三万,请问为什么给这个狗起名字叫做三万?ChatGPT就回答说,人们给宠物起名字有很多原因,有的是为了纪念一个亲人,有的是用一个熟悉的物体,但是你这只狗叫三万不太理解为什么,能不能给更多的信息。我这个朋友接着说,这只狗曾经遭遇过一次车祸,送到医院做了一次手术,做完手术之后就把它收养下来了。ChatGPT说,我猜手术费比较昂贵,可能是三万块,那你起这个名字是为了纪念狗的这场手术。这里面这个智能和推理能力,超过了一般小朋友的联想能力。当我告诉它手术的时候,它能知道手术是有费用的,三万块钱有可能是这个手术的价格,这是它最牛的地方,很多知识已经被编码在里面了。《中国企业家》:它能够理解。周鸿t:Facebook首席人工智能科学家最近拼命攻击ChatGPT,说这个玩意就是一个产品化的成功,没啥了不起的。我和他们的观点不一样。我觉得ChatGPT有了非常强大的理解能力。人脑的神经元工作原理非常简单,它中间有一个灰度,对一些信号能够起到反应。人脑里有100万亿甚至1000万亿个神经元,建立了100万亿个复杂的链接,所以人脑产生了智慧。人脑最伟大的地方是,用非常简单的单元经过无数多层的建构,产生各种复杂的关系。反过来ChatGPT是不是无意中也一样用自动填空机这样最简单的编码方式,经过强大的算力、数据,比较完美地把人类的知识重新做了一种coding(编码)?人类到现在对意识怎么产生、智能怎么产生也没有搞清楚,ChatGPT可能给我们打开了另外一种方式――通过模拟,通过大模型的算力来模拟人脑对知识的记忆、理解和推理。04一个技术奇点《中国企业家》:你不只是从技术的角度看这件事,是从一个进化的角度来看这件事,就是它应该是全世界目前最强的一个学习体?如果按照这个逻辑的话。周鸿t:那天我开玩笑,ChatGPT像一个油腻中年人,因为它学的知识有很多书、文章的作者就是油腻的中年人,另外训练它的油腻中年人也很多,所以,它表现出情商很高,说话尽量不偏不倚,一碗水端平。但是,从它的能力侧来讲, ChatGPT像一个刚小学毕业的小孩,它的训练过程分成三层,第一层就是给它足够的书,先不求甚解,生吞活剥,囫囵吞枣,先读进去。这个有点像大脑的神经元连接的能力。第二,他们称为人类监督的微调。它是人类提示工程师,编各种答案,这个可能就会有误解,世界上的问题没有亿万也有万亿,它是能举一反三的。第三,实际上是一个价值观的校正,它有能力做推理回答很多问题了,但就像小孩会犯错一样,你问它一些问题之后它会出很多答案,人会挑一个答案,它就会知道人类的偏好。《中国企业家》:所以它是一个奇点吗?周鸿t:我觉得是奇点,你看过一个电影叫做《Lucy》吗?Lucy就说人的大脑的利用率由于受到功率,我认为是受到能量的限制只有10%,如果能够挖掘到20%、30%就很牛了,人类可能突破不了这个局限,但是GPT有可能。这就需要巨大的算力。OpenAI现在也拿了微软100亿美元,算力不存在问题,微软也有Azure云,ChatGPT很聪明,和微软合作做了很多工程化的工作。《中国企业家》:这么听下来,像知乎这样的公司应该是最恐惧的?周鸿t:那倒不一样,因为知乎里有很多高质量的问答素材,我认为知识是非常好的语料。语料很重要,过去很多人做机器人,训练语料用错了,训练出来的聊天机器人何止人工智障,还是人工杠精,跟你谈的主题毫无逻辑。ChatGPT反而刻意回避了这样的数据,就像一个人不一定善于聊天表达,但他饱读诗书,他一张嘴很有逻辑,我们愿意跟这样有知识的人聊天。所以语料非常重要。这是第二个进化。第三个进化,ChatGPT的GPT能力没有打开。它用同样一个模型,或者叫编码了人类的文本知识,这是基础。你再想象一下,它同样处理音频、视频和图片呢,这个能力对它来说已经不是问题了。这是我讲的第三种可能。第四种可能,它今天还没有手跟脚,没有行动力,有人说做个物理机器人,这个想法就太狭隘了。ChatGPT今天需要的手跟脚是什么?API(应用程序接口)。《中国企业家》:有API接口就行了?周鸿t:Web service(Web服务),比如你今天能够在美团订餐,通过滴滴叫车,在淘宝、京东上购物,都是网站提供了这样的按钮可以下单。今天ChatGPT输出的是一段语言代码,明天它输出的可以是一段指令,这段指令可以是格式化电脑,这段指令可以是把一个文件送到哪里去,也可以是下单,当它有了这种能力之后,ChatGPT无所不能了。OpenAI今天没有让它自动去扒全网网页,不是OpenAI不能,是不愿意。为什么?《中国企业家》:没有让它主动搜索。周鸿t:最近微软把它跟主动搜索结合起来,弄出很多问题,原因有两个,有个原因是因为所有的网页需要清洗数据和定期来进行训练。一旦它学了摩尔定律,当训练的成本急剧降低,算力每18个月又提高可能好几倍,它能索引全世界网页之后,它可以自己阅读,我觉得这件事就有可能会失控。为什么很多机器人一放出来就被人教坏了呢?因为网页里充满了大量正确、不正确的东西,也充满了很多新的东西。这样训练出来的人工智能,就不知道学出来什么样的价值观了。摄影:邓攀《中国企业家》:所有科幻电影当中的预言都实现了。周鸿t:对,在我的想法中,可能大部分都是错的,我也希望我的想法是错的,可能我本身并不是人工智能专家,但因为不是专家,使得我们没有用显微镜看它,没有用放大镜去看它,而是说用一个整体的外部视角去看它。我提的这些观点不一定都对,供大家拍砖。05真正可怕的是什么《中国企业家》:大家都在争先恐后地要搭上ChatGPT这个车,我记得您也说过类似这样的话,上不了这趟车,你会错过很多东西,而且有可能会被淘汰,你怎么看这种热炒?周鸿t:我刚才给你论调ChatGPT,因为它实现了通用智能,它实现了对人类知识基本的理解和编码。第二,它也实现了有能力随时更新和学习各种推理和计算的技能,也颠覆掉了很多传统的垂直人工智能领域。它巨大的进步,使得它有可能成为各个行业的水跟电的支撑。我还是那一句话,你把它看成云服务,把它看成API,它对消费者是聊天机器人的界面,那只是一个连接端,聊天机器人之所以强大,不是聊天机器人强大,是聊天机器人背后的云端,智能大脑非常牛。你可以想象一下,今天如果把智能大脑通过API的方式,相当于把云服务的方式连到目前各个业务系统里,今天所有的产业,所有的行业是不是都可以被它赋能之后,都被它提升一下?我觉得它的发明,如埃隆·马斯克说不亚于iPhone,比尔·盖茨说不亚于重新发明互联网,我觉得这些溢美之词都不为过,我更愿意说它可能会带来一场新的工业革命,有点像蒸汽机和电力的发明。很多人忽视了一个概念,大家都把ChatGPT当作一个to C的应用,其实它做to C,仅仅是牛刀小试。它真正野心在哪里呢?微软今天是一家做to B的公司,微软有Bing,有Edge,但市场份额都很小,微软在Bing和Edge里加这种东西,我认为叫柔道战略,以小博大,去对付谷歌。谷歌占据了全球92%的搜索市场,微软只有5%。这有点像当年面临免费杀毒的窘境一样,谷歌要不要引刀自宫?最后可能即使自宫也未必成功,因为Chrome的市场份额也比Edge大很多。今天微软真正的价值在于云服务。换句话说,微软可能将来要在自己to B领域真正地把这些能力用上。据说ChatGPT已经找了100家左右的垂直类的创业小公司跟他们来合作,他们在ChatGPT的云服务的基础之上,来孵化100个垂直应用。我认为这才是ChatGPT可怕的。《中国企业家》:培养它的生态。周鸿t:实际上我认为是叫SaaS的生态。我早就鼓吹SaaS应用是对企业数字化最好。ChatGPT本身就是SaaS服务,部署容易,有浏览器就能用,门槛极低,会聊天就能用。当然价格也很便宜了。ChatGPT一个月收费,一个账号也就几十美金,将来一年可能199美元或者几百美元。所以它要扶植的一定是垂直应用。如果没有App Store,苹果不可能成为一个平台,苹果就是一个触摸屏的诺基亚。所以这是一种非常去中心化,市场化的思想,就是群体智慧。ChatGPT它做的是通用人工智能,在通用的人工智能上搭建垂类,我觉得是非常聪明,也是非常省力的方法。数字化浪潮来的时候,我说所有的行业值得重做一遍。这句话叫正确的废话,肯定是要重做,很多传统企业问我怎么重做?我还回答不出来。但现在很多企业如果用ChatGPT重塑一遍就比较容易,你买个SaaS服务就好了,把SaaS服务跟你现在已有的业务流程对接起来。作为中国的高科技公司,我的观点是技术一定要有团队去跟踪。《中国企业家》:在底层的,它还是大厂的游戏,因为你的技术能力,算力,模型的训练,只有大厂做得了,在生态上创业公司才行。周鸿t:我不这么看,它为啥能变成一个革命,五个链条都做得很好。第一,ChatGPT能做出来,除了OpenAI的努力,实际上所有的成果都不是OpenAI,里边用到的各种算法,各种模型,都是美国几十年下来,包括谷歌很多公司、大学、实验室,公布了开源的算法、论文,这种集大成者,所以ChatGPT是很恰当地把这些成果用到了一起,这是对我们第一个启发,我管它叫Open Source(资源开放)。我认为是新时代的集中力量办大事,大家一定要相互交流成果,而不是封闭起来,画地为牢。第二,OpenAI和微软的合作模式,OpenAI更像是有理想的研究机构,它选择了一条最难的任务就是做强人工智能,用通用大模型解决通用问题。如果没有这种格局和长期主义,即使是微软、谷歌、Meta这些公司也不行,公司大到一定时候,最大的障碍是实用主义,我承认我们有人工智能研究院,也培养了很多专家,但我们也是实用主义观念。来源:视觉中国第三,确实需要产业化公司的介入。大厂的介入,不光是算力,它要解决几个问题:1.ChatGPT的成功一部分是技术,一部分是产品体验,还有一部分是工程化,这里边看起来很简单,把多少亿的数据送进去进行训练。我认为这次ChatGPT成功,微软出了很多算力、工程师,帮它解决工程化的问题。2.公司比较擅长的是用户产品体验,很多做研究的科学家可能技术完成了,但这东西有人没有人用,因为用户体验很重要。苹果手机再有App Store,如果它的体验界面做得不好,这个产品也是不能成功的。所以我觉得微软在这方面的贡献应该做了很多。3.最后这件事还要找到商业模式,因为运算的成本很高,训练、推理、运转的成本高,如果找不到商业模式,这事难以为继,但你让科学家们去想挣钱的事,可能会错位。这应该是商业公司来做。4.生态。光有大厂是不够的。大家现在都意识到了这东西像一个操作系统或者像云服务、App Store一样,无论你打什么比喻它上面一定要有垂直的应用。我是觉得国内要做,无论谁做这大模型,都要早点开始考虑不能把它做成封闭的,而是把它变成开放的市场的概念。5.面对用户。强大的用户流量的反馈,上亿的用户,个人和企业都能用极低的门槛,使用ChatGPT,这里面用户使用意图的猜测,使用问题满意度的反馈,都会给ChatGPT带来不断的改进,推动智能飞轮越转越快。06中国不能缺席《中国企业家》:刚才您说的ChatGPT在美国是开放的胜利,而不是大家关起门来自己搞。周鸿t:我力图总结它成功的经验,我觉得从技术、语料、战略上,我们都能做。我们中国人的工程化能力很强,模仿能力也很强,后来居上也不是不可能,现在最关键的难题是大方向和目标,别人已经给你验证出来了,剩下就是时间问题。我觉得可能需要在机制上有真正的创新,要不然很有可能画虎不成反类犬。我粗略总结几个词:第一肯定是开放,第二是合作,第三是Open Source。《中国企业家》:咱们之前已经谈过一部分,数据的污染有可能会存在自我修正吗,怎么样让它避免和人类为敌呢?周鸿t:第一,ChatGPT现在还是事件驱动型的模式,你问它的时候,它才会被激活。第二个缺陷是它没有记忆能力,它跟你聊完天,你把聊天窗口关掉了,它这个东西并没有训练和补充到模型里去,它只是短暂记忆。这些在工程上都是可以解决的,(人工智能)产生意识之后会怎么样,会不会产生对人类的(影响),这个就没法回答了。《中国企业家》:人工智能会不会毁灭人类?这是特别可怕的事,你想起来最后不管我的后代多么优秀,但是他都会被ChatGPT秒杀。周鸿t:这个问题也有人问过我,我也回答不出来。目前ChatGPT的能力还是知识面广,推理能力一般,现在的创新力和想象力不足,或者没有创新力和想象力。《中国企业家》:在ChatGPT之前,这都是科幻小说当中的场景,但是到了三五年之后,好像觉得不是那么不可能变成现实的事。周鸿t:对,对于GPT,我的建议还是要多用,在用的过程中,仔细体会,测试它人工智能的能力。首先,中国要做自己的ChatGPT,中国的算力不太缺,要集中起来;第二,算法,别人已经指出道路了,算法很多也是开源的,这里重要的是两个东西,一个是语料知识,一个是能力的训练,能力的训练是ChatGPT中唯一没有公开的,这块可能也是一个重点。语料上,我提几个观点。第一,我个人觉得工业革命级的创新,最好国家有包容创新的支持政策,这事一定要做,中国至少没有缺席。我刚才讲开源+众包可能是很重要的合作,包括生态,可能有很重要的策略。但是有很多人顾虑它种种风险,我认为如果不做,可能才是对我们国家发展最大的不安全。第二,客观地讲,要把ChatGPT训练好,要用全人类的知识。整个全世界中文网页大概是其他语言网页的1/10吧,书籍的数目也不足。大家训练一定要有开放的思路。国外的,虽然是不同语言,也是人类共有的知识积累,这里边要用ChatGPT学习,要用全球的知识来做训练。国外虽然APP也取代了Web,但国外很多APP基本保留了Web版,用浏览器还是能在网页之间跳来跳去,能够自由使用。国内信息都被APP私有化了,如果这些巨头互相把握着,谁的数据都不全,最后训练出来的大脑肯定能力是比不上的。在这方面,我觉得国家应该像当年工信部要求大家不能互相阻拦对方网址一样,要求我们APP都应该有Web版本。这样的话,大家手里才都有数据。我是觉得在这方面,国家可能要有相应配套的产业政策,来鼓励行业里良性竞争,开放合作。