联想新it技术架构算力 联想该如何扯掉pc的标签
热门文章
0
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
正文:◎来源|智能化学习与思考输入几个简单的关键词,AI能帮你生成一篇短篇小说甚至是专业论文。最近大火的ChatGPT在邮件撰写、文本翻译、代码编写等任务上强大表现,让埃隆・马斯克都声称感受到了AI的“危险”。ChatGPT的计算逻辑来自于一个名为transformer的算法,它来源于2017年的一篇科研论文《Attention is all your need》。原本这篇论文是聚焦在自然语言处理领域,但由于其出色的解释性和计算性能开始广泛地使用在AI各个领域,成为最近几年最流行的AI算法模型,无论是这篇论文还是transformer模型,都是当今AI科技发展的一个缩影。以此为前提,本文分析了这篇论文的核心要点和主要创新初衷。缘起从Transformer提出到“大规模与训练模型” GPT(Generative Pre-Training)的诞生,再到GPT2的迭代标志Open AI成为营利性公司,以及GPT3和ChatGPT的“出圈”;再看产业界,多个重要领域比如生物医疗,智能制造纷纷有以transformer落地的技术产生。在这个浪潮下,我的思考是:一是,未来很长一段时间在智能化领域,我们都将经历“科研、算力、基础架构、工程、数据、解决方案”这个循环的快速迭代;流动性、创新性短期不会稳定下来,而是会越来越强。我们很难等到科技封装好,把这些知识全部屏蔽掉,再去打磨产品。未来在竞争中获胜的,将是很好地“解决了产品化和科研及工程创新之间平衡”的团队。我们一般理解的研发实际上是工程,但AI的实践科学属性需要团队更好的接纳这种“流动性”。因此对所有从业者或者感兴趣智能化的小伙伴了解全栈知识成了一个刚需。二是,通过对这篇论文的探讨,可以更直观地理解:在科研端发生了什么,以什么样的速度和节奏发生;哪些是里程碑?是科学界的梅西横空出世,带我们发现真理;哪些是微创新?可能方向明确了,但还有很多空间可以拓展;哪些更像炼金术?仍然在摸索,尚需要很长一段时间,或者一直会保持这个状态。三是,在AI领域,由于技术原因,更多的论文是开源代码的,一方面,促进了更多人参与进来改进迭代;另一方面,科研跟工程实现无缝连接,一篇论文可以拉动从核心代码到平台,到具体应用很大范围的价值扩散。一篇论文很可能就是一个领域,一条赛道,甚至直接驱动业务价值和客户价值的大幅提升。四是, AI技术发展有很多领域(感知,认知,感知又分图像、语音、文字等,认知也可以分出很多层次)之前这些领域的算法逻辑存在很大差别,transformer的出现有一定程度上推动各个领域汇聚的迹象,介绍清楚这篇论文,对把握整体可能有些作用。另外ChatGPT属于现象级应用,大家更有直观感受,未来这类应用的体验提升和更新速度只会更快,理解了其背后的逻辑,更有助于我们把握这个趋势。论文介绍下面步入正题,开始介绍这篇论文,会涉及一些技术细节及公式,可能还需要仔细看一下(先收藏,留出15-20分钟比较好),相信一旦看进去,你会对AI的理解加深很多。总体把握这篇论文的结构非常精炼,提出问题,分析问题,解决问题,给出测试数据。顶刊文章讲究言简意赅,有描述,有代码,有结果;其中最核心的是以下这张图,作者团队提出transformer的核心算法结构:整篇文章就是围绕这张图来进行解释的,由于篇幅所限,我们聚焦在一条主线上:1.文章想解决主要问题是什么 2.如何解决的 3.从文章提出的解决方案作为一个案例来引发整体思考,因此我们将内容简化,主要关注核心部分。这张图表达的内容如果理解了,那基本上你掌握了这篇论文85%的内容,也是最关键的部分。《Attention is all your need》在编写时主要是为了考虑NLP任务,是由几个Google的科研人员一起完成的,其中一个背景是Google也在推广自己的并行计算芯片以及AI TensorFlow开发平台。平台主要功能特点是并行计算,这篇文章的算法也是在最大限度的实现并行计算。我们就以一个简单的例子来把这个算法串一遍。核心内容需求是我们需要训练一个模型,进行中文到英文翻译。背景知识:这个需求要把“翻译:我爱你 to I love you”转置成一个y=f(x)问题,x代表中文,y是英文,我们要通过训练得到f(),一旦训练成功f(),就可以实现翻译。大家拼的就是谁的训练方法更准确,更高效,谁的f()更好用。之前自然语言处理主要的算法叫RNN(循环神经网络),它主要的实现逻辑是每个“字”计算之后将结果继承给第二个字。算法的弊病是需要大量的串行计算,效率低。而且当遇到比较长的句子时,前面信息很有可能会被稀释掉,造成模型不准确,也就是对于长句子效果会衰减。这是这篇文章致力于要解决的问题,也就是说这篇文章有训练处更好的f()的方法。联想一下ChatGPT可以做论文,感受一下。在Transformer里,作者提出了将每个字与句子中所有单词进行计算,算出这个词与每个单词的相关度,从而确定这个词在这个句子里的更准确意义。在此处,要开始进入一些技术细节,在开始之前,我们有必要再熟悉一下机器学习领域最核心的一个概念――“向量”。在数字化时代,数学运算最小单位往往是自然数字。但在AI时代,这个最小单元变成了向量。这是数字化时代计算和智能化时代最重要的差别之一。举个例子,比如,在银行,判断一个人的信用额度,我们用一个向量来表示向量是一组数据的集合,也可以想象成在一个超高维度空间里的一个点。一个具体的信用额度向量,就是在8个特征组成的高维空间的一个点。数据在高维空间将展现更多的数学性质比如线性可分,容易让我们抓住更多隐藏的规律。向量的加减乘除是计算机在进行样本训练是最主要的计算逻辑。Transformer模型的主要意义就是找到了一个算法,分成三步把一个词逐步定位到了一个高维空间,在这个过程中赋予这个单词比其它算法更优的信息。很多情况下这个高维空间有着不同的意义,一旦这个向量赋予的信息更准确更接近真实情况,后面的机器学习工作就很容易展开。还拿刚才信用额度向量举例子这两个向量存在于两个不同的向量空间,主要的区别就是前者多了一个向量特征:“年薪”。可以思考一下如果判断一个人的信用额度,“年薪”是不是一个很重要的影响因子?以上例子还是很简单的,只是增加了一个特征值,在transformer里就复杂很多,它是要把多个向量信息通过矩阵加减乘除综合计算,从而赋予一个向量新的含义。好,理解了向量的重要性,我们看回transformer的三步走,这三步走分别是:1.编码(Embedding)2. 定位 (Positional encoding)3. 自注意力机制(Self-Attention)。举个例子,比如,翻译句子Smart John is singing到中文。首先,要对句子每个词进行向量化。我们先看“John”这个词,需要先把“John”这个字母排列的表达转换成一个512维度的向量John,这样计算机可以开始认识它。说明John是在这个512维空间的一个点,这是第一步:编码(Embedding)。再次,第二步: 定位(Positional encoding),利用以下公式(这是这篇论文的创新)微调一个新的高维空间,生成一个新的向量。我们不用太担心这个公式,它核心意义是:1.在这个新的向量里面每一位由原来的0和1表示,分别取代成由sin和cos表示,这个目的是可以通过sin和cos的定律,让这个新向量不仅表示John这个单词的意义,还可以表示John在Smart John is singing这个句子的位置信息。如果不理解,可以直接忽略,只要记住第二步是用来在“表达John这个词的向量”中,加入了John在句子中的位置信息。John已经不是一个孤立的词,而是一个具体句子中的一个词,虽然还不知道句子中其他词是什么含义。如果第一步计算机理解了什么是John,第二步计算机理解了“* John**”。最后,第三步:自注意力机制(Self-Attention),通过一个Attention(Q,K,V)算法,再次把John放到一个新的空间信息里,我们设为在这个新向量里,不仅包含了John的含义,John在句子中位置信息,更包含了John和句子中每个单子含义之间的关系和价值信息。我们可以理解,John作为一个词是一个泛指,但Smart John就具体了很多,singing的Smart John就又近了一步。而且Attention (Q,K,V)算法,不是对一个单词周围做计算,是让这个单词跟句子里所有单词做计算。通过计算调整这个单词在空间里的位置。这种方法,可以在一个超长句子中发挥优势,而且最关键的是一举突破了时序序列的屏障,以前对于图像和NLP算法的划分,很大程度上是由于NLP有很明显的时序特征,即每个单词和下一个以及在下一个有比较明显的时序关系。但Transformer这种算法打破了这种束缚,它更在意一个单词跟句子中每个单词的价值权重。这是Transformer可以用到everywhere的主要原因。计算过程具体的计算过程,用翻译句子“我爱你”到“I love you”举例(这句更简单一些)。首先进行向量化并吸收句子位置信息,得到一个句子的初始向量组。(由于样本每个句子长短不同,所以每个句子都会是一个512*512的矩阵,如果长度不够就用0来代替。这样在训练时,无论多长的句子,都可以用一个同样规模的矩阵来表示。当然512是超参,可以在训练前调整大小。)接着,用每个字的初始向量分别乘以三个随机初始的矩阵WQ,Wk,Wv分别得到三个量Qx,Kx,Vx。下图以“我”举例。然后,计算每个单词的attention数值,比如“我”字的attention值就是用“我”字的Q我分别乘以句子中其他单词的K值,两个矩阵相乘的数学含义就是衡量两个矩阵的相似度。然后通过一个SoftMax转换(大家不用担心如何计算),计算出它跟每个单词的权重,这个权重比例所有加在一起要等于1。再用每个权重乘以相对应的V值。所有乘积相加得到这个Attention值。这个attention数值就是除了“我”字自有信息和位置信息以外,成功的得到了这个句子中每个单词的相关度信息。大家可以发现,在所有注意力系数的计算逻辑中其实只有每个字的初始矩阵WQ,Wk,Wv是未知数(这三个矩阵是所有文字共享的)。那么我们可以把这个transformer简化成一个关于输入,输出和这个W矩阵的方程:其中X是输入文字信息,Y是翻译信息。这里有必要再介绍一下机器学习的基础知识:Transformer算法本质上是一个前馈神经网络模型,它的计算基础逻辑,不去管复杂的隐藏层,就是假设Y=f(x)=wx,(目标还是要算出一个f())然后随机设置一个w0,开始计算这个y=w0x的成本函数,然后再把w0变成w1,计算y=w1x的成本函数,以此类推计算出无数w(不是无数,也会收敛),然后比较哪个w的成本函数最小,就是我们训练出来的f()。那么在transformer里,这三个初始矩阵就是那个w0。再回到transformer,在计算Attention之后,每个单词根据语义关系被打入了新的高维空间这就是Self-attention(自注意力机制)。但在transformer里,并不是代入了一个空间,而是代入了多个高维空间,叫做多头注意力机制,(文章中没有给出更清晰的理论支持,为什么是多头)。主要原因是在训练时效果很好。这也是AI科研论文的一个特点,常常凭借非常高的科研素养和敏感性,发现一些方向,并且通过测试确实有效,但不一定可以给出很完美的理论支撑。这往往也给后续研究者一些可以进一步完善的空间。事实证明,如何提升Attention(Q,K,V)效率是transformer领域迭代最快的部分。之后的Bert算法提出预训练机制成为了主流,后面会做进一步介绍。当然,事后我们可以理解是把这个句子中的逻辑关系放到不同的高维空间去训练,目的就是希望抓取更多的信息,这一部分可以更加深刻理解科研人员对空间的应用。除了以上内容,还有一些技术点比如Mask机制、layer norm、神经网络激函数饱和区控制等,由于篇幅关系以及属于技术细节就不一一介绍了。如果大家理解了多头自注意力机制,基本已经85%掌握了这篇论文的重要内容,也对还在快速扩展影响力的transformer模型有了一个比较直观的认识。启发收获从理论科研进步的角度看一、Transformer打破了时序计算的逻辑,开始快速出圈,多个AI原本比较独立的领域开始在技术上融合。再往里看,Transformer能打破时序很重要一点是并行计算的算力模式给更复杂的计算带来了性价比上的可能性。算力的进一步提高,必将在AI各细分领域带来融合,更基础设施级别的模型,算法仍将不断推出。AI领域在图像,NLP;感知认知领域的专业分工也会慢慢变模糊。二、AI科研确实具有一些实验性质。除了核心思想,确实还有很多技术点的解决方向已经明确,但还有很大的提升空间,可以预见围绕transformer周边的微创新会持续加速繁荣。三、《Attention is all your need》在业内大名鼎鼎,但你要是细看,会发现很多内容也是拿来主义,比如最重要的Attention(Q,K,V)中Query,Key,Value是互联网推荐系统的标配方法论;整个Transformer算法也是一个大的神经网络,算法是在前人基础上一步一步迭代发展,只是这个迭代速度明显在加快。从理论、算法、架构、工程的角度看四、AI算法科研领域正经历算法、开源代码、工程、算力的增长飞轮。下图是顶级刊物上的学术论文中,开放源代码的论文比例,这个数据在这几年以更快的速度在增长。科研过程与工程过程产生越来越大的交集。开源社区和开源文化本身也在推动算法和工程的快速发展。更多人参与,更多领域的人参与进来,进入门槛随着算力成本、AI基础架构和代码、知识分享的开源逐渐降低,科研与工程的边界也变得模糊,这个就像足球运动的规律,除了足球人口增多,天才球员梅西出现的概率也会增大。从数据和后续发展的角度看五、ChatGPT的成功同大量的数据训练功不可没,但除了简单对话互动或者翻译,大篇幅回答甚至论文级别的答案还是极其缺乏样本数据(算法训练需要的样本数据需要清晰度X和Y)。而且Transformer的算法相比其他算法需要更大的数据量,原因在于它需要起始阶段随机产生三个矩阵,一步一步进行优化。除了Transformer以外,另一个技术Bert也是技术发展非常重要的现象级算法。其核心是一个简化的Transformer,Bert不去做从A翻译到B,它随机遮住X里面的一些单词或句子让算法优化对遮住部分的预测。这种思路使得Bert成为了Transformer预训练最好的搭档。如果通过Bert进行预训练,相当于给矩阵加入了先验知识(之前训练逻辑没有给机器任何提示,规则后者基础知识),提高了正式训练时初始矩阵的准确度,极大地提升了之后transformer的计算效率和对数据量的要求。在现实中,举例来说,如果我想训练国家图书馆图书,之前需要每本书的信息和对这本书的解释,或者中文书对应的英文书。但现在我们可以大量只是训练内容,不需要打标签,之后只需要通过transformer对样本数据进行微调。这就给ChatGPT很大的进步空间,而且可以预见,更多这类大模型会雨后春笋一般快速出现。六、由于transformer是更高级的神经网络深度学习算法,对数据量有很高要求,这也催生了从小数据如何快速产生大数据的算法,比如GAN对抗网络等。这是AIGC领域的核心技术。解决数据量不足问题,除了更高效率抽象小数据的信息,也多了把小数据补足成大数据的方法,而且这些方法在快速成熟。七、我们发现在机器学习算法中有大量的超级参数,比如在transformer里多头机制需要几头N,文字变成向量是512还是更多,学习速率等都需要在训练之前提前设置。由于训练时间长,参数复杂,要想遍历更优秀的计算效果需要非常长的摸索时间。这就催生出AutoML,拿Transformer举例,就要很多个路线进行自动化机器学习;比如贝叶斯计算(找到更优参数配置概率);强化学习思路(贪婪算法在环境不明朗情况下迅速逼近最优);另外还有寻求全新训练网络的方法(transformer,RNN,MLP等联合使用排列组合)等。科研发展强调参数化,工业发展强调自动化,这两者看似统一,但在现实实操过程中往往是相当痛苦矛盾的。这也是开篇说的产品化和科研流动性相平衡的一个重要领域。关于我们「数字经济先锋号」是成都数联产服科技有限公司旗下数字经济研究交流平台。围绕数字产业、数字基建、数字治理、数字生态等数字应用领域,揭示与记录数字经济发展点滴与脉络。数联产服是BBD数联铭品集团数字经济智库,产业大数据服务商。数联产服具备全流程大数据治理-分析-决策支撑服务能力,面向各级政府和产业运营机构提供基于大数据的产业经济发展解决方案和综合服务。 注意:本站资源多为网络收集,如涉及版权问题请及时与站长联系,我们会在第一时间内删除资源。 本站用户发帖仅代表本站用户个人观点,并不代表本站赞同其观点和对其真实性负责。 本站资源大多存储在云盘,如发现链接失效,请及时与站长联系,我们会第一时间更新。 转载本网站任何内容,请按则和转载方式正确书写本站原文地址
专家:ChatGPT本质属于深度学习框架
专家查房简报,专家尝评酒,专家查隐患,企业抓落实,专家超声和普通超声原标题:专家:ChatGPT本质属于深度学习框架工人日报-中工网记者 车辉近期,以“生成式人工智能”(Generative AI)为核心技术的聊天机器人ChatGPT火爆。什么是ChatGPT,它强在哪里?会对未来世界带来哪些颠覆性影响?围绕网友普遍关心的话题,科大讯飞副总裁、研究院执行院长刘聪接受媒体专访。刘聪表示,ChatGPT本质上是一个由浮点数参数表示的深度神经网络大模型,属于深度学习的框架。ChatGPT的推出是深度学习提出后又一个里程碑式的技术革命,将为以自然语言处理为核心的认知智能技术发展提供新的“历史机遇期”。这次ChatGPT引发全球学术界和产业界的热议和关注,关键原因是ChatGPT通过至少以下五个维度能力的显著提升,实现了初步的“智慧涌现”:海量高价值信息的全量在线记忆能力;自然语言输入的任意任务和多轮对话理解能力;复杂逻辑的思维链推理能力;多角色多风格的长文本生成表达能力;即时新知识学习应用与进化能力。此外,因为引入了代码作为训练语料,ChatGPT还额外产生了自动写代码和理解代码的能力。综合来看,ChatGPT的能力之强已不仅是停留在单一场景的人机对话,而是一个同时具备多种能力的通用“对话式AI系统”。与传统认知智能需要针对各领域任务定制对应的系统不同,它不仅能完成多个场景、多轮的相当自然的人机对话,更为重要的是以自然语言交互式学习的“类人”新范式,能在多轮交互中以“类人”的方式交流、学习和进步,并可以自主、快速、不间断地学习各领域专业知识并达到人类专家水平。他表示,ChatGPT的初步突破带来的影响和未来想象空间是巨大的。在技术演化的基础上,以自然语言处理为代表的人工智能算法有可能重构互联网和移动互联网的产品形态,促进教育业、医疗业、汽车业、金融业、消费业、媒体业、服务业和制造业等众多产业的升级,最终带来对应商业模式的变革。类ChatGPT模型的持续发展未来至少会从以下4个方面推动产业变革与模式创新:一是改变现有人机交互模式。未来人们可能用自然对话的方式与智能产品交互,ChatGPT通过精准理解用户意图,调用系统的各种软件或服务来满足用户需求,提高交互效率与任务成功率。这种人机交互模式的改变将可能改变当前的APP等应用的使用方式,例如多个功能的软件能力被整合,甚至出现“大一统”能力的超级通用APP;二是改变信息分发获取模式。基于认知智能技术可实现更高效的信息整合和知识推荐等。以搜索为例,传统搜索引擎根据关键字匹配内容,使用者需要在海量搜索结果中筛选出有用信息,而ChatGPT加持的必应直接给出答案,并提高了问题与答案的匹配精准度,大大提升用户体验。信息分发获取模式的改变将影响流量的分布,并改变流量变现的商业模式。三是革新内容生产模式,提高生产力。ChatGPT一经上线便被大量应用于公文写作、邮件编写、代码编写等,ChatGPT的编程能力将极大拓展普通人利用电脑和网络进行创新和创意的能力。四是加速“AI for Science”的发展。对于科研人员,ChatGPT不仅可以辅助生成论文摘要与文献综述,随着其学习的科研数据越来越多,未来有可能提供专业的研究建议甚至主动探索发现新的理论,带来整个科学研究范式的全新变化,把“AI for Science”推上一个全新台阶。刘聪认为,这次ChatGPT所带来的革命将会深刻地改变当今世界的生产和生活方式,重构产业格局,是人工智能领域推动工业乃至社会变革的重大战略机遇,是未来发展兵家必争之地。
专访全国政协委员贺晗:于“ChatGPT”风潮中寻找国产AI生态蝶变先机
贺镪简历,贺沂简历,贺瑜简历,贺煜简介在AI基础设施方面,国内与发达国家还存在差距。贺晗认为,底层技术能力的提升首先需要的是基础设施建设。打造数字经济集群、数字经济基础设施建设、推动数字经济与实体经济的融合发展等,在不少省市自治区《政府工作报告》中被重点着墨。全国两会召开前夕,ChatGPT爆火出圈,或成为里程碑式的AIGC应用。其背后的生成式人工智能技术如何为国内元宇宙和数字经济发展注入新动能,ChatGPT又可为我国数字经济、元宇宙的发展带来哪些启示?作为第十四届全国政协委员、天娱数科副总经理、山西数据流量生态园董事长,生于1988年的贺晗是本届全国政协委员中最年轻的一位。产业数字化大有可为“数字经济与传统产业、与实体经济是分不开的。”贺晗指出。党的二十大报告提出,加快发展数字经济,促进数字经济和实体经济深度融合,打造具有国际竞争力的数字产业集群。发展数字经济是建设数字中国的重要内容,是建设现代化产业体系的重要基础,是推动经济实现质的有效提升和量的合理增长的重要举措。在贺晗看来,数字经济是以数据为生产要素的经济活动的总称,其中最重要的两个关键词,即数字产业化和产业数字化。“我们很多地方对数字经济偏好大都停留在数字产业化上,即期望能够带来多少新产业新业态新模式上,对产业数字化认识不够。”贺晗告诉记者。按照其预计,产业数字化是给传统产业数字化赋能,对传统产业改造升级,很多数字化改造是颠覆性的,这是一场革命,不亚于前几次技术革命,市场空间巨大。根据产业内数据统计,2021年中国数字经济规模达45.5万亿,数字产业化占数字经济比重为18.3%,占比逐年下降;产业数字化占数字经济比重达81.7%,占比逐年提升。由此能看出,产业数字化带来了更强的增长动能。贺晗基于此大胆提出,产业数字化强调的是数字技术与实体经济的深度融合,本质是通过数字化带来全要素生产率的提升,核心是数据、算法、算力与场景的结合,空间是对120万亿GDP的重新解构。一个典型案例是在传统公路货运领域。卡车司机一大早去货站的小黑板上寻找货源,三五天才能有所收获,之后开空车去装货,一来一回空载几十甚至上百公里,这是过去的常态。在产业数字化的背景下,车源与货源充裕且精准配对,即可实现整个行业的降本增效。“这个行业就有7万亿的市场规模。”贺晗指出。通过数字化升级改造将整个货运物流过程数据化,让物流行迹变得有据可循,通过数据对其中各个环节进行定向定性分析和预判,随着数据的积累、算法的优化和算力的提升,将使整个货运网络达到最优的运行状态,使得车源与货源充裕且精准配对,实现整个行业的降本增效。有效的虚实融合生态据了解,元宇宙作为数字经济的一部分,也是多个地区发力数字经济的重心。贺晗分析指出,元宇宙通过数字技术链接虚拟与现实,实现数字世界与现实世界的互联互通,发展元宇宙并不是“脱实向虚”,而是“虚实融合”“以虚促实”。发展元宇宙需要突破关键数字技术,夯实数字基础设施,这属于数字产业化的范畴。其中的关键节点包括如何通过三维重建、动作捕捉、深度学习等技术提升虚拟数字人沉浸交互体验;如何推动大规模预训练模型等技术在语言、图形、视频等方面的融合应用;建设大规模公共算力集群,支撑大规模图像渲染、模型训练、智能决策等高性能算力应用;聚焦海量数据连接和传输需求,培育5G+、卫星互联网、Wi-Fi7、IPv6等网络生态,打造高性能通信网络等。“不论是前沿数字技术还是数字基础设施,都是当下整个数字产业化发展的关键。元宇宙与商业、文旅、工业、城市服务等各领域虚实融合发展模式正在有效形成。”贺晗称。虚拟数字人在电商直播、在线培训、影音娱乐、服务咨询等多个场景已经开始替代真人。其中顶流级的虚拟人天妤,在过去一年就有多款虚实融合跨界共赢的样板案例引发关注。“从背后的运营数据可以清晰看出,虚拟数字人可在多个环节和场景中实现降本增效。”贺晗指出。相应的逻辑正在更大的产业范畴内开花结果。在工业领域,以数字孪生工厂为例,贺晗分析指出,通过建设高精度、可交互的虚拟映射空间,对工业制造全环节进行建模仿真,可实现各环节协同和生产流程再造,从而达到对产品的仿真设计、测试验证和优化,对设备的运维巡检和远程维修等。加快基础设施建设ChatGPT爆火出圈,为人工智能产业发展带来新的动能,有望推动数字经济时代的产业转型升级。ChatGPT的核心是用海量数据和海量算力对算法模型进行长期重投入的训练,系统性提升底层技术能力。贺晗认为,中国科技企业目前更多注重实际场景运用,这与经济发展阶段有关,当下中国有大量的传统行业需要迅速借助数字化实现生产力提升。但长远来看,底层技术能力的欠缺会限制产业数字化的发展空间,甚至,类似ChatGPT大规模预训练模型本身也会成为“卡脖子”技术。在AI基础设施方面,国内与发达国家还存在差距。贺晗认为,底层技术能力的提升首先需要的是基础设施建设。产业发展的着力点,可围绕数据、算法、算力三个方面展开。数据方面,互联网英文数据汇聚全球数据信息,互联网中文数据在部分指标方面尚难以企及。譬如美国有全球最多的高质量的开源数据,如ImageNet、VisualData等,涵盖了目标检测、图像识别、自动驾驶、自然语言处理等绝大部分人工智能研究方向;其公共数据开放起步较早,已建立起全国性的政府数据开放平台。早在2009年上线的美国data.gov网站,即发布了农业、商业、气候、教育、能源等多领域的高质量公共数据,至今仍在不断更新。贺晗指出,从覆盖范围、开放程度、共享程度、交易效率几个维度来看,我们都有许多功课要补。算法方面,贺晗认为,发达国家已有成熟的开源生态,开源项目基本覆盖目前主流技术领域。一方面,依托开源通过“集众智”的模式突破单一组织边界和资源限制,集结海量用户创新力量,在标准化平台上加速算法生产和迭代;另一方面,通过开源,降低AI算法运用门槛和创业门槛,对繁荣产业生态起到了至关重要的作用。“正是由此产生了大量贴近C端用户的内容服务,这也成为了AIGC能够现象级爆火的条件之一。” 贺晗分析指出。算力方面,根据工业和信息化部披露数据,近几年我国算力总规模发展较快,目前已超过140EFLOPS(每秒浮点运算次数),算力规模排名全球第二,排在美国之后,但规模差距在逐步缩小。贺晗认为,在AI领域,对于大量进行模型训练和推理的科技企业来说,算力的瓶颈并不体现在算力的绝对规模上,而在于实现算力的单位成本,而这一成本又与芯片技术密切相关。目前国内算力的单位成本居高不下,也是一些科技企业发展AI的短板之一。“希望相关行业主管部门通过规划指引、财政补贴、试点示范、揭榜挂帅、产业基金等方式,鼓励科技企业围绕算法模型开源、开源数据集建设、数据要素共享流通、中英文数据互补、智能算力集群建设等关键点进行长期投入,加快数据、算法、算力基础设施建设,形成生态。” 贺晗指出。通过降低AI开发和应用门槛,让AI融入千行百业,方可为产业数字化注入更强劲的动能。(原题为《专访全国政协委员贺晗:于“ChatGPT”风潮中寻找国产AI生态蝶变先机》)
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。