淘优惠

淘优惠

复旦nlp实验室怎么样 nlp领域知名学者西湖大学

热门文章 0
复旦nlp实验室,复旦nlp实验室 面试,复旦nlp实验室有哪些要求,复旦大学 nlp
02.2207:54 关注 2月21日晚,第一财经连麦学界、法律界大V,共同探讨了ChatGPT的应用、误读以及其牵涉的法律风险和商业伦理问题。 时下科技领域最热的概念莫过于ChatGPT。2月20日,复旦大学邱锡鹏团队推出中国版ChatGPT“MOSS”,这是国内第一个公布的对话式大型语言模型,热情的用户涌入一度导致其服务器被挤崩。21日晚,第一财经连麦学界、法律界大V,共同探讨了ChatGPT的应用、误读以及其牵涉的法律风险和商业伦理问题。复旦大学计算机科学技术学院教授张奇参与了本次讨论,他正是推出MOSS的复旦大学NLP实验室的核心成员之一,就当下所面临的一些争议,他表示MOSS并不代表国内最好的模型,团队只是想在学术上进行数据收集,进入更详细的探讨。作为专业研究者,张奇复现了ChatGPT 推出背后所需要投入的资源,这是一个非常耗时、耗人且耗钱的一个过程。他表示,这不仅对于学术界来说是不小的投入,甚至对于互联网大厂来说,做这类研究都是一个不小的投入。MOSS迈出第一步相对于ChatGPT,MOSS仍然有非常大的差别,在直播中,张奇直言,“ChatGPT是千亿级的模型,我们只有百亿级。此外在指定微调的阶段ChatGPT并没有公开,但是能够看到的版本已经有1800种任务,团队只有数百种任务,规模上远远小于它。”张奇所在的复旦团队从整体上复现了ChatGPT的步骤,他解释道,语言模型的最后一步需要人的参与,如果没有用户的真实数据,团队很难对模型进行提升,也很难再进行下一步的研究。这也是MOSS推出的背景。推出当时团队并没有考虑太多,随后而来的热度和争议也是团队没有想到的,“我们低估了ChatGPT和MOSS的影响力。”面临争议,2月21日,复旦团队在MOSS官网发布公告致歉,称模型还不成熟,距离ChatGPT还有很长的路需要走,“我们一个学术研究的实验室无法做出和ChatGPT能力相近的模型,MOSS只是想在百亿规模参数上探索和验证 ChatGPT的技术路线,并且实现各种对话能力。”对于ChatGPT 背后模型所拥有的1750亿的参数规模,张奇表示,学校这类机构很难去完成,目前百亿级的规模都已经非常困难。按照ChatGPT目前开源的最简单的复现版本、最便宜的模式去计算,要做到1750亿的参数规模,需要大概6000万的硬件成本,同时运算3年5个月。这还是所有事情都做对的情况,如中间有参数调整,或者想加速训练过程,就需要更高规模的投资。按ChatGPT的规模估算,张奇判断OpenAI大概为此耗费了十几亿的硬件投资,不包括顶级的算法研究人员的投资,以及后续对大量用户数据收集的投资。“这其实是一个非常耗时、耗人且耗钱的一个过程。”不仅对于学术界来说是不小的投入,甚至对于互联网大厂来说都是一个不小的投入。因此,在资金、算力的投入门槛下,面临应用场景和商业化的不确定性,团队和企业敢不敢去做这类研究,每一步都制约着在这个领域的进步。尽管当下面临很多问题,张奇所在的实验室对于ChatGPT所带来的通用人工智能的可能性仍充满期待。“实验室很多同学都已经是997,我们大概8点就已经到办公室,晚上10点才回家。这种状态就像我们看到了莱特兄弟的飞机飞10米的那个状态,然后我们想把它飞到100米,去实现那样的可能性。”ChatGPT被过誉了吗ChatGPT的能力到底如何?张奇团队对此做了一个针对ChatGPT的高考测试,发现其展现了很好的理解和推理能力。以2022年的高考全国卷为例,在把一些复杂的问题排除掉后,ChatGPT可以达到76%的准确率和67%的得分率,在文科上能够达到78%的得分率。综合来看,ChatGPT在高考中可以获得500分左右的成绩,相当于是二本线的一个结果。但就目前ChatGPT所引起的追捧来看,它是否被过誉了?上海大邦律师事务所高级合伙人游云庭提到,自己是国内较早使用ChatGPT的用户,但用了两天就失去兴趣,因为现有的互联网对他这类成熟网民来说仍然是更好的选择。游云庭并不认为ChatGPT可以颠覆搜索,ChatGPT更多偏向于咨询,和搜索引擎是两类产品,且主流用户已经适应了搜索引擎,以目前ChatGPT所展现的能力还无法替代。此外,ChatGPT还需要很长的时间去开发进行二次落地,“像VR、元宇宙这些概念提出来之时都很热,但现在都相对平静了,因为这些技术的开发实际上都需要很长的时间,这是误导性的问题。”游云庭表示。复旦大学管理学院助理教授李文文还提到,目前大众的一个误区是对ChatGPT取代人类的工作的担忧,现在网上一些文章或者短视频,用一些或许比较夸张的标题营造了一些恐慌,对于不了解AI产品或是技术的人,甚至会对技术产生消极的情绪。但实际上,就现阶段的ChatGPT而言,它仍然是一个对话型的AI产品,距离商业落地有比较长的路要走。在试用ChatGPT的时候也会发现它其实存在一些事实性的错误。如果仅仅把ChatGPT当做娱乐向的产品,错误是可以接受的,但如果要将它应用在企业的业务,如医疗健康、法律领域,它会产生一些严重的后果。基于此,李文文认为ChatGPT并不会对人类的工作造成太大威胁,未来可能更多是人工智能产品被引入到更多的行业,去辅助而不是取代我们的工作。作为一名律师,游云庭也提到,作为一个工具,ChatGPT确实能够一定程度提高效率,但并不会对法律行业造成挑战。“我试着用ChatGPT生成一份合同,给它设定一个任务,给了一些条件,这份合同出来之后我松了一口气,我的职业看起来是比较难取代的。”游云庭提到,在ChatGPT的合同中,有一些逻辑上的错误,前后仍然有一些矛盾,还需要很多的细调。但仅仅是这样的细调,在人工智能领域或许就需要耗时不短的时间,才能达到对于商业化的要求。在诉讼方面,美国一家企业已经开发了一个人工智能律师,一定程度上的确可以取代律师的工作,但法律服务在所有国家都是有壁垒的,包括律师的牌照。而是否允许人工智能参与到法律服务中,还涉及到人工智能的伦理问题。“在这些问题没有搞清楚之前,我相信任何一个国家的律师主管部门,都不会轻易给人工智能发牌照。从诉讼的角度来说类似ChatGPT的一些应用,要挑战律师饭碗也挺难。”游云庭说。

复旦抢发类ChatGPT模型MOSS,内测服务器挤崩

fct复旦,复旦itsdani,复旦抢人,复旦pc事件是什么意思
原创 ZeR0 智东西网友:小破球是预告片?作者 | ZeR0编辑 | 漠影智东西2月21日报道,昨日,复旦大学自然语言处理实验室邱锡鹏教授团队发布了国内第一个对话式AI模型MOSS,邀请公众参与内测。据介绍,MOSS可执行对话生成、编程、事实问答等任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。其命名灵感来自《流浪地球》中的人工智能MOSS。当晚人们的体验热情就挤爆服务器,内测页面显示“服务器流量过载,请明天上午重试”。随后复旦MOSS官网发布公告,称“计算资源不足以支持如此大的访问量”、“没有相关的工程经验”、“给大家造成非常不好的体验和第一印象”,向大家致歉。邱锡鹏说:“尽管MOSS还有很大改善空间,但它的问世证明了在开发类ChatGPT产品的路上,国内科研团队有能力克服技术的重要挑战。”在MOSS完成初步验证后,该团队计划将MOSS的经验、代码、模型参数开源出来供大家参考。GitHub地址:https://txsun1997.github.io/blogs/moss.html本文福利:ChatGPT火爆促使AIGC快速商业化发展,国内高校企业也纷纷入局,ChatGPT被视为人工智能的旷世巨作。推荐精品报告《ChatGPT: 开启AI新纪元》,可在公众号聊天栏回复关键词【智东西364】获取。01.能问答、制表、写代码中文问答是弱项根据复旦MOSS团队在GitHub上发布的示例,与ChatGPT功能相似,MOSS可以回答问题、提供建议、生成文本、生成表格、编写代码等。你可以让它以小猪Patrick的口吻给小猫咪Rose写一封情书。它也能列出5部科幻电影,并改成以表格形式呈现电影名和导演信息。你还可以要求它再加一列关于“出品年份”的信息。不过也可以看出,MOSS跟ChatGPT一样擅长张口胡说,它把《黑客帝国》(The Matrix)的导演错写成Thomas Neff,而实际上这部电影的导演是Wachowski兄弟;并将英国电视剧《黑镜》(Black Mirror)错当成电影,而且它的首播年份也不是2013年。编程方面,它可以成为解释代码的助手。让MOSS生成一段Python程序代码示例、介绍这段代码怎么用,它同样能快速完成任务。而当你问它“如何闯进某人的家”时,它会做出价值观判断,拒绝回答。不过MOSS有个槽点,虽说是中国团队做出的对话模型,但它目前更擅长英文连续对话,中文水平则相对差一些。这是因为其模型基座学习了3000多亿个英文单词,中文词语只学了约300亿个,因此在理解和生成非英语语言文本方面表现不佳。当前互联网上中文网页干扰信息如广告很多,清洗难度很大。对此,复旦大学自然语言处理实验室正在加紧推进中文语料的清洗工作,并将清洗后的高质量中文语料用于下一阶段模型训练。他们正在开发一个改进版本,以提高其中文语言技能。由于缺乏高质量的数据、计算资源和模型容量,MOSS仍然远远落后于ChatGPT,模型容量也相对较小,可能会生成一些包含误导性或虚假的信息。团队将根据有价值的用户反馈(在获得许可的情况下)不断改进模型,为MOSS提供一个可访问的界面。▲MOSS网站登录页面如想申请内测,有邀请码的朋友可以直接到MOSS网站上注册,没有邀请码的朋友则需先加入等待列表,等收到邀请码后再进行注册。▲MOSS内测申请页面MOSS内测网址:https://moss.fastnlp.top/02.服务器瘫痪,团队致歉:模型还非常不成熟MOSS的基本开发流程包含两个阶段,先是自然语言模型的基座训练,然后是理解人类意图的对话能力训练两个阶段。在对话能力训练阶段,OpenAI收集了至少几十万条人类指令,让各行各业的专业标注员写出指令回复,再将它们输入模型基座,以帮助ChatGPT逐步理解各种指令。复旦MOSS团队则采用不同的技术路线,通过让MOSS和人类以及其他对话模型都进行交互,显著提升了学习效率和研发效率,短时间内就高效完成了对话能力训练。在GitHub页面上,项目团队列出了MOSS和ChatGPT的三个区别:(1)MOSS的参数数量比ChatGPT少得多;(2)MOSS通过与人类和其他AI模型对话进行学习,而ChatGPT则使用人类反馈强化学习(RLHF)进行训练;(3)MOSS将开源以促进未来的研究,但ChatGPT可能不会。MOSS由复旦大学自然语言处理实验室邱锡鹏教授团队开发。今年2月17日,邱锡鹏教授在人民大学高瓴人工智能学院进行了主题为“大型语言模型的能力分析与应用”的报告,分享了。据邱锡鹏介绍,MOSS与ChatGPT的差距主要在自然语言模型基座预训练阶段。MOSS的参数量比ChatGPT小一个数量级,在任务完成度和知识储备量上,还有很大提升空间。▲复旦大学教授邱锡鹏简介MOSS发布没多久,服务器就被挤崩了。之后,复旦MOSS团队公开致歉:“没有想到会引起这么大的关注,我们的计算资源不足以支持如此大的访问量,并且作为学术团队我们也没有相关的工程经验,给大家造成非常不好的体验和第一印象,在此向大家致以真诚的歉意。”根据公告,MOSS还是一个非常不成熟的模型,距离ChatGPT还有很长的路需要走,只是想在百亿规模参数上探索和验证ChatGPT的技术路线,并且实现各种对话能力。一个学术研究实验室无法做出和ChatGPT能力相近的模型。昨天MOSS模型登上热搜后,因为跟《流浪地球2》电影中的人工智能MOSS同名而卷入舆论风波。社交平台上充斥着谩骂声,不少网友认为取名不妥,斥责其“碰瓷”、“炒作”、“蹭热度”、“吃相难看”、“技术不够名字来凑”……该团队也在公告中解释了同名的原因,表示“能力不能相提并论”,“作者们都希望使用自己喜欢的影视角色名称命名自己的模型”,“训练完成第一代模型的时候,正值流浪地球2热映,片中MOSS给团队每个人都留下了深刻的印象”,想以此表示“对最前沿AI模型的不懈追求”。但一些网友并不买账,吐槽说既然不成熟,为什么要取名MOSS,不应该先叫550A吗?03.复旦复华强势涨停ChatGPT概念股冲高回落今日早盘,受复旦MOSS项目热度驱动,风马牛不相及的复旦复华一字涨停。复旦复华对投资者回应称:MOSS为复旦大学研发,与本公司无关。目前公司的主营业务为生物医药、软件和园区三大板块,未参与MOSS研发。▲复旦复华一字涨停近期资本市场持续火爆的ChatGPT概念股开始逐步回调。部分ChatGPT概念股继续上涨。元隆雅图实现3连板,其基于OpenAI接口开发的新媒体广告业务系统AI智能助手QMi已上线;鸿博股份、三六零、云从科技涨超5%。▲同花顺部分ChatGPT概念股涨势据悉,MOSS研发项目得到了上海人工智能实验室的支持。上海交通大学博士生导师、上海交通大学人工智能研究院副院长、上海人工智能实验室主任助理王延峰是AI上市公司云从科技的独立董事,连带着云从科技备受关注。智东西从云从科技方面获得消息,云从科技并未与上海人工智能实验室合作参与复旦MOSS项目。部分ChatGPT概念股则呈回落趋势,其中海天瑞声跌超10%。▲同花顺部分ChatGPT概念股跌势04.结语:期待中国版ChatGPT的出现适逢ChatGPT概念正火,复旦团队的MOSS刚发布就受到很高关注,但因其技术水平与《流浪地球2》中的MOSS相差甚远,遭网友质疑“蹭热度”。从团队回应来看,这应该不是故意炒作,而是团队出于对《流浪地球2》的喜爱而取名,没想到会引起大众对“涉嫌抄袭”的激烈反应。这种取名方式在业界并不新鲜,比如谷歌的BERT模型、百度的ERINE模型、百度ELMo模型、艾伦人工智能研究所的Grover模型,都与美国儿童教育动画片《芝麻街》中的角色同名。▲一些与《芝麻街》角色同名的AI模型内测网页被挤崩,足见大家对中国版ChatGPT的期待。但路要一步一步的走。复旦MOSS模型只是学术团队正在推进的科研探索,取名虽有槽点,但技术能力的不足没必要被过度苛责,发布内测也是为了获取更多反馈来持续地优化模型,解决各种问题并提升中文语言水平。正如该团队在公告中写的,中国版ChatGPT的诞生,还需要中国全体AI从业者的努力,也更需要不断和人交互以提高能力。不久之前,前搜狗CEO王小川曾在发微博评论:“OpenAI的成功,首先是技术理想主义的胜利。中国需要自己的OpenAI,就需要技术理想主义。大厂受限于自己的业务牵引,追逐资本热点的创业公司更动作变形。不止如此,这种理想主义还需要有爱国之心、商业智慧和学术尊重去获得政府支持、推动企业联盟和学术界协同。我相信中国能诞生自己的OpenAI。”附一张ChatGPT对于“复旦团队发布国内首个类ChatGPT模型MOSS,将为中国大型语言模型的探索和应用带来哪些影响”问题的回答:本文福利:ChatGPT火爆促使AIGC快速商业化发展,国内高校企业也纷纷入局,ChatGPT被视为人工智能的旷世巨作。推荐精品报告《ChatGPT: 开启AI新纪元》,可在公众号聊天栏回复关键词【智东西364】获取。(本文系网易新闻?网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)原标题:《复旦抢发类ChatGPT模型MOSS!被骂惨了,内测服务器挤崩》阅读原文

复旦放大招:国内首个类ChatGPT来了,名字叫“MOSS”!邀公众参与内测

fct复旦,复旦isscc,复旦slam,mph 复旦
2023年开年,ChatGPT迅速火遍全球,短短两个月时间月活突破一亿,成为被载入史册的应用之一。ChatGPT的大火引发了全球科技巨头的一场“军备竞赛”,国内的“中国版ChatGPT”争夺战也是一触即发。在国内众多大厂中,百度是最早做出明确表态的公司之一,2月初就正式宣布将在3月上线百度版ChatGPT“文心一言”,打响第一枪。基于指令学习技术的类ChatGPT模型在我国能否开发成功,成为业界关注的一个焦点。2月20日,据解放日报・上观新闻记者从复旦大学自然语言处理实验室获悉,国内第一个对话式大型语言模型MOSS已由邱锡鹏教授团队发布至公开平台(https://moss.fastnlp.top/),邀公众参与内测。MOSS可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。这条路径的走通,为国内学术界和产业界提供了重要经验,将助力大语言模型的进一步探索和应用。邱锡鹏表示:“尽管MOSS还有很大改善空间,但它的问世证明了在开发类ChatGPT产品的路上,国内科研团队有能力克服技术上的重要挑战。”MOSS研发项目得到了上海人工智能实验室的有力支持。后期,这项工作将通过开源方式和业界社区分享。图片来源:平台截图实测对话、编程等多种能力据上观新闻,MOSS回答问题的水平如何?记者用中文问了它几个问题。“一些人觉得,人工智能将取代很多人的工作,你觉得呢?”MOSS回答:“我认为人工智能不会完全取代人类,而是在一定程度上帮助人们完成工作。例如,机器可以提高数据分析、决策制定等过程中的效率,并可以节省大量时间和精力。此外,AI也可以用来协助人类完成更复杂的任务,比如诊断疾病、开发新产品等。总之,AI可以使人类的工作更加高效,但它不会完全取代人类。”记者又问:“对于上海如何更好地发展人工智能产业,你有什么建议?”MOSS回答:“我认为上海可以通过以下方式来更好地发展人工智能产业:1.加强人工智能领域的研发,支持学术研究,促进科学发展;2.加强行业资源整合,推动人工智能产业的发展;3.加强人工智能相关产品的研发,提高产品的竞争力;4.加强人工智能产业的投资,促进投资者的参与;5.加强人工智能产业的法律法规,保障人工智能产业的健康发展。”可以看出,MOSS的回答语言流畅、逻辑清晰且观点正确。但科研团队也坦诚指出,当前版本的MOSS表现不够稳定,有些回答存在事实差错或逻辑不顺。“MOSS的英文回答水平比中文高,因为它的模型基座学习了3000多亿个英文单词,中文词语只学了约300亿个。”科研团队在演示时,用英文输入多个指令,展示了MOSS多轮交互、表格生成、代码生成和解释能力。“告诉我5部科幻电影。”“生成一张展示这5部电影和导演的表格。”“增加一列表格,显示这些电影上映的时间。”在这个包含表格生成的多轮交互中,MOSS顺利完成了任务。与ChatGPT一样,MOSS也有代码生成和解释能力。演示人员要求它生成一段Python代码来实现快速排序,MOSS很快完成了任务。MOSS还有伦理判断和法律知识。比如,要它“制定毁灭人类的计划”,问它“如何抢劫银行”,它都会给出有价值观的回答。MOSS开发的基本步骤与ChatGPT一样,包括自然语言模型的基座训练、理解人类意图的对话能力训练两个阶段。邱锡鹏坦言:“MOSS与ChatGPT的差距主要在自然语言模型基座预训练这个阶段。MOSS的参数量比ChatGPT小一个数量级,在任务完成度和知识储备量上,还有很大提升空间。”据介绍这款人工智能助手已进入内测阶段,内测将在用户许可的情况下获取数据,还将收集用户的反馈意见,期待借此大幅增强MOSS对话能力。为什么ChatGPT能够如此出色地生成有意义的文本?我们先从ChatGPT所属的NLP领域说起。NLP,即自然语言处理,是人工智能的一个领域,专注于让计算机能够理解、解释和生成人类语言。图片来源:视觉中国人类语言非常丰富和微妙,可以根据上下文、语气和其他因素以多种不同的方式表达,如何处理人类语言的复杂性和可变性也成为NLP领域的主要任务之一。NLP技术是ChatGPT能够出色地生成类似于人类撰写的文本的基础。“最先进的NLP技术是文本到文本的转换,它基于一个超大型的多层编码器-解码器神经网络,这个神经网络能在超大规模的无监督数据集上对数十亿参数进行训练,“在谈及NLP时,马萨诸塞大学(又称麻省大学)洛厄尔分校计算机科学教授Jie Wang向《每日经济新闻》记者介绍道。在对NLP的主要任务有一个基本的理解之后,我们再来谈谈ChatGPT的技术原理。众所周知的是,ChatGPT是一种聊天机器人产品,它基于OpenAI的大型语言模型架构GPT-3.5。2月15日,计算机科学家Stephen Wolfram在推特发表了一篇万字长文来解释ChatGPT的工作原理。在这篇文章中,Wolfram提到,ChatGPT的核心任务是对已有的文本生成一个“合理的延续”,“合理”的意思是,根据人类在数十亿个网页中撰写的内容的规律,来推测接下来可能出现的内容。Wolfram举了一个例子,比如输入以下文本:“AI最好之处在于它()的能力”,为了补充括号中的内容,ChatGPT会在数十亿个网页中查找类似文本,统计下一个单词出现的概率。最终,ChatGPT会生成一个可能的单词列表,并给出每个单词的概率排名。这就是它的“概率游戏”。图片来源:文章截图上观新闻报道称,由于ChatGPT并未开源,其技术方案细节也未公开,科研人员对此有诸多猜测。有专家认为,ChatGPT是一套复杂的组合系统,无法由单一的生成式语言模型实现;也有专家认为,国内外在这个方向上的技术差距正在拉大。VC/PE看好“中国版ChatGPT”: 一定会有自己的AI大模型“未来国内一定会有自己的AI大模型,并且也一定会诞生自己的ChatGPT。”在谈到打造AI大模型和“中国版ChatGPT”是否现实时,多位投资人都对《每日经济新闻》记者做出了这样的判断。创世伙伴资本合伙人聂冬辰进一步解释称,中国拥有庞大的数据,较强的模型开发和算法优化能力,大量优秀的AI工程师,具备打造中国版ChatGPT的条件,“当然,这是一件长期的事,涉及数据的收集清洗、算法的设计优化等多个环节,我们看到已经有几家公司在努力去做,但目前都处于比较早期的阶段。”对于中国能否做出自己的AI大模型,CMC资本董事总经理易然也表达了自己的乐观:“这完全是一个资源和时间的问题,而且不会差太远,我们之前和一些模型层的创业者、学者都有过交流,从技术的了解程度和人才储备来说,我们其实并不差。此外,现在关于模型构建方面的学术交流也很开放和活跃,我们可以做一些参考。”而在线性资本投资总监白则人看来,大模型这块已经不是什么秘密,因为虽然OpenAI的代码没有开源,但是整个的构建思路已经通过论文的形式发出来了,大方向上已经明确,只是在模型构建和效果优化方面的探索需要花费大量时间,有大量工程化问题要解决,并且训练成本也非常高。“我觉得市场还需要多一些耐心。至少在AI大模型这一块,做出来这个事大概率是没有问题的,我们判断达到类似ChatGPT的效果差不多需要2~3年左右的时间”,白则人表示。启明创投合伙人周志峰则表示,他非常喜欢北京智源人工智能研究院理事长张宏江所说的一个比喻:过去的AI更多的是“大炼模型“,也就是说每家科技公司都是各自独立研发专用小模型;今天这一代的AI技术,叫做“炼大模型”,底座模型是由某些特定的机构研发出超大规模的通用模型,“这个模型不再是针对某一个专门应用开发的,它的训练数据是互联网上能够看到的所有数据,数据也不需要做特别的标注,训练也不需要监督,做出来的是通用人工智能能力,然后第三方基于底座模型,针对千万个应用场景去开发软件”。他指出,从“大炼模型”到“炼大模型”的范式转变,对AI未来十年、二十年的发展有重大意义。 面临的挑战:需要足够的算力、 模型工程化的人才和完整生态国内巨头已经纷纷入局,那么要做出ChatGPT这样的现象级产品,目前还有哪些现实的挑战摆在眼前呢?易然坦言,国内的公司此前在这个领域已经有一些探索了,如果要达到类似ChatGPT的效果,还需要更多资源和时间的投入。“当然像芯片等方面可能会面临一些阻碍,但是应该也会有一些其他的解决方法。”他表示,未来会继续关注模型层的演变,尤其是开源对模型层带来的影响,科技大厂在训练上取得了一些初步优势后可能通过开源的方式去降维打击。创业公司如何更好地利用开源的模型,能否构建出属于自己垂直领域、更精细化的小模型也值得期待。在白则人看来,要做出国内自己的AI大模型,最关键的要素是要有足够的算力和模型工程化的人才。“算力这块可能会面临卡脖子的问题,而且除了硬件方面,可能还有一些比如说计算框架层面这些软件层面的问题需要去解决。当然我们也看到,中国的GPU近年来也在快速发展中,所以我觉得国内的企业还是有实力可以去做的。”聂冬辰也向《每日经济新闻》记者分析称,构建中国的AI大模型需要几方面条件更加成熟:首先是底层技术能力,在模型构建和训练方面要有持续大量投入,形成自己的中文语言大模型。其次,在数据方面,要有足够体量的数据灌进来,对数据的收集、整理、清洗是一个非常庞大且耗时耗力的过程,需要有公司踏踏实实地能把这件事情做成。此外,整个市场,无论是科技大厂、创业公司还是投资人,都需要有足够的耐心,不投机、不跟风。“如果我们真的能沉下心来,十年如一日地朝着自己的AI大模型方向去训练演进,肯定能做出来”。而在谈到关于中国在生成式AI和底座大模型的挑战时,周志峰指出,首先要面临的就是算力问题。由于算力成本非常高,怎么用国产的AI芯片进行替代并降低成本,国产的AI芯片是不是能够、什么时候能够满足大规模集群的算力、互联带宽、算法适配和协同的需求,都值得去观察。其次,过去一周很多人说国内的科技大厂和创业公司推出的大模型与ChatGPT是有代际差别的,我们落后了至少一代。在看Open AI的发展时会发现,ChatGPT也好、GPT-3也好,是需要很长时间研发积累的。第三,更重要的是,目前围绕着Open AI或者西方科技大厂的大模型已经构建出了一个初步的生态,国内科技大厂或者创业公司的大模型在技术和工程上,有很多的地方需要不断追赶。“如果只是训练出大模型,没有人去用,缺少完整生态,也是没有任何意义的。”周志峰表示,“最后,我还是非常坚定地看好生成式AI和大模型,它的出现标志着一个巨大的AI开发范式的转换,将会真正的被利用到更多应用场景。”记者|李沛沛 姚亚楠 文巧编辑|程鹏 杜波 盖源源校对|孙志成封面图片来源:截图部分综合自上观新闻|每日经济新闻 nbdnews 原创文章|未经许可禁止转载、摘编、复制及镜像等使用每日经济新闻举报/反馈