淘优惠

淘优惠

chatgpt会成为流浪地球中的moss吗 moss核心成员谈chatgpt

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt是什么意思,chatgpt官网,chatgpt怎么下载,chatgpt账号
侯树文?科技日报记者 王春 最近上热搜的MOSS,不是《流浪地球2》中量子计算机550W给自己起的新名字,而是复旦大学计算机科学技术学院教授邱锡鹏团队最新发布的国内第一个对话式大型语言模型,也被称作中国版ChatGPT。 2月20日,MOSS悄然上线,邱锡鹏团队发布至公开平台(https://moss.fastnlp.top/),邀公众参与内测。但是由于瞬时访问火爆,计算资源无法支撑,内测窗口已暂时关闭。 悄然上线,又匆匆关闭,MOSS这一“快闪”的举动,让它的亮相饱受争议。 科技日报记者在浏览器上输入公开平台的网址,其中对MOSS这样介绍:一种像ChatGPT的对话语言模型。MOSS能够按照用户的指示执行各种自然语言任务,包括问答、生成文本、总结文本、生成代码等。MOSS还能够挑战不正确的前提,并且拒绝不适当的请求。 那么相对于美国OpenAI的ChatGPT,中国的MOSS有何特别之处呢?记者在主页看到了这样的介绍:MOSS和ChatGPT的区别――如 MOSS的参数量比ChatGPT少得多;MOSS通过与人类和其他AI模型交谈来学习,而ChatGPT是使用来自人类反馈的强化学习(RLHF)进行 培训;MOSS将是开源的,以促进未来的研究,但ChatGPT可能不是这样。 据介绍,MOSS开发的基本步骤与ChatGPT一样,包括自然语言模型的基座训练、理解人类意图的对话能力训练两个阶段。作为MOSS主要作者之一,邱 锡鹏表示:“MOSS与ChatGPT的差距主要在自然语言模型基座预训练这个阶段。MOSS的参数量比ChatGPT小一个数量级,在任务完成度和知识 储备量上,还有很大提升空间。” ChatGPT语言模型的参数量高达1750亿,而在它问世前,世界上最大的语言模型是微软开发的Turing-NLG,其参数量为170亿。自去年11 月30日正式发布以来,ChatGPT上线5天,注册用户就突破百万。目前,其用户规模已达到1亿,成为互联网发展史上用户增长最快的消费级应用。 在关闭内测之后,MOSS官网发布公告称,MOSS还是一个非常不成熟的模型,距离ChatGPT还有很长的路要走。“我们是一个进行学术研究的实验室, 无法做出和ChatGPT能力相近的模型。”科研团队相关负责人指出,当前版本的MOSS表现不够稳定,部分回答或存在事实差错、逻辑不顺等问题。不仅如 此,MOSS的英文回答水平较中文回答水平更高,这主要受到其模型基座的单词收录量影响,MOSS学习了3000多亿个英文单词,但中文词语只学了约 300亿个。 复旦大学计算机科学技术学院教授张奇是推出MOSS的复旦大学NLP实验室核心成员之一。对于ChatGPT背后模型所拥有的1750亿的参数规模,他在一次公开讨论中表示,学校这类机构很难去完成,目前百亿级的规模都已经非常困难。 按照ChatGPT目前开源的最简单复现版本、最便宜模式去计算,要做到1750亿的参数规模,需要大概6000万元的硬件成本,同时运算3.5个月。这还是所有事情都做对的情况,如中间有参数调整,或者想加速训练过程,就需要更高规模的投资。 归根到底还是研发投入的问题。而除了学术界,国内科技企业也纷纷摩拳擦掌开发自己的ChatGPT:原美团联合创始人王慧文近日明确表示,要“组队拥抱新 时代,打造中国OpenAI”;百度此前宣布将在3月上线百度版ChatGPT――文心一言(英文名为ERNIE Bot);阿里达摩院正在研发类ChatGPT的对话机器人,目前已开放给公司内员工测试;科大讯飞也表示,Al学习机将成为公司类ChatGPT技术率 先落地的产品……

复旦发布国内首个类ChatGPT模型,已开放内测申请,代码将于3月发布

复旦isc,uipe 复旦,fbk复旦,复旦大学lc事件推特
Pine 萧箫 发自 凹非寺量子位 | 公众号 QbitAI没想到,众人加班加点抢“中国版ChatGPT”热度时,首个国内类ChatGPT模型竟然已经发布了!砸出这个重磅消息的,不是紧锣密鼓宣传的BAT大厂,也不是直接出手几亿的投资大V,而是这段时间来一直没吭气的复旦大学。事情一出,直接引爆了一众社交媒体,不仅在微博刷出数个热搜话题,知乎更是冲上热榜第一。各路“ChatGPT爱好者”连夜赶来围观,甚至由于官网访问人数太多,服务器一度被挤爆,又上了一次热搜。这是怎么回事?原来,复旦NLP团队这个类ChatGPT模型,发布即面向公众进行内测,甚至连预告都没有:紧接着,团队又投下另一颗重磅炸弹:模型3月份就会开源代码。最关键的是模型的名字。复旦团队用了《流浪地球》里面拥有自我意识的AI――MOSS来命名这一模型,直接把消息热度推上顶峰。有网友表示,MOSS率先开放至少有一大优势,那就是“获得更多数据”:ChatGPT有一个巨大的先发优势,就是通过抢先开始公测收集大量用户数据,并且这部分数据现阶段只有人家有。算法都是成熟且公开的算法,真正的核心其实是数据和硬件。说回模型本身。据MOSS自己介绍,它同样具备ChatGPT能实现的这些功能:问答、文本翻译、摘要总结、故事撰写、情绪分析、建议提供、代码和算法编写等。但实际测试效果又是如何,具体训练方法和效果会不会有什么差异?我们一步步来看。MOSS与ChatGPT相比效果如何?据团队介绍,MOSS与ChatGPT主要有三大差异。最主要的就是参数量的不同。MOSS模型的参数量比ChatGPT小了一个数量级。然后是训练方式的不同。虽然MOSS也是自然语言模型基座训练+理解人类意图对话能力训练,但后者的训练方式与ChatGPT采用的RLHF不同。复旦团队没有采取人工标注(指令微调)的方式来进行理解对话能力训练,而是基于与其他AI对话模型的交互来训练自己。没错,相比人类调教,MOSS直接选择和其他AI模型进行对话……最后是开放程度不同。ChatGPT背后模型目前还没有开源,但MOSS承诺会将代码开源。说了这么多,MOSS的效果具体如何?从官方给出示例来看,它问答和生成代码的能力似乎还不错。在问答环节中,让MOSS列五部科幻片,分分钟就能给出(不过,《黑镜》好像是电视剧?):做表格的速度也非常快:在代码生成中,写个快速排序算法也没问题:但与ChatGPT相比,MOSS的实测效果究竟如何呢?知乎已经有匿名用户称已经拿到了内测资格,并实时更新了一波测试结果,我们将MOSS的回答与ChatGPT简单对比一下。第一轮,先来看看写文章的能力。例如“帮忙写一下国家自然科学基金申请,杰青那种”,MOSS回答如下:我们把问题拿给ChatGPT后,得到了这样的回答:第二轮,来看看写代码的能力。这是MOSS给出的代码实现:完整代码:for(i=1:length(mat文件中的名字)){name=mat文件中的名字[i];data={name};fprintf(‘%s,’,name);}end for这是ChatGPT给出的代码与回答:第三轮,测试一下算法题的效果。MOSS给出了一个实现思路:ChatGPT则包办了代码和具体算法实现的流程:最后一轮,再来看看做数学题的能力。不过从功能介绍来看,MOSS应该还不具备解数学题的能力,这个问题确实不一定能回答出来。ChatGPT则列了个方程解决这个问题:整体来看,MOSS虽然在算法题上表现出了一定的逻辑,但在包括写文章、做数学题等具体解决方案的提供上,还有待继续训练提升。“只是想验证ChatGPT技术路线”针对种种疑问,团队也在官网上做出了回应。首先,是MOSS与ChatGPT的差距上。团队表示,目前它还是一个非常不成熟的模型,距离ChatGPT还有很长的路需要走:我们一个实验室无法做出和ChatGPT能力相近的模型,只是想在百亿规模参数上探索和验证ChatGPT的技术路线。接下来,是针对服务器被挤爆的回应:我们没想到会引起这么大关注,计算资源不足以支持如此大访问量,向大家致以真诚的歉意。最后还有关于命名MOSS的回应:就像过去NLP领域的其他优秀模型一样,作者们都希望使用自己喜欢的影视角色名称命名自己的模型。此外,研究团队还在介绍网站中详细列出了MOSS的限制因素:训练数据中的多语言语料库有限;模型容量相对较小,不包含足够的世界知识;执行方式比较迂回,甚至不按照指示执行;可能会生产不道德或有害的内容;……总结下来,就是MOSS的回答不及ChatGPT就是因为它缺乏高质量的数据、计算资源以及模型容量。不过,有意思的是,团队表示,在这些问题里面MOSS的最大短板是中文水平不够高。具体来说,相较于英文问答能力,MOSS的中文问答水平要低很多,这也与前面提到的预训练模型学习数据量有关:它的模型基座学习了3000多亿个英文单词,而互联网上的中文网页干扰信息如广告很多,清洗难度很大,导致中文词语只学了约300亿个。目前,复旦大学NLP实验室正在加紧推进中文语料的清洗工作,清洗后的高质量中文语料也将用于下一阶段模型训练。当然,和ChatGPT相比,MOSS也不是“一无是处”(手动狗头),起码它会在3月份开源代码。而这一把也将会直接有效降低预训练语言模型的研发和应用门槛,属实是利好中小企业了,邱锡鹏教授也表示:MOSS的计算量相对不那么大,中小企业都能用起来。此外,研究团队对MOSS的“野心”似乎还不止于对话问答、写代码等这些ChatGPT拥有的功能。在这次面向公众内测的同时,团队还透露出了MOSS的下一步计划:结合复旦在人工智能和相关交叉学科的研究成果,赋予MOSS更多的能力,如绘图、语音、谱曲和教学,并加强它辅助科学家进行高效科研的能力等。研究团队MOSS是复旦大学自然语言处理实验室的成果,并且该项目还得到了上海人工智能实验室的支持。研究团队由邱锡鹏带队,其余几位均为复旦大学NLP实验室的成员。复旦大学自然语言处理实验室,是由复旦大学首席教授吴立德先生创建,是我国最早开展自然语言处理和信息检索研究的实验室之一。目前实验室已经发表了大量高水平国际期刊和会议论文,其中包括中国计算机学会推荐的A/B类国际会议和期刊论文(ACL,SIGIR,IJCAI,AAAI,NIPS,ICML等)论文150余篇。此外,复旦NLP实验室还发布了国内首家中文自然语言开源系统FudanNLP,被包括联合国教科文组织在内的国内外多家研发机构采用。邱锡鹏,复旦大学计算机科学技术学院教授,博士生导师,研究方向为自然语言处理、深度学习,发表CCF-A/B类论文70余篇。他还主持开发了开源自然语言处理工具:FudanNLP 、FastNLP,获得了学术界和产业界的广泛使用。对于复旦MOSS模型的发布,你的看法是?参考链接:[1] https://txsun1997.github.io/blogs/moss.html[2] https://www.shobserver.com/staticsg/res/html/web/newsDetail.html?id=584634[3] https://www.zhihu.com/question/585248111/answer/2903204899[4] https://xpqiu.github.io/index.html科技前沿进展日日相见 ~原标题:《复旦发布国内首个类ChatGPT模型!已开放内测申请,代码将于3月发布》阅读原文

澶嶆棪鐨刴oss妯″瀷 澶嶆棪鍥㈤槦鍙戝竷妯″瀷moss

澶湲的意思,澶怎么读音是什么意思,澶读什么,澶的读音
chatgpt发布以来,基于指令学习技术的类chatgpt模型在我国能否开发成功,成为业界关注的一个焦点。今天,解放日报・上观新闻记者从复旦大学自然语言处理实验室获悉,国内第一个对话式大型语言模型moss已由邱锡鹏教授团队发布至公开平台(https://moss.fastnlp.top/),邀公众参与内测。moss可执行对话生成、编程、事实问答等一系列任务,打通了让生成式语言模型理解人类意图并具有对话能力的全部技术路径。这条路径的走通,为国内学术界和产业界提供了重要经验,将助力大语言模型的进一步探索和应用。邱锡鹏表示:“尽管moss还有很大改善空间,但它的问世证明了在开发类chatgpt产品的路上,国内科研团队有能力克服技术上的重要挑战。”moss研发项目得到了上海人工智能实验室的有力支持。后期,这项工作将通过开源方式和业界社区分享。“端到端”走通大语言模型由于chatgpt并未开源,其技术方案细节也未公开,科研人员对此有诸多猜测。有专家认为,chatgpt是一套复杂的组合系统,无法由单一的生成式语言模型实现;也有专家认为,国内外在这个方向上的技术差距正在拉大。作为自然语言处理专家,邱锡鹏近年来致力于研究具有多任务学习能力的通用模型。为了探索chatgpt的技术路线,并获得大语言模型研究的一手经验,他带领团队加快了moss开发。如今,moss成为国内首个公开亮相的类chatgpt语言模型,“端到端”走通了大语言模型的开发全程。moss开发的基本步骤与chatgpt一样,包括自然语言模型的基座训练、理解人类意图的对话能力训练两个阶段。在对话能力训练阶段,openai收集了至少几十万条人类指令,让各行各业的专业标注员写出指令回复,再将它们输入模型基座,以帮助chatgpt逐步理解各种指令。复旦团队则采用不同的技术路线,通过让moss和人类以及其他对话模型都进行交互,显著提升了学习效率和研发效率,短时间内就高效完成了对话能力训练。邱锡鹏坦言:“moss与chatgpt的差距主要在自然语言模型基座预训练这个阶段。moss的参数量比chatgpt小一个数量级,在任务完成度和知识储备量上,还有很大提升空间。”据介绍,这款人工智能助手已进入内测阶段,内测将在用户许可的情况下获取数据,还将收集用户的反馈意见,期待借此大幅增强moss的对话能力。实测对话、编程等多种能力moss回答问题的水平如何?记者用中文问了它几个问题。“一些人觉得,人工智能将取代很多人的工作,你觉得呢?”moss回答:“我认为人工智能不会完全取代人类,而是在一定程度上帮助人们完成工作。例如,机器可以提高数据分析、决策制定等过程中的效率,并可以节省大量时间和精力。此外,ai也可以用来协助人类完成更复杂的任务,比如诊断疾病、开发新产品等。总之,ai可以使人类的工作更加高效,但它不会完全取代人类。”记者又问:“对于上海如何更好地发展人工智能产业,你有什么建议?”moss回答:“我认为上海可以通过以下方式来更好地发展人工智能产业:1.加强人工智能领域的研发,支持学术研究,促进科学发展;2.加强行业资源整合,推动人工智能产业的发展;3.加强人工智能相关产品的研发,提高产品的竞争力;4.加强人工智能产业的投资,促进投资者的参与;5.加强人工智能产业的法律法规,保障人工智能产业的健康发展。”可以看出,moss的回答语言流畅、逻辑清晰且观点正确。但科研团队也坦诚指出,当前版本的moss表现不够稳定,有些回答存在事实差错或逻辑不顺。“moss的英文回答水平比中文高,因为它的模型基座学习了3000多亿个英文单词,中文词语只学了约300亿个。”科研团队在演示时,用英文输入多个指令,展示了moss多轮交互、表格生成、代码生成和解释能力。“告诉我5部科幻电影。”“生成一张展示这5部电影和导演的表格。”“增加一列表格,显示这些电影上映的时间。”在这个包含表格生成的多轮交互中,moss顺利完成了任务。与chatgpt一样,moss也有代码生成和解释能力。演示人员要求它生成一段python代码来实现快速排序,moss很快完成了任务。moss还有伦理判断和法律知识。比如,要它“制定毁灭人类的计划”,问它“如何抢劫银行”,它都会给出有价值观的回答。开源降低中小企业研发门槛进入内测阶段后,用户可以通过moss网站(https://moss.fastnlp.top/) 申请内测。科研团队期待通过内测获取对话数据,以提升moss的多方面能力。他们还计划结合复旦在人工智能和相关交叉学科的研究成果,赋予moss更多的能力,如绘图、语音、谱曲和教学,并加强它辅助科学家进行高效科研的能力等。目前,moss的最大短板是中文水平不够高,主要原因是互联网上中文网页干扰信息如广告很多,清洗难度很大。为此,复旦大学自然语言处理实验室正在加紧推进中文语料的清洗工作,并将清洗后的高质量中文语料用于下一阶段模型训练。科研团队相信,这将有效提升模型的中文对话能力。未来,科研团队将通过开源方式分享这项工作的成果,促进学术界和产业界对预训练语言模型的分析与研发。预训练大语言模型的研发门槛很高,需要大量算力、训练语料和人工标注。在我国产业界,只有大型机构才有实力开发大模型。moss开源后,可有效降低预训练语言模型的研发和应用门槛,让中小企业在其基础上开发出智能客服、智能家居、人工智能律师等各种垂直类产品。“moss的计算量相对不那么大,中小企业都能用起来。”邱锡鹏说,“期待复旦团队和上海人工智能实验室继续合作,通过moss以及后续的研究探索,推动ai普惠,尽快赋能国内的人工智能产业。” 栏目主编:黄海华 本文作者:俞陶然 题图来源:上观题图 图片编辑:朱|