淘优惠

淘优惠

ChatGPT遭港大「封杀」:罪同论文剽窃抄袭,使用须报备过审

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

港大宣布,港大发生了什么,tabe港大,港大学子事件
衡宇 发自 凹非寺量子位 | 公众号 QbitAIChatGPT太能写了,论文、作业,哪里不会就帮写哪里。为此,香港大学明文禁止师生将ChatGPT用于教学用途,违规使用将被判为抄袭。港大也成为国内首家对ChatGPT进行明文规定的高校。具体来说,负责教学工作的香港大学副校长何立仁在发给师生的内部信中是这样规定的:(1)禁止在课堂、作业和其他评估中使用ChatGPT或其他AI工具;(2)如果学生使用时没有获得课程教师书面许可,将被视同取用他人的作品,涉及欺骗,即被视为潜在抄袭处理。使用ChatGPT一站式完成数学、代码、作文、论文作业的港大学生们,大概已经在以头抢地表示悲伤了。如何判定是否使用ChatGPT不支持用ChatGPT整体或部分替代自主完成作业,但以ChatGPT以假乱真的本事,禁得了吗?此前,港大校长张翔已经发表过言论,称校方将推动AI及数据科学领域发展,但同时也会面临AI挑战。这给我们带来的挑战是,该如何分辨学生的中期论文和期中论文(是自己完成还是AI完成)。此次下令禁止,相应的判定标准同时在邮件中注明。如果学生有使用ChatGPT等AI工具完成作业的嫌疑,教师可以要求学生介绍有关论文或作品。教师还可以补充设立口试、增加课堂考试等措施来检验。并且邮件中还提到,本次(禁止使用AI软件)是采取短期措施,因为要将AI工具纳入学习教学中仍需要较长时间考量。何立仁在邮件中强调,校方认识到AI的重要性,也正计划举行校园辩论,邀请教师和师生就此进行讨论。围观网友讨论,多数持赞成意见,认为在学术这条路上走捷径,会变成不会思考的木桩脑袋。基于ChatGPT的响应效率,也有学生网友表示用它查找资料真的贼方便。港大是国内第一所明文规定使用ChatGPT规则的大学,而香港其他高校虽没有出具明文规定,但也或多或少表明过态度。香港浸会大会声明“极度重视学生和教学人员的学术诚信”,期望学生进行学术探究和创作时善用科技。如果有学生把并非由他们自己完成的功课或作品,讹称由他们自己完成,均会被视为抄袭。香港城市大学则表示,大学有既定机制和程序处理事务,现阶段未有定论。香港中文大学也表示已成立一个新委员会,将在下周讨论相关政策。9成学生用它做作业,多国大学禁用港大的担心无不道理。基于ChatGPT生成内容的不稳定,有教师表示ChatGPT还不能完成高水平的作业,但仍然有学生冒着引用ChatGPT瞎编论文来源的可能,铤而走险。美国一项对1000名18岁以上大学生的调查结果显示,高达89%的受访者承认在完成作业时用过ChatGPT。共青团中央公众号推文中也举过现实案例,大二学生输入仅20字的提问,凭借ChatGPT生成1200多字课程论文,成功取得90多分的期末成绩,拿到该门课程的绩点满分。林林总总的现象早已引发教育界的议论和恐慌,港大已经不属于最先出手的一波。此前已有多国多所高校和教育系统禁止学生使用ChatGPT。早在去年12月上旬,洛杉矶联合学区就暂停了对ChatGPT网站的访问;步入1月后,陆续有国外院校推进禁制令,包含但不限于纽约市公立学校、法国顶尖大学巴黎政治学院等,澳大利亚部分大学火速增加新的考试规则,甚至考虑恢复纸笔考试方式。上述提及所有学校如此“恐惧”ChatGPT,原因无不与“涉及抄袭和欺诈”相关。纽约市教育部发言人Jenna Lyle在一份声明中表示:ChatGPT可能会对学生学习产生负面影响,并且其生产内容的安全性和准确性没有保证;虽然它可以提供快速简单的答案,但并不能培养学生批判性思维和解决问题的技能。学术界对ChatGPT的“抵制”并不局限在学校内部,许多期刊也下场表明态度。Nature在去年12月初就发文,表达了对ChatGPT沦为学生代写论文工具的担忧,继而在1月底下场,针对ChatGPT代写学研文章、列为作者等系列问题作出了规定,ChatGPT和其他任何LLM工具都不可以成为论文作者。国内业已有多家C刊声明,暂不接收ChatGPT等LLM单独或联合署名的文章,隐瞒ChatGPT使用情况将被退稿或撤稿。但他们和港大统统面临同一个难题:怎么分辨和判定ChatGPT是否在学生作业、论文中曾出力?纽约时报曾向作家和教育工作者展示了ChatGPT的写作样本和人类学生的写作样本,他们中没有人能够可靠地分辨出机器人和真实的东西。Nature上一篇论文也显示,ChatGPT瞎写的医学摘要,甚至能把专业审稿人唬住。而“反ChatGPT作弊神器”,无论是官方出品的鉴别器,还是斯坦佛大学的DetectGPT、华人小哥出品的GPTZeroX,都不能完全保证没有漏网之鱼。禁用ChatGPT这件事真的操作起来,仍是路漫漫。当然,除了被浇一盆冷水的学生外,也不是所有人都反对ChatGPT加入到作业完成过程中。剑桥大学负责教育的副校长Bhaskar Vira在接受校报采访时就申明过自己的立场,AI在他眼中是一种供人们使用的工具,大学禁用ChatGPT等AI工具的举措并不明智。他的观点是“堵不如疏”,学校应该对学校、教学和考试过程进行调整,以保证学生在使用类似工具时保证学术诚信。甚至还有与使用AI工具的学生们“意气相投”的老师――网红哲学家Slavoj Zizek就非常乐观地支持大伙儿使用各种AI工具,兴奋地表示:可别禁用啊!我的学生用AI写论文,交上来后,我用AI给他们打分。这样我们全都轻松自由了不是吗?!参考链接:[1]https://export.shobserver.com/baijiahao/html/584155.html[2]https://news.china.com/socialgd/10000169/20230213/44445198_2.html举报/反馈

gpt是什么意思


我们在上篇文章探讨了BERT与GPT的基础,下面来看看究竟GPT是什么。GPT发展史GPT是由OpenAI 团队研发创造, OpenAI是由创业家埃隆・马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得・蒂尔等人于2015年在旧金山创立的一家非盈利的AI研究公司,拥有多位硅谷重量级人物的资金支持,启动资金高达10亿美金;OpenAI的创立目标是与其它机构合作进行AI的相关研究,并开放研究成果以促进AI技术的发展。不过2023年的情况是,马斯克已经非其股东,且公司转化为了盈利组织。OpenAI已经创建了全世界最强大的大语言模型之一。该模型名为GPT-3,由1,750亿个统计性联系组成,可以理解为这个模型有1750亿个参数,或者说类似于有1750亿个“神经元”。该模型在约三分之二互联网、整个维基百科和两个大型图书数据集中进行训练。在训练过程中,OpenAI发现,早期GPT-3很难准确提供用户想要的结果,一个团队提议使用“强化学习”系统完善该模型,“强化学习”是从试错中学习以取得最大化回报的人工智能系统(后面会做介绍)。该团队认为,一款聊天机器人或许是不错的候选方法之一,因为以人类对话的形式持续提供反馈,使人工智能软件很容易知道其做得好的地方和需要改进的情况。因此,2022年初,该团队开始开发这款聊天机器人,也就是后来的ChatGPT(PS:这个项目其实普遍不被内部看好,差点被取消掉)。GPT的训练GPT1-3,皆使用的是Transformer架构,可以说模型结构没有创新型的设计,但是在微软的巨额资金支持下,GPT3模型由(1)1750亿个参数(相当于大脑的神经元);(2)31个分工明确的作者(皆是大神级别的人物);(3)强大的超算平台(28.5万个CPU+1万个GPU(英伟达A100));(4)45TB的训练数据(维基百科全部数据量相当于其0.6%)等等要素进行支撑训练。事实上,ChatGPT并没有直接发表论文,但是其前作InstructGPT有,所以大家只能根据这个推测GPT的训练。人工智能领域常说有多少智能,就有多少人工,其实非常适合描述其训练,这个公司聘用了40个外包公司(多少人不知道),在进行标注数据,让模型学习到的知识,使得模型输出的结果,可以更加符合人类的知识与常识,而初始训练只能靠人们标注。ChatGPT的训练流程分成三个模块,首先来看一下第一个模块。第一步,即第一个模块,人会标注一些数据,用人标注的数据,来训练一个模型,进而在GPT3上再一次强化。人会写一些知识给它,比如中国的首都是北京等等,通过人来调整最初版的GPT3,这个模型就初步具备了人类的知识,但是因为需要标注的东西其实非常多,因此也只是初步具备。有了初步的模型后,我们可以问它一些问题,比如谁是最漂亮的女明星,然后GPT可能会回答,比如高圆圆>李宇春>范冰冰等等,此时进行第二步。第二步中,外包公司(人)就会给所有排序人工打分,比如对李宇春、高圆圆、范冰冰哪个漂亮打分100分,然后看排序,用排序做对比,注意这里只关注排序,不再关注分数,得到的结果可能就是高圆圆>范冰冰>李宇春,这里用分数算排序,而不是直接用分数,就是因为分数更加主观。在这个基础上,还会增加一个奖励排名,进行强化学习(非常重要),这个部分的目的是为了GPT3输出的结果进行排序,让排序符合人们的认知。这个时候可能结果就是高圆圆≈范冰冰>李宇春了。其40个外包公司,主要就是对于GPT3输出的结果,进行排序,让模型学会人打的排序结果。第三步,即第三个模块,通过不断的循环训练,我们会得到最终的ChatGPT模型,这个模型是一个循环训练的过程,需要让ChatGPT输出符合人类的认知,而人类的认知由RM决定,也就是第二步的步骤,同时还有一个模型来避免人类对ChatGPT结果产生过于严重的影响。GPT(Generrative Pre-Trained Transformer)究竟是什么在GPT论文的引言中,作者说:"We explore a semi-supervised approach for language understanding tasks using a combination of unsupervised pre-training and supervised fine-tuning. Our goal is to learn a universal representation that transfers with little adaptation to a wide range of tasks."上面的两句话把GPT的手段和目的说的再清晰不过了:手段是半监督训练(无监督的预训练+有监督的微调=半监督),目的是构建一个能够快速适配诸多NLP任务的通用语言表示。可以说前者讨论了GPT是怎么来的,而后者涉及拿到GPT后怎么用在其他NLP任务。因此官方一点来讲:GPT模型是一种自然语言处理(NLP)模型,使用多层变换器(Transformer)来预测下一个单词的概率分布,通过训练在大型文本语料库上学习到的语言模式来生成自然语言文本。简单来讲:GPT是一个超大语料基础上预训练出的大语言模型(LLM),采用类似写作文的方式,从左到右进行填字概率预测的自回归语言模型,并基于prompting(提示)来适应不同领域的任务。从 GPT-1 到GPT-3 智能化程度不断提升, ChatGPT 的到来也是 GPT-4 正式推出之前的序章,目前GPT-3拥有1750亿个参数。虽然这种能力的表现还不算完美,但是他开启了一条一种通向“通用型人工智能”的道路,曾经科幻故事里的Jarvis,moss好像真的有了那么一点可能。当前,ChatGPT所利用的数据集只截止到2021年。在对话中,ChatGPT会主动记忆先前的对话内容信息(上下文理解),用来辅助假设性的问题的回复,因而ChatGPT也可实现连续对话,提升了交互模式下的用户体验。同时, ChatGPT也会屏蔽敏感信息,对于不能回答的内容也能给予相关建议。下一篇文章中,我们将探索为什么GPT具有如此大的突破,以及目前其局限性,欢迎关注我们。止于至善投资总经理、基金经理:何 理2023年2月23日END只以合理价格 ,投资卓越公司。――止于至善投资理念 欢迎关注公众号:止于至善投资,获取公司最新动态与观点。风险提示及版权声明本文全部内容,仅出于传播信息的需要,市场有风险,投资需谨慎。所述内容和意见仅供参考,并不构成对交易做出保证。投资者不应将以上观点作为投资决策的唯一参考因素,亦不应以本意见取代自己的判断。在任何情况下,不对任何人因阅读以上内容所引致的任何损失负任何责任。本文内容是作者对公开信息数据的整理与分析,不保证文中观点或陈述不会发生任何变更,本文对这些信息的准确性及完整性不作任何保证。如需转载,请注明来源与作者,保证文章内容完整性,并自负相关责任。举报/反馈

github论文复现randomforest chatgpt生成的代码怎么查看

论文引用github代码,github写论文,如何在github上找到论文的代码,github论文代码复现过程
近日,火爆全网的 ChatGPT,仿佛开启了第四次工业革命,将微软、谷歌等全球科技巨头打得昏天黑地,引得各路玩家纷纷入局,抢占赛道。然而由于 OpenAI 没有开源 ChatGPT,如何有效复现 ChatGPT 已成为摆在大家面前的头号难题,急需可靠的开源共建方案。GitHub 知名开源项目 Colossal-AI 快速跟进,成功做出了首个开源低成本复现 ChatGPT 完整流程!作为当下最火热的开源 AI 大模型解决方案,Colossal-AI 已收获开源社区 GitHub Star 近万颗,此次开源亮点包括:开源完整基于 PyTorch 的 ChatGPT 复现流程,涵盖全部 3 个阶段,可实现从预训练模型到 ChatGPT 的蜕变;体验最小 demo 训练流程最低仅需 1.62GB 显存,任意单张消费级 GPU 即可满足,单卡模型容量最多提升 10.3 倍;相比原生 PyTorch,最高可提升单机训练速度 7.73 倍,单卡推理速度 1.42 倍,一行代码即可使用;对于微调任务,可最多提升单卡的微调模型容量 3.7 倍,同时保持高速运行,仅需一行代码;提供单卡、单机多卡、1750 亿参数等多个版本,支持从 Hugging Face 导入 OPT,GPT-3,BLOOM 等多种预训练大模型;收敛验证正在进行中,该项目也在吸引合作者共建生态。GitHub 项目地址:https://github.com/hpcaitech/ColossalAI如果问新年伊始,最火爆的科技热点是什么?非 ChatGPT 莫属。它仿佛无所不能的六边形战士,可以聊天、写代码、修改 bug、做表格、发论文、写作业、做翻译、甚至代替 Google 搜索引擎等……自发布以来,ChatGPT 便已摧枯拉朽之势席卷各个行业,不仅 5 天时间便突破百万用户,月活用户突破 1 亿更是仅用时 2 个月,成为史上增速最快的消费级应用,远超如今其他知名应用,如 Twitter 5 年、Meta(Facebook)4 年半,TikTok 9 个月等,而手机普及到 1 亿用户则用了 16 年。1 亿用户月活用户耗时比尔?盖茨盛赞 “ChatGPT 的意义不亚于 PC 和互联网诞生”,而微软 CEO 萨蒂亚?纳德拉(Satya Nadella)更是直言 “堪比工业革命,这辈子第一次见这么大的技术浪潮” 和 “AI 正在重塑互联网”。作为向 OpenAI 投资上百亿美元的大金主,微软已火速将 ChatGPT 整合进自家的搜索引擎必应 Bing 和 Edge 浏览器,还计划加入 Teams 以及 Office 等办公套件全家桶,股价一夜市值飙涨超 800 亿美元。微软与谷歌发布会后股价对比而隔壁需要担心被 ChatGPT 革命掉自家搜索引擎的谷歌,虽然拉响 “红色警报”,紧急发布对标竞品 Bard,却因 Demo 首秀翻车,股价市值瞬间蒸发 1000 亿美元。一夜之间,全球的科技巨头们仿佛都回到了自己年轻时的样子,纷纷宣布要打造自己的 ChatGPT。但 ChatGPT 发布已有数月,市面上不仅没有预训练权重开源,连可靠的完整开源训练流程都仍是空白,更无法实现基于千亿大模型的 ChatGPT 全流程高效搭建和应用。临时上线,号称 “对标 ChatGPT” 的一众新品们,因为闭源也难辨真伪。为什么 ChatGPT 有如此魔力?复现它又有哪些难点?ChatGPT 的惊人效果,重要特征是在训练过程引入人类反馈强化学习(RLHF),使得模型表现更符合人类价值观。ChatGPT 的训练流程主要分为三个阶段:从 Prompt 库中采样,收集其人工回答,利用这些数据来微调预训练大语言模型。从 Prompt 库中采样,使用大语言模型生成多个回答,人工对这些回答进行排序后,训练奖励模型(RM),来拟合人类的价值判断。基于阶段 1 的监督微调模型和阶段 2 的奖励模型,利用强化学习算法对大语言模型进一步训练。其中阶段 3 是 RLHF 训练的核心部分,OpenAI 采用了强化学习中的近端策略优化算法(PPO),借此引入奖励信号,使得语言模型生成内容更加符合人类评判标准。RLHF 的三个阶段ChatGPT 模型的复杂性在于强化学习的引入会带来更多模型的调用。例如,使用基于 Actor-Critic(AC)结构的 PPO 算法,需要在训练时进行 Actor、Critic 两个模型的前向推理和反向传播,以及监督微调模型、奖励模型的多次前向推理。在 ChatGPT 基础的 InstructGPT 的论文中,Actor 和监督微调模型都使用了 1750 亿参数的 GPT-3 系列模型,Critic 和奖励模型则使用了 60 亿参数的 GPT-3 系列模型。对于如此多的模型参数,想要启动原始 ChatGPT 训练流程,需要数千 GB 的显存开销,显然远超单张 GPU 的容纳能力,常见的数据并行技术也无能为力。但即使引入张量并行、流水并行对参数进行划分,也仍需至少 64 张 80GB 的 A100 作为硬件基础。并且,其中的流水并行由于 bubble 和调度复杂,效率受限,不适合 AIGC 的生成式任务。阶段 3 涉及 4 个模型的复杂强化学习训练流程,进一步给 ChatGPT 的代码复现带来了困难和挑战。Colossal-AI 以开源方式复现了 ChatGPT 训练的基本流程,包括阶段 1 预训练,阶段 2 的奖励模型的训练,以及最为复杂的阶段 3 的强化学习训练等。同时,Colossal-AI 通过 ZeRO,Gemini, Chunk-based 内存管理等技术,极大地降低 ChatGPT 训练的显存开销,仅需一半硬件资源即可启动 1750 亿参数模型训练(64 卡 ->32 卡),显著降低应用成本。若使用上述相同硬件资源,Colossal-AI 则能以更短时间进行训练,节省训练成本,加速产品迭代。为了让更多开发者体验复现 ChatGPT 模型,除 1750 亿参数版本外,Colossal-AI 还提供高效的单卡、单机 4/8 卡的类 ChatGPT 版本,以降低硬件限制。在单机多卡服务器上,即便使用最高端的 A100 80GB 显卡,由于 ChatGPT 的复杂性和内存碎片,PyTorch 最大仅能启动基于 GPT-L(774M)这样的小模型的 ChatGPT。用 PyTorch 原生的 DistributedDataParallel (DDP) 进行多卡并行扩展至 4 卡或 8 卡,性能提升有限。Colossal-AI 不仅在单卡速度上训练和推理优势明显,随着并行规模扩大还可进一步提升,最高可提升单机训练速度 7.73 倍,单卡推理速度 1.42 倍,还可继续扩展至大规模并行,显著降低 ChatGPT 复现成本。为了尽可能降低训练成本和上手门槛,Colossal-AI 还提供了在单张 GPU 上即可尝试的 ChatGPT 训练流程。相比于 PyTorch 在约 10 万元的 A100 80GB 上,最大仅能启动 7.8 亿参数模型,Colossal-AI 将单卡容量提升 10.3 倍至 80 亿参数。对于基于 1.2 亿参数小模型的 ChatGPT 训练,最低仅需 1.62GB 显存,任意单张消费级 GPU 即可满足。此外,Colossal-AI 也致力于降低基于预训练大模型的微调任务成本。以 ChatGPT 可选的开源基础模型 OPT 为例,相比 PyTorch,Colossal-AI 可将提升单卡微调模型容量 3.7 倍(原始计算量显著增大),同时保持高速运行。一行代码快速上手Colossal-AI 为 Hugging Face 社区的 GPT,OPT 和 BLOOM 等主流预训练模型,提供了开箱即用的 ChatGPT 复现代码。以 GPT 为例,仅需一行代码,指定使用 Colossal-AI 作为系统策略即可快速使用。使用下列命令,即可快速启动单卡、单机多卡、1750 亿版本训练,并测试各种性能指标(包括最大显存占用、吞吐率和 TFLOPS 等):核心系统 Colossal-AI复现 ChatGPT 的背后,依赖面向大模型时代的通用深度学习系统 Colossal-AI,可基于 PyTorch 高效快速部署 AI 大模型训练和推理,降低 AI 大模型应用成本。自开源以来,Colossal-AI 已经多次在 GitHub 热榜位列世界第一,获得 GitHub Star 超八千颗,并成功入选 SC、AAAI、PPoPP、CVPR 等国际 AI 与 HPC 顶级会议的官方教程。除上述优化外,Colossal-AI 还针对 AI 大模型趋势,提供最多样和高效的大规模多维并行分布式解决方案,此前已在 Stable Diffusion、OPT、AlphaFold 等前沿模型上展现卓越优势。Colossal-AI 与当今主要开源项目同期开源数据对比Colossal-AI 由加州伯克利大学杰出教授 James Demmel 和新加坡国立大学校长青年教授尤洋领导。相关解决方案已成功在自动驾驶、云计算、零售、医药、芯片等行业知名厂商落地应用,广受好评。Colossal-AI 已成功帮助某世界 500 强企业,开发具备在线搜索引擎能力增强的类 ChatGPT 聊天机器人模型。低成本微调的 LoRAColossal-AI 支持使用低秩矩阵微调(LoRA)方法进行高效微调。LoRA 方法认为大语言模型是过参数化的,其在微调中的参数改变量是一个低秩的矩阵,可以将其分解为两个更小的的矩阵的乘积,即。在微调时,固定大模型参数,只调整低秩矩阵参数,从而显著减小训练参数量。在微调之后,进行推理部署之前,只需要将参数加回原有矩阵即可,即 , 不增加模型的推理延迟。LoRA 示意图,仅需训练 A、BColossal-AI 支持使用无冗余优化器 (ZeRO) 来优化内存使用,这种方法可以有效减少内存冗余,并且相比传统的数据并行策略,不会牺牲计算粒度和通信效率,同时可以大幅提高内存使用效率。为了进一步提升 ZeRO 的性能,Colossal-AI 引入了自动 Chunk 机制。通过将运算顺序上连续的一组参数存入同一个 Chunk 中(Chunk 是一段连续的内存空间),可以确保每个 Chunk 的大小相同,从而提高内存使用效率。使用 Chunk 方式组织内存可以保证 PCI-e 和 GPU-GPU 之间的网络带宽得到有效利用,减小通信次数,同时避免潜在的内存碎片。Chunk 机制此外,Colossal-AI 的异构内存空间管理器 Gemini 支持将优化器状态从 GPU 卸载到 CPU ,以节省 GPU 内存占用。可以同时利用 GPU 内存、CPU 内存(由 CPU DRAM 或 NVMe SSD 内存组成)来突破单 GPU 内存墙的限制,进一步扩展了可训练模型规模。通过 ZeRO + Gemini 提升硬件的模型容量尽管此次开源包含了复现 ChatGPT 的完整算法流程和必要软件系统,但对于像 ChatGPT 这样的超大 AI 大模型,想要实际落地应用,还需要数据、算力至少 2 方面的努力。毕竟训练一个 1750 亿参数的 GPT-3 就需要数百万美元算力。因此,长期以来预训练大模型都由少数大型私营科技公司垄断。好在开源社区已成功进行了新的尝试。例如,完全开放代码、数据集、权重的 1760 亿参数的 BLOOM 模型,共有来自全球 60 个国家、超过 250 个机构,以及超过 1000 名研究人员参与其中,其中包括以个人名义参加的 Meta、谷歌等大厂员工。而前段时间大火的开源图文生成模型 Stable Diffusion,也是由 Stability AI、EleutherAI 和 LAION 等组织共同完成的。借鉴上述成功模式,该项目也在吸引更多的合作者:无论是个人开发者,还是算力、数据、模型等可能合作方,都有机会参与其中,大显身手,以复现 ChatGPT 为起点,拥抱大模型时代!可通过以下方式联系或参与:在 GitHub 发布 issue 或提交 PR;加入 Colossal-AI 用户微信或 Slack 群交流;点击阅读原文填写合作提案;发送合作提案到邮箱 contact@hpcaitech.comGitHub 地址:https://github.com/hpcaitech/ColossalAI参考链接:https://www.hpc-ai.tech/blog/colossal-ai-chatgpt仅用于学术分享,若侵权请留言,即时删侵!