chatgpt下载使用教程 chatgpt功能强大的原因
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
这就是 ChatGPT,以及为什么它可能是自现代搜索引擎以来最重要的工具
OpenAI 引入了一种名为 ChatGPT 的长格式问答 AI,它可以对话式回答复杂的问题。
这是一项革命性的技术,因为它经过训练可以了解人类提出问题时的意思。
许多用户对它提供人类质量响应的能力感到敬畏,激发了一种感觉,即它最终可能有能力破坏人类与计算机的交互方式并改变信息的检索方式。
什么是聊天 GPT?
ChatGPT是OpenAI基于GPT-3.5开发的大型语言模型聊天机器人。它具有以会话对话形式进行交互并提供令人惊讶的人性化响应的非凡能力。
大型语言模型执行预测一系列单词中的下一个单词的任务。
Reinforcement Learning with Human Feedback (RLHF) 是一个额外的训练层,它使用人类反馈来帮助 ChatGPT 学习遵循指示并生成人类满意的响应的能力。
谁建立了 ChatGPT?
ChatGPT 由总部位于旧金山的人工智能公司 OpenAI 创建。OpenAI Inc. 是营利性 OpenAI LP 的非营利性母公司。
OpenAI 以其著名的 DALL・E 而闻名,这是一种深度学习模型,可根据称为提示的文本指令生成图像。
首席执行官是 Sam Altman,他之前是 Y Combinator 的总裁。
微软是10 亿美元的合作伙伴和投资者。他们共同开发了Azure AI 平台。
大型语言模型
ChatGPT 是一种大型语言模型 (LLM)。大型语言模型 (LLM) 使用大量数据进行训练,以准确预测句子中接下来出现的单词。
人们发现,增加数据量可以提高语言模型做更多事情的能力。
根据斯坦福大学的说法:
“GPT-3 有 1750 亿个参数,并接受了 570 GB 文本的训练。相比之下,其前身 GPT-2 的参数量为 15 亿个,小了 100 多倍。
这种规模的增加极大地改变了模型的行为――GPT-3 能够执行它没有明确接受过训练的任务,比如将句子从英语翻译成法语,几乎没有训练示例。
这种行为在 GPT-2 中几乎不存在。此外,对于某些任务,GPT-3 优于经过明确训练以解决这些任务的模型,尽管在其他任务中它不尽如人意。”
LLM 预测一个句子中一系列单词中的下一个单词和下一个句子――有点像自动完成,但在一个令人费解的范围内。
这种能力使他们能够编写段落和整页内容。
但法学硕士的局限性在于他们并不总是能准确理解人类的需求。
这就是 ChatGPT 通过上述人类反馈强化学习 (RLHF) 培训改进现有技术的地方。
ChatGPT 是如何训练的?
GPT-3.5 接受了来自互联网的大量代码和信息数据的训练,包括 Reddit 讨论等来源,以帮助 ChatGPT 学习对话并获得人性化的回应方式。
ChatGPT 还使用人类反馈(一种称为人类反馈强化学习的技术)进行训练,以便 AI 了解人类在提出问题时的期望。以这种方式训练 LLM 是革命性的,因为它不仅仅是训练 LLM 预测下一个单词。
2022 年 3 月的一篇题为“训练语言模型以遵循人类反馈的指令”的研究论文?解释了为什么这是一种突破性的方法:
“这项工作的动机是我们的目标是通过训练大型语言模型去做一组给定的人类希望他们做的事情来增加大型语言模型的积极影响。
默认情况下,语言模型会优化下一个单词预测目标,这只是我们希望这些模型执行的操作的代理。
我们的结果表明,我们的技术有望使语言模型更有用、更真实、更无害。
使语言模型更大并不能从本质上使它们更好地遵循用户的意图。
例如,大型语言模型可能会生成不真实的、有毒的或对用户没有帮助的输出。
换句话说,这些模型与他们的用户不一致。”
构建 ChatGPT 的工程师聘请了承包商(称为贴标机)对 GPT-3 和新的 InstructGPT(ChatGPT 的“兄弟模型”)这两个系统的输出进行评级。
根据评级,研究人员得出以下结论:
“与 GPT-3 的输出相比,标记者更喜欢 InstructGPT 输出。
InstructGPT 模型在真实性方面比 GPT-3 有所改进。
InstructGPT 显示毒性比 GPT-3 略有改善,但没有偏差。”
该研究论文得出结论,InstructGPT 的结果是积极的。不过,它也指出还有改进的余地。
“总的来说,我们的结果表明,使用人类偏好微调大型语言模型可以显着改善它们在广泛任务中的行为,尽管要提高它们的安全性和可靠性还有很多工作要做。”
ChatGPT 与简单的聊天机器人的不同之处在于,它经过专门训练,可以理解问题中的人类意图,并提供有用、真实且无害的答案。
由于该培训,ChatGPT 可能会挑战某些问题并丢弃问题中没有意义的部分。
另一篇与 ChatGPT 相关的研究论文展示了他们如何训练人工智能来预测人类的偏好。
研究人员注意到,用于评估自然语言处理 AI 输出的指标导致机器在指标上得分很高,但与人类的预期不符。
以下是研究人员如何解释这个问题:
“许多机器学习应用程序优化简单的指标,这些指标只是设计者意图的粗略代表。这可能会导致问题,例如 YouTube 推荐宣传点击诱饵。”
因此,他们设计的解决方案是创建一个人工智能,该人工智能可以输出针对人类偏好进行优化的答案。
为此,他们使用人类对不同答案进行比较的数据集对 AI 进行了训练,以便机器能够更好地预测人类认为令人满意的答案。
该论文分享了培训是通过总结 Reddit 帖子完成的,并在总结新闻时进行了测试。
2022 年 2 月的研究论文名为Learning to Summarize from Human Feedback。
研究人员写道:
“在这项工作中,我们表明可以通过训练模型来优化人类偏好来显着提高摘要质量。
我们收集了一个大型、高质量的人类比较摘要数据集,训练一个模型来预测人类偏好的摘要,并将该模型用作奖励函数,以使用强化学习微调摘要策略。”
ChatGPT 的局限性是什么?
毒性反应的局限性
ChatGPT 经过专门编程,不会提供有毒或有害的响应。所以它会避免回答这类问题。
答案的质量取决于方向的质量
ChatGPT 的一个重要限制是输出质量取决于输入质量。换句话说,专家指导(提示)会产生更好的答案。
答案并不总是正确的
另一个限制是,因为它经过训练可以提供人类感觉正确的答案,所以这些答案可能会欺骗人类输出是正确的。
许多用户发现 ChatGPT 可以提供不正确的答案,包括一些非常不正确的答案。
编码问答网站 Stack Overflow 的版主可能发现了人类认为正确的答案的意外后果。
Stack Overflow 充斥着从 ChatGPT 生成的用户回复,这些回复看起来是正确的,但很多都是错误的答案。
数以千计的答案让志愿者主持人团队不堪重负,促使管理员对发布由 ChatGPT 生成的答案的任何用户颁布禁令。
ChatGPT 的大量回答导致了一篇题为:临时政策:ChatGPT 被禁止的帖子:
“这是一项临时政策,旨在减缓使用 ChatGPT 创建的答案和其他内容的涌入。
……主要问题是,虽然 ChatGPT 产生的答案有很高的错误率,但它们通常“看起来”“可能”不错……”
Stack Overflow 版主使用看似正确的错误 ChatGPT 答案的经历是 ChatGPT 的制造商 OpenAI 在其新技术公告中意识到并警告的事情。
OpenAI 解释了 ChatGPT 的局限性
OpenAI 公告提出了这个警告:
“ChatGPT 有时会写出看似合理但不正确或荒谬的答案。
解决此问题具有挑战性,因为:
(1) 在 RL 训练期间,目前没有真实来源;
(2) 训练模型更加谨慎导致它拒绝可以正确回答的问题;和
(3) 监督训练会误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么。”
ChatGPT 可以免费使用吗?
ChatGPT 目前在“研究预览”期间免费使用。
该聊天机器人目前已开放供用户试用并提供有关响应的反馈,以便 AI 能够更好地回答问题并从错误中吸取教训。
官方公告称,OpenAI 渴望收到有关错误的反馈:
“虽然我们努力让模型拒绝不适当的请求,但它有时会响应有害指令或表现出有偏见的行为。
我们正在使用 Moderation API 来警告或阻止某些类型的不安全内容,但我们预计它目前会有一些漏报和漏报。
我们渴望收集用户反馈,以帮助我们正在进行的改进该系统的工作。”
目前有一场比赛,奖金为 500 美元的 ChatGPT 积分,以鼓励公众对回复进行评分。
“鼓励用户通过 UI 提供有关有问题的模型输出的反馈,以及来自外部内容过滤器(也是界面的一部分)的误报/否定。
我们对有关在现实世界、非对抗性条件下可能发生的有害输出的反馈,以及帮助我们发现和理解新风险和可能的缓解措施的反馈特别感兴趣。
您可以选择参加 ChatGPT 反馈竞赛3,有机会赢取高达 500 美元的 API 积分。
可以通过 ChatGPT 界面中链接的反馈表提交参赛作品。”
目前正在进行的比赛将于 2022 年 12 月 31 日太平洋标准时间晚上 11:59 结束。
语言模型会取代谷歌搜索吗?
谷歌本身已经创建了一个名为LaMDA的 AI 聊天机器人。谷歌聊天机器人的性能非常接近人类对话,以至于一位谷歌工程师声称LaMDA 具有感知能力。
鉴于这些大型语言模型如何能够回答如此多的问题,像 OpenAI、谷歌或微软这样的公司有一天会用 AI 聊天机器人取代传统搜索,这是否牵强附会?
Twitter 上的一些人已经宣布 ChatGPT 将成为下一个谷歌。
问答聊天机器人有朝一日可能会取代谷歌的场景让那些以搜索营销专业人士为生的人感到恐惧。
它引发了在线搜索营销社区的讨论,例如流行的 Facebook SEOSignals Lab,有人问搜索是否可能从搜索引擎转向聊天机器人。
测试过 ChatGPT 后,我不得不承认,担心搜索被聊天机器人取代并非没有根据。
该技术还有很长的路要走,但可以设想混合搜索和聊天机器人的未来搜索。
但目前 ChatGPT 的实施似乎是一种工具,在某些时候需要购买积分才能使用。
如何使用 ChatGPT?
ChatGPT 可以以特定作者的风格编写代码、诗歌、歌曲,甚至短篇小说。
遵循以下方向的专业知识将 ChatGPT 从信息源提升为可以用来完成任务的工具。
这使得它对于撰写几乎任何主题的文章都很有用。
ChatGPT 可以作为生成文章甚至整部小说大纲的工具。
它几乎可以回答任何可以用书面文本回答的任务。
遵循以下方向的专业知识将 ChatGPT 从信息源提升为可以用来完成任务的工具。
这使得它对于撰写几乎任何主题的文章都很有用。
ChatGPT 可以作为生成文章甚至整部小说大纲的工具。
它几乎可以回答任何可以用书面文本回答的任务。
chatgpt出圈后的涨粉速度 chatgpt为何能火爆出圈
chatgpt是什么意思,chatgpt怎么下载,chatgpt怎么读,chatgpt中文来源 / 速途元宇宙研究院(ID:sootooinstitute)原创
作者?/王昊达
图片来源 / 百度文心一格生成
情人节,又称圣瓦伦丁节或圣华伦泰节,每年2月14日,是西方国家的传统节日之一。如今,随着科技和时代进步,由鲜花和巧克力组成的浪漫节日也丰富出了更多温情又新鲜的玩法……
去年的七夕和情人节,可谓是数字藏品的天下,各家平台纷纷上线节日专属数字藏品打造了全新的纪念品类别,除此之外还有很多元宇宙空间也上线了节日专场,让打卡“元宇宙”成为了彼时的最潮流的“过节”方式。
元宇宙就如同这个时代一样,每年每天都会产出更多新鲜的玩法与创意,就让我们一起探索,2023年的元宇宙会为情人节增加什么样的浪漫元素呢?
ChatGPT,意想不到的三观正确
情人节前夕突然爆火的ChatGPT为整个元宇宙行业注入了新的活力,也带来了更多的机遇。很多人为ChatGPT的能力感到前所未有的压迫感,也有一些人马上想到让ChatGPT帮自己解决学业和工作上的困难,不过也有些“大聪明”想让ChatGPT帮自己写“检讨书”最后还是难逃女朋友发现。
速途元宇宙研究院断然不会“放过”ChatGPT这个流量“新宠”,笔者首先对ChatGPT表示了情人节的祝福,也得到了它认真且温暖的回答。当笔者提出“你情人节怎么过?”时,ChatGPT表示作为AI语言模型,没有情感和生理需求,所以不需要过情人节。可以看出尽管具有高知识储备,但ChatGPT对自己的定位还是有清晰的认知的。
当速途元宇宙研究院试图对ChatGPT发出“没有人陪我过情人节”的调侃时,其给出了很多安慰式的回答,甚至给予笔者很多人性化的建议。最后,当笔者问到“你能够填补我的情感空虚吗?”这样的问题时,ChatGPT的回答真的惊艳了办公室的一众小伙伴。ChatGPT义正词严的表明自己本身只是一个AI语言模型不具备人类的情感,并且还建议笔者多交朋友,交好朋友。
正如宣传所说,ChatGPT的对话能力可以超过九成对话者。看似冰冷的回答实际处处充满温情,人工智能在没有情感的世界里说出充满人情味的语句,远比ChatGPT能节省多少资源对人类的贡献更大。
看完了别人家的孩子,转头看看国内的虚拟女友小冰,速途元宇宙研究院对小程序版的虚拟女友小冰进行了与ChatGPT相同的问题测试,这款所谓的恋爱机器人给出的回答可以称得上每一句都在笔者的意料之外。
可以看出,小冰的回答如同固定模式一样,答非所问,可能是虚拟女友的设定,小冰并有表现出理性的一面,不过在与ChatGPT同样的问题面前,小冰的回答只是驴唇不对马嘴的套话,回答内容更像是早已经设定好的固定句式,甚至连表情包还停留在鸡年,让人很难感受到人工智能的思考与进步。
丰富约会形式,XR、AI、数字藏品联袂登台
作为全球VR市场份额第二名的PICO,在情人节期间,PICO视频将连续两天为用户准备仪式感与氛围感拉满的VR烛光音乐会直播。除了将音乐融入浪漫烛光,同时还为VIP观众席提供了360度全沉浸式体验,成为情人节期间特别的“气氛组”。
当然,情人节自然少不了浪漫的约会,正如ChatGPT所说的,情人节不单单是恋人的节日,也是家人、朋友的节日,这样浪漫的节日和自己在意的人在一起度过才更有意义。情人节期间,北京河图举办了产品的首发体验活动。邀请情侣组团参与AR虚实竞技“喷色竞界”,共同见证甜蜜爱情。
在蓝色港湾上空,北京河图还放置了一条粉色的浪漫大鲸鱼,可以和你的TA来一场与众不同的“鲸”心告白。无论你是“爱你在心口难开”,还是苦恼于千篇一律的过节形式,都可以通过这一场元宇宙里的花式告白来解决。
有人欢喜就有人忧,速途元宇宙研究院也为想“略过”情人节的单身朋友找到了一些慰藉心灵的小方法。
万兴科技旗下的万兴爱画小程序推出了情人节专属活动,题为“遇见异次元的TA”,只需要简单的勾勒AI绘画功能就能为用户生成精美的异次元“另一半”。对于没有伴侣的人们也增加一项丰富情人节体验的方式。
作为世界公认最浪漫的节日之一,数字藏品行业也极具“仪式感”。十八数藏值此情人节,推出《熊小木・粉色偶遇》、《粉色浪漫》等甜蜜温馨的数藏单品,希望用户在这温馨浪漫的节日里,能够收获满满幸福。值得一提的是,十八数藏提醒广大消费者,数字藏品仅具有收藏欣赏价值,官方对藏品价格不够成任何指导意见,请谨慎购买,严防炒作。
自2022年下半年开始,数字藏品行业出现大面积的退款和停运等现象,能存留至今的数字藏品平台也都意识到了炒作数字藏品所带来的危害与风险。
总的来说,从VR音乐会到节日定制版的数字藏品,这些撑起了情人节“仪式感”的活动与产品,依然稳定发挥,让用户多一种方式感受“情人节”的浪漫氛围。而人工智能出奇的“三观正确”,也点醒了本想“略过”情人节的笔者,元宇宙不仅是虚拟世界的过眼云烟,也有连接现实的柳莺花燕。
不过,在速途元宇宙研究院看来,虽然这些“元宇宙”新奇玩法,确实提升了节日的气氛,但就目前来看,情人节的定制活动仍为企业所主导,注重商业却缺乏领域间的融合,因此离元宇宙在节庆领域全面破圈仍然“任重道远”。
【案例征集】速途元宇宙研究院003期虚拟人「元力榜」正式开启案例招募!
? 推? 荐? 阅? 读?
投稿、爆料、合作:
QQ|362470222
微信|Qiaodao007
邮箱|news@sootoo.com
bing chatgpt chatgpt学习教程
编译 | 屠敏
出品 | CSDN(ID:CSDNnews)
当昨日我们还在讨论从大厂以及个人创业的角度来看,
复制一家?OpenAI 和一款强大的 ChatGPT 可行性
究竟有几成之际,苦于 OpenAI 并未将 ChatGPT 开源出来,所以这趟水究竟有多深,众人并不知。
不过,2 月 14 日情人节这一天,来自加州大学伯克利分校的教授?James Demmel?和新加坡国立大学计算机系的校长青年教授尤洋及其背后的研究团队悄悄提供了一些答案,其率先呈现了一个开源的低成本 ChatGPT 等效实现流程,瞬间吸引无数 AI 爱好者的目光。
话不多说,简单来看,只需实现如下图所示的三步走,便能实现:
详细来看,我们将通过官方发布的详细公告一探究竟。
当然,等不及的小伙伴现在可以直接通过 GitHub 地址了解详情:https: //github.com/hpcaitech/ColossalAI
ChatGPT 技术分析
ChatGPT 的爆火,引得无数英雄竞折腰,那么 ChatGPT 为什么这么神奇?复制的难点是什么?
根据尤洋创立的潞晨科技(HPC-AI TECH)研究团队解析,ChatGPT 取得惊人成绩的重要特点是在训练过程中引入了人类反馈强化学习(RLHF),由此可以让这款 AI 聊天机器人更好地捕捉到人类的偏好。
ChatGPT 的训练过程主要分为三个阶段:
从 Prompt 库中取样,收集人类的反应,并使用这些数据来微调预先训练好的大型语言模型。
从 Prompt 库中取样,使用大型语言模型生成多个响应,手动对这些响应进行排序,并训练一个奖励模型(RM)以适应人类的偏好。
基于第 1 阶段的监督微调模型和第 2 阶段的奖励模型,使用强化学习算法进一步训练大语言模型。
在第三阶段,也就是 RLHF 训练的核心部分,OpenAI 采用强化学习中的近端策略优化(Proximal Policy Optimization,PPO)算法,引入奖励信号,使语言模型生成更更符合人类偏好的内容。
这也是开头伊始显示的那张图:
RLHF 三个阶段
ChatGPT 模型的复杂性实际上就是来源于强化学习的引入,这样会带来更多的模型调用。例如,使用基于 Actor-Critic(AC)结构的 PPO 算法,我们需要在训练过程中对 Actor 和 Critical 模型进行正向推理和反向传播,并在训练过程中对监督微调模型和奖励模型进行多次正向推理。关于作为 ChatGPT 基础的 InstructGPT 的论文,Actor 和监督微调模型都使用了有 1750 亿个参数的 GPT-3 系列模型,而 critical 和?奖励模型则使用了有 60 亿个参数的 GPT-3 系列模型。
在如此庞大的模型参数下,要启动原始的 ChatGPT 训练过程需要数千 GB 的 GPU 内存,这显然远远超出了单个 GPU 的能力,普通的数据并行技术也是不够的。
然而,即使引入张量并行和流水线并行来划分参数,仍然需要至少 64 个 80GB 的 A100 GPU 作为硬件基础。更糟糕的是,流水线由于其复杂性,以及 bubble 和调度的效率,不适合 AIGC 的生成性任务。第三阶段涉及复杂的强化学习和四个模型的训练过程,进一步给 ChatGPT 的代码复制带来困难和挑战。
使用 Colossal-AI 低成本复制 ChatGPT 训练过程
那该怎么解决?
在这里,潞晨科技研究团队用上了自家研发的面向大模型时代的通用深度学习系统?
Colossal-AI
带来了一个开源地成本部的 ChatGPT 等效实现流程。
想必不少 AI 从业者对 Colossal-AI 这款开源模型也有过一定的了解,它是开源的(https://github.com/hpcaitech/ColossalAI),其运用了高效多维自动并行、异构内存管理、大规模优化库、自适应任务调度等多项技术,实现高效快速部署 AI 大模型训练和推理,降低 AI 大模型应用成本。
Colossal-AI 背后的潞晨科技,其核心成员来自美国加州伯克利、斯坦福、清华、北大、新加坡国立、南洋理工等世界一流高校。这款模型于去年四月发布,通过一年不到的时间,截至目前,其获得了 8.9k 个 Star。
在实验过程中,研究人员以开源的方式复制了 ChatGPT 训练的基本过程,包括第一阶段的预训练,第二阶段的奖励模型训练,以及第三阶段的强化学习训练,这是流程中最复杂的阶段。
此外,Colossal-AI 通过使用 ZeRO、Gemini、LoRA、AutoChunk 内存管理等,大大降低了 ChatGPT 训练的 GPU 内存开销。它只需要一半的硬件资源就可以开始 1750 亿个参数的模型训练(从 64 张卡到 32 张卡),大大降低了 ChatGPT 应用的成本。
倘若在上述相同的硬件资源下,Colossal-AI 能够在更短的时间内进行训练,节省训练成本,加速产品迭代。
为了让更多的开发者跑完 ChatGPT 训练过程,除了原有的 1750 亿参数版本,Colossal-AI 还提供高效的单 GPU、独立的 4/8GPU 的类 ChatGPT版本以减少硬件限制:
在单台多 GPU 服务器上,即使使用最高端的 A100 80GB GPU,由于 ChatGPT 的复杂性和内存碎片化,PyTorch 也只能启动基于 GPT-L(774M)等小模型的 ChatGPT。因此,用 PyTorch 的 DistributedDataParallel(DDP) 将多 GPU 并行扩展到 4 或 8 个 GPU,结果性能提升有限。
根据研究团队介绍,Colossal-AI 不仅在单 GPU 上有明显的训练和推理速度优势,而且可以随着并行规模的扩大而进一步提高,单服务器训练速度可达 7.73 倍,单 GPU 推理速度可达 1.42 倍,并且能够继续扩大到大规模的平行度,大大降低 ChatGPT 复制的成本。
为了最大限度地降低训练成本和易用性,Colossal-AI 还提供了一个可以在单GPU 上试用的 ChatGPT 训练过程。与 PyTorch 相比,在 14999 美元的 A100 80GB 上最多只能启动 7.8 亿个参数模型,Colossal-AI 将单个 GPU 的容量提高了 10.3 倍,达到 80 亿参数。对于基于 1.2 亿个参数的小模型的 ChatGPT 训练,至少需要 1.62GB 的 GPU 内存,任何单一消费级 GPU 都可以满足。
此外,Colossal-AI 在致力于降低基于预训练的大型模型的微调任务的成本。例如,关于 OPT 模型的 ChatGPT 的微调任务,Colossal-AI 能够将单个 GPU 上的微调模型的容量比 PyTorch 提高 3.7 倍,同时以足够高的速度工作。
一行代码即可启动
一切准备就绪,只欠行动。根据研究人员介绍,Colossal-AI 提供了开箱即用的 ChatGPT 训练代码。在此,以 GPT 为例,只需要一行代码就可以指定使用 Colossal-AI 作为系统策略来启动。
使用以下命令,开发者可以快速启动单 GPU 规模、单机多 GPU 规模、原始 1750 亿参数规模版本的训练,并对各种性能指标(包括最大GPU内存使用率、吞吐量和TFLOPS)进行评估。
底层优化
低成本的 LoRA?微调
复制 ChatGPT 的实现过程通常依赖于 Colossal-AI。Colossal-AI 支持通过低秩矩阵微调(LoRA,Low-Rank Adaptation)方法进行高效微调。该方法假设大型语言模型是过度参数化的,微调过程中的参数变量是一个低秩矩阵,它可以分解为两个小矩阵的乘积:
由于大型语言模型的参数是固定的,在微调过程中只有调整矩阵的参数,从而减少训练参数的数量。在进行部署推理时,将矩阵的乘积加回到原始矩阵中,如,不影响推理延迟。
LoRA 结构,只训练 A、B
Zero+Gemini 来减少内存冗余
与传统的数据并行策略相比,Colossal-AI 使用零冗余优化器(ZeRO)来消除内存冗余,并在不影响计算粒度和通信效率的情况下,提高内存使用率。此外,为进一步提高了 ZeRO 的性能,Colossal-AI 还提出了基于 Chunk 的内存管理机制,它可以将连续的参数集按操作顺序存储在一个连续的、均匀分割的内存空间中,由此更能有效地利用网络带宽(PCI-e 和 GPU 之间),减少通信成本,并避免潜在的内存碎片。
此外,Colossal-AI 的异构内存管理器 Gemini 通过将优化器状态卸载到 CPU ,以此减少 GPU 内存占用,允许同时使用 GPU 内存和 CPU 内存(包括 CPU DRAM 或 NVMe SSD 内存)来训练超出单个 GPU 内存限制的大规模模型。
写在最后
目前,该研究团队已经开源了完整的算法和软件设计来复制 ChatGPT 的实现过程:https://github.com/hpcaitech/ColossalAI。
不过,同样是基于成本考虑,他们表示,「对于这样一个巨型的人工智能模型,它需要更多的数据和计算资源来实际生效和部署。毕竟,用 1750 亿个参数训练一个 GPT-3 需要价值数百万美元的计算能力。因此,大型预训练模型长期以来只为少数大科技公司所拥有。」
因此,他们也希望能够以开源的方式,吸引更多的研究人员、机构共同参与进来,仅以上文中所复制 ChatGPT 训练流程的实践探索为起点,未来可以向大模型的时代做出努力。
参考资料:
https://twitter.com/ArtificialAva/status/1623346998928723971
https://finance.yahoo.com/news/chatgpt-on-track-to-surpass-100-million-users-faster-than-tiktok-or-instagram-ubs-214423357.html
https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/
https://arxiv.org/abs/2106.09685
https://arxiv.org/pdf/2203.02155
https://openai.com/blog/chatgpt/
https://en.wikipedia.org/wiki/ChatGPT
https://www.benzinga.com/news/23/02/30850547/bill-gates-says-chatgpt-as-big-an-invention-as-the-internet-will-make-many-office-jobs