ChatGPT 低成本复现流程开源,任意单张消费级显卡可体验,显存需求低至 1.62 GB
热门文章
0
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
首个开源的 ChatGPT 低成本复现流程来了!预训练、奖励模型训练、强化学习训练,一次性打通。最小 demo 训练流程仅需 1.62GB 显存,随便一张消费级显卡都能满足了。单卡模型容量最多提升 10.3 倍。相比原生 PyTorch,单机训练速度最高可提升 7.73 倍,单卡推理速度提升 1.42 倍,仅需一行代码即可调用。对于微调任务,可最多提升单卡的微调模型容量 3.7 倍,同时保持高速运行,同样仅需一行代码。要知道,ChatGPT 火是真的火,复现也是真的难。毕竟 ChatGPT 是不开源的,市面上至今没有开源预训练权重、完全开源的低成本训练流程,而且千亿级别大模型的训练本身就是个难题。但 ChatGPT 军备赛已经愈演愈烈,为了抓住趋势,如谷歌等都在打造对标竞品。快速复现 ChatGPT 是应趋势所需。开源加速方案 Colossal-AI 正是为此而来。并且在提供开源完整复现流程的同时,把成本降了下来!开源地址:https://github.com/ hpcaitech / ColossalAIChatGPT 的效果好,主要是由于在训练过程中引入了人类反馈强化学习(RLHF),但这也直接导致 ChatGPT 的复现训练难度飙升。其训练流程主要分为三个阶段:1、监督微调:从 Prompt 库中采样,收集其人工回答,利用这些数据来微调预训练大语言模型;2、奖励模型:从 Prompt 库中采样,使用大语言模型生成多个回答,人工对这些回答进行排序后,训练奖励模型(RM),来拟合人类的价值判断。3、基于第一阶段的监督微调模型和第二阶段的奖励模型,利用强化学习算法对大语言模型进一步训练。△RLHF 的三个阶段对于 ChatGPT 训练而言,第三阶段是核心部分。OpenAI 采用了强化学习中近端策略优化算法(PPO),借此引入奖励信号,使得语言模型生成内容更加符合人类评判标准。但强化学习的引入,也意味着更多模型调用。例如,使用基于 Actor-Critic(AC)结构的 PPO 算法,需要在训练时进行 Actor、Critic 两个模型的前向推理和反向传播,以及监督微调模型、奖励模型的多次前向推理。在 ChatGPT 基础的 InstructGPT 论文中,Actor 和监督微调模型都使用了 1750 亿参数的 GPT-3 系列模型,Critic 和奖励模型则使用了 60 亿参数的 GPT-3 系列模型。如此大规模的模型参数,意味着想要启动原始 ChatGPT 训练流程,需要数千 GB 的显存开销,单张 GPU 显然无法容纳,常见的数据并行技术也不能搞定。即便引入张量并行、流水并行对参数进行划分,也需要至少 64 张 80GB 的 A100 作为硬件基础。而且流水并行本身并不适合 AIGC 的生成式任务,bubble 和调度复杂会导致效率受限。Colossal-AI 基于 ZeRO,Gemini, LoRA, Chunk-based 内存管理等方法,提出了一系列单卡、单机多卡、大规模并行解决方案。对于基于 GPT-3 系列模型的 ChatGPT,Colossal-AI 能用原本一半的硬件资源启动 1750 亿参数模型训练,从 64 卡降低到 32 卡。如果继续用 64 卡,则将训练时间压缩到更短,节省训练成本、加速产品迭代。而为了能让更大范围的开发者体验复现 ChatGPT,除了 1750 亿参数版本外,Colossal-AI 还提供单卡、单机 4/8 卡的类 ChatGPT 版本,以降低硬件限制。要知道,在单机多卡服务器上,即便把显卡规格提升为 A100 80GB,由于 ChatGPT 的复杂性和内存碎片,PyTorch 最大也只能启动基于 GPT-L(774M)这样的小模型 ChatGPT。用 PyTorch 原生的 DistributedDataParallel (DDP) 进行多卡并行扩展至 4 卡或 8 卡,性能提升有限。Colossal-AI 最高可提升单机训练速度 7.73 倍,单卡推理速度 1.42 倍,还可继续扩大规模并行。为了尽可能降低训练成本和上手门槛,Colossal-AI 还提供了在单张 GPU 上即可尝试的 ChatGPT 训练流程。相比于 PyTorch 在约 10 万元的 A100 80GB 上,最大仅能启动 7.8 亿参数模型,Colossal-AI 将单卡容量提升 10.3 倍至 80 亿参数。对于基于 1.2 亿参数小模型的 ChatGPT 训练,最低仅需 1.62GB 显存,任意单张消费级 GPU 即可满足。此外,Colossal-AI 也致力于降低基于预训练大模型的微调任务成本。以 ChatGPT 可选的开源基础模型 OPT 为例,相比 PyTorch,Colossal-AI 可将提升单卡微调模型容量 3.7 倍(原始计算量显著增大),同时保持高速运行。到了具体操作部分,如上复现流程中的多个步骤,基于 Colossal-AI 开源方案,都能实现一行代码快速上手。先看模型使用方面。尽管 ChatGPT 背后的大语言模型 GPT-3.5 不开源,但如 GPT、OPT、BLOOM 等主流开源模型可作为替代。Colossal-AI 为 Hugging Face 社区的这些模型,提供了开箱即用的 ChatGPT 复现代码,可覆盖三个阶段的训练。以 GPT 为例,添加一行代码指定使用 Colossal-AI 作为系统策略即可快速使用。使用下列命令,即可快速启动单卡、单机多卡、1750 亿版本训练,并测试各种性能指标(包括最大显存占用、吞吐率和 TFLOPS 等):背后原理如何?核心方案还是 Colossal-AI。它从诞生起就面向大模型应用,可基于 PyTorch 高效快速部署 AI 大模型训练和推理,是这一领域的明星项目了,GitHub Star 超八千颗,并成功入选 SC、AAAI、PPoPP、CVPR 等国际 AI 与 HPC 顶级会议的官方教程。目前,Colossal-AI 已成功帮助一家世界五百强企业,开发具备在线搜索引擎能力增强的类 ChatGPT 聊天机器人模型。此前,它们还为 Stable Diffusion、OPT、AlphaFold 等前沿模型,提供了多样高效的大规模多维并行分布式解决方案。主创人员为加州伯克利大学杰出教授 James Demmel 和新加坡国立大学校长青年教授尤洋。具体到细节原理上,LoRA、ZeRO+Gemini 是关键。在微调部分,Colossal-AI 支持使用低秩矩阵微调(LoRA)方法。LoRA 方法认为大语言模型是过参数化的,其在微调中的参数改变量是一个低秩的矩阵,可以将其分解为两个更小的的矩阵的乘积,即在微调时,固定大模型参数,只调整低秩矩阵参数,从而显著减小训练参数量。在微调之后,进行推理部署之前,只需要将参数加回原有矩阵即可,即,不增加模型的推理延迟。Colossal-AI 支持使用无冗余优化器 (ZeRO) 来优化内存使用,这种方法可以有效减少内存冗余,并且相比传统的数据并行策略,不会牺牲计算粒度和通信效率,同时可以大幅提高内存使用效率。为了进一步提升 ZeRO 的性能,Colossal-AI 引入了自动 Chunk 机制。通过将运算顺序上连续的一组参数存入同一个 Chunk 中(Chunk 是一段连续的内存空间),可以确保每个 Chunk 的大小相同,从而提高内存使用效率。使用 Chunk 方式组织内存可以保证 PCI-e 和 GPU-GPU 之间的网络带宽得到有效利用,减小通信次数,同时避免潜在的内存碎片。此外,Colossal-AI 的异构内存空间管理器 Gemini 支持将优化器状态从 GPU 卸载到 CPU ,以节省 GPU 内存占用。可以同时利用 GPU 内存、CPU 内存(由 CPU DRAM 或 NVMe SSD 内存组成)来突破单 GPU 内存墙的限制,进一步扩展了可训练模型规模。尽管此次开源包含了复现 ChatGPT 的完整算法流程和必要软件系统,但想要走到实际应用落地,还至少需要数据、算力等方面的支持。参考开源大模型 BLOOM、开源 AI 画画工具 Stable Diffusion 的经验,这背后都需要包括个人开发者、算力、数据模型等可能合作方的支持共建 ――此前,超过 1000 个科学家联合发起、耗时一年多炼出了号称和 GPT-3 一样强大的语言模型 BLOOM。还有 AI 画画趋势的头号明星 Stable Diffusion,也是由 Stability AI、EleutherAI 和 LAION 多方联合完成的。复现 ChatGPT 也是如此,Colossal-AI 正在发起这一开发活动。开源地址:https://github.com/hpcaitech/ColossalAI参考链接:本文来自微信公众号:量子位 (ID:QbitAI),作者:明敏
ChatGPT是什么硬件 chatgpt将gpu推上风口
chatgpt,chatgpt怎么用,chatgpt注册,chatgpt概念股中关村在线 2023-02-16 17:21 ・北京 2023 年 2 月 16 日消息,受惠于 ChatGPT 在全球大火,英伟达的股票自年初以来已大涨,成为标准普尔 500 指数中表现最好的股票之一。据韩国媒体 BusinessKorea,三星、SK 海力士高带宽内存接单量也大增,最新的 HBM3 解决方案价格已经翻了 5 倍。据 FierceElectronics,ChatGPT 目前基于英伟达的 10,000 个 GPU 进行训练。福布斯也报道称,如果将 ChatGPT 整合进 Google 的每一次搜索查询,大致需要 512,820 台 A100 HGX 服务器,共有 4,102,568 块 A100 GPU,仅服务器和网络成本的支出就需要 100 亿美元。 打开网易新闻 查看精彩图片 随着越来越多公司参与,全球 GPU 显卡或短缺告急。 特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
chatgpt创始人的13个建议 怎么让chatgpt帮你写脚本
chatgpt是什么意思,chatgpt官网,chatgpt怎么用,chatgpt概念股人工智能的成功,不只归功于金字塔尖的天才。 AI 不会识别物体,需要大量数据学会分辨五官和交通灯。 AI 对信息来者不拒,仰仗人工帮它剔除数据库有害的那部分。 当 AI 最终出现在镁光灯下,数据标注员们完成了单调而重要的职责,然后又隐入黑暗。 火爆全球的 ChatGPT,大概也是一个「一将功成万骨枯」的故事。 ChatGPT 的「幕后英雄」 ChatGPT 有多厉害不必多言,它和你用自然语言交谈,编写代码、撰写论文、通过考试、创作诗歌都不在话下。 比起之前的「人工智障」,ChatGPT 的前身 GPT-3 也是一大进步,但它存在一个问题,容易脱口而出暴力、性别歧视和种族主义言论,所以无法真正普及开来。 有了前车之鉴,为了保证 ChatGPT 的温和无害,OpenAI 建立了一个额外的安全机制。▲ 图片来自:shutterstock 它基于涉及暴力、仇恨和性虐等内容的例子,训练出能够检测有害内容的 AI,再把这个 AI 作为检测器,内置到 ChatGPT 之中,在内容到达用户之前,起到检测和过滤的作用。 以上例子需要经过数据标注(Data labelling),这是一项浩如烟海的人力劳动,由肯尼亚的工人们负责,为有害内容打上标签。 从 2021 年 11 月起,OpenAI 向外包公司 Sama 发送了数万个文本片段,其中大部分体现着互联网最黑暗的角落,涉及性虐、自杀、酷刑等内容。▲ 图片来自:Sama 一位数据标注员在阅读无法接受的有害内容后,开始反复出现幻觉。 工作的重负,并没有换来待遇的优越。 《时代周刊》调查发现,为 OpenAI 工作的 Sama 数据标注员,工资约为每小时 1.32 美元至 2 美元。他们每 9 小时轮班,阅读和标注 150 至 250 段文字,每段从 100 个单词到 1000 多个单词不等。 但是 Sama 回应,工人每 9 小时轮班标注 70 段文字,而不是最多 250 段,税后每小时的收入在 1.46 美元到 3.74 美元之间。 Sama 还自称是一家「有道德的 AI 公司」,帮助 5 万多人摆脱了贫困。 如果有道德是指帮助脱贫,那或许没有错,毕竟这些生活困苦的工人没有更多的选择。 但是「副作用」如影随形,身心折磨成了必要的代价。 因为 Sama 对员工工作效率要求极高,公司很少组织心理辅导活动,更何况这些活动本身也没有什么用处。有员工曾提出想要一对一的咨询,但被 Sama 管理层一再拒绝。 OpenAI 也回复了外媒 Quartz,他们支付的费用几乎是东非其他内容审核公司的两倍,并给员工提供福利和养老金。 尽管各方说法不一,但是基本的事实没有出入。 为了让 AI 更安全,为了让 OpenAI 的通用 AI 造福人类,海量工人付出了巨大的精力,甚至遭受了创伤。但是当 OpenAI 估值近 300 亿美元,他们始终籍籍无名。 末端的毛细血管 数据标注员并不是一个新鲜的工种。 早在 2007 年,计算机视觉专家李飞飞雇佣了一群普林斯顿的本科生,以 10 美元/小时的价格让他们试验做数据标注。 如今,数据标注早已发展成产业,但待遇明显下降,主角也不再是大学生。 2019 年前后,有媒体报道过国内的数据标注员,他们散落在河南、山东、河北等地的四五线小城。 类似地,Sama 的总部位于旧金山,在肯尼亚、乌干达和印度雇佣员工。除了 OpenAI,它还为 Google、Meta 和微软等硅谷客户标注数据。 然而在近两年,Sama 打定主意「金盆洗手」。 2022 年 2 月,Sama 决定结束与 OpenAI 的合作,员工不再需要忍受痛苦,但生计也难以维持,「对我们来说,这是养家糊口的一种方式」。 今年 1 月,Sama 的态度更加决绝,打算退出所有自然语言处理和内容审核工作,只做计算机视觉数据标注,与所有涉及敏感内容的业务分道扬镳,包括终止与 Meta 在东非的合同。 为 Meta 工作的 Sama 员工在非洲内罗毕办事处,专注审核本地生产的内容,斩首、虐待儿童等内容超出了他们的接受程度。一位员工将审核图片内容描述为「生活在恐怖电影中」。 有需求就有市场,从来不缺这样的外包公司。 总部位于卢森堡的外包公司 Majorel,在非洲负责 TikTok 的审核服务,有报道称将由它接手 Meta 的工作。 这家公司也曾为人诟病。2022 年 8 月,Insider 调查了摩洛哥 Majorel 的状况,发现工人们经常轮班工作超过 12 小时,标注涉及虐待动物、性暴力等的短视频,休息时间少于美国同行,公司的「健康顾问」又帮不上什么忙。 作为科技产业链末端的毛细血管,数据标注还出现在更多的地方。 2022 年 11 月,The Verge 报道,亚马逊在印度和哥斯达黎加聘请了工人,他们负责观看仓库摄像机数以千计的视频,从而改进亚马逊的计算机视觉系统。▲ 图片来自:Reuters 但是因为至少八小时的目不转睛,他们出现了头痛、眼痛和视力下降。 自动驾驶汽车同样需要数据标注,才能学习怎么识别路牌、车辆、行人、树木和垃圾桶,它对标注的准确性要求还要更高,因为这可能直接决定了人的生死。 《麻省理工科技评论》2022 年 4 月的一项调查发现,包括特斯拉在内的自动驾驶公司,让委内瑞拉工人标注自动驾驶数据,工资仅有平均每小时 90 美分多一点。 至少目前,数据库依然需要人类净化,AI 识图仍然需要人类拉框。而问题在于,和付出的精力相比,工人们的待遇和心理健康并不那么理想。 那些越来越边缘的人 自 ChatGPT 横空出世,不少人担心起了自己的饭碗,这可能是一种非常具体的危机感。 与此同时,AI 和人类的关系,也在另一个维度发生了微妙的变化――它改变了人类的工作方式,以及存在的工作类型,让海量的劳动力隐居幕后。 比如数据标注员,他们的工作门槛并不高,往往没有硬性的学历要求,经过几天培训就能上岗。知道要标注的是什么、标在哪里,基本就算入门了,剩下的时间留给熟能生巧。 他们往往也不是正式员工,而是外包形式,就像为 OpenAI 服务的肯尼亚工人。 这意味着,他们身处一个更加不稳定的世界,待遇更低,地位更加边缘,职场发言权也更少,只是亦步亦趋而已。AI 的进展究竟如何,他们或许并不知道。 2018 年,GQ 报道在 《那些给人工智能打工的人》提到:「我们没有研发能力,纯粹也就是一个(代工的)富士康。」▲ 卢德运动. 相似的情形曾在历史上演。在 19 世纪初的英国,自动化纺织机普及开来,工厂更希望雇佣廉价的无技术劳动力操作机器,导致许多技术娴熟的手工工人失业。 时代的车轮在继续前行,为 AI 服务的数据标注员,也在被 AI 慢慢替代。 2022 年 6 月,特斯拉计划解雇 200 名美国员工,他们负责标注视频,帮助改进驾驶员辅助系统。原因可能在于,近年来特斯拉的自动化数据标注有了进展,可以代替人力完成部分工作。 特斯拉 Autopilot 软件总监曾在 AI Day 上表示,公司能在一周内收集并自动标注 1 万个 45 到 60 秒的视频片段。相比之下,「人工标记每个片段可能需要几个月的时间」。 2020 年,世界经济论坛预言,到 2025 年,8500 万个工作岗位将被机器取代,9700 万个新工作岗位又将诞生。 被他们看好的职位,基本都是人工智能和机器学习专家、数字化转型专家、信息安全分析师这类技术人才。 与之相对的低收入、低技术职业,则在一步步地退出舞台,最终可能消失在机器的阴影之中。 特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。