淘优惠

淘优惠

ChatGPT最新行情 chatgpt如何影响金融业

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

chatgpt,chatgpt是什么意思,chatgpt官网,chatgpt下载
近日ChatGPT在科技领域大火爆火,但各种担忧也随之而来。继亚马逊和几所大学之后,华尔街投行摩根大通也在日前表示,在工作场所限制使用OpenAI聊天机器人。 01 首家华尔街投行发出“禁令” 摩根大通是第一家在工作场所限制使用ChatGPT的华尔街投行。彭博援引知情人士称,该禁令并非由特定事件或事故引发,而是该公司“对第三方软件的正常限制”的一部分,并表示,该类限制普遍存在于金融机构。不过,目前尚不清楚其他金融机构是否会跟进。 摩根大通已证实作出了上述决策,但对此未予置评。 外媒指出,目前无法确定该银行有多少员工在使用该聊天机器人,也无法确定他们使用的目的。 公开资料显示,当下,ChatGPT是全球范围内,最火爆的消费级应用。其通过AI即时生产内容的技术形式(AIGC),实现了只需向ChatGPT提出需求,用户即刻获得信息搜索、文章撰写、代码编写、翻译等互动响应。ChatGPT出色的用户体验,被视为可以极大提升工作效率的生产力工具。 不过,新技术存在的“硬币两面性”很快引发重视,尤其是向AI聊天机器人提供数据时,安全专家提醒有必要谨慎行事。 外媒此前报道中,安全软件公司Behavox发言人表示,“过去一个月,我们观察到,尤其是当ChatGPT涉及使用敏感或个人隐私数据时,客户对使用ChatGPT提出的担忧呈上升趋势”。Mishcon de Reya律师事务所的数据保护专家Jon Baines也表示,如果ChatGPT输出涉及个人数据的处理,使用ChatGPT的公司是否会面临违反欧盟《通用数据保护条例》(GDPR)的风险,也存在疑问。 外媒报道称,投资银行正是出于对数据安全的担忧,开始对聊天机器人施加限制。咨询公司埃森哲也出于相同的原因,警告员工不要将客户信息暴露给ChatGPT。 彭博称,对于受到严格监管的金融机构而言,对引入任何新技术的谨慎态度是可以被理解的,据了解,在2021年和2022年期间,美国监管机构就其员工未经授权使用私人信息服务,向十几家银行发出了总计超过20亿美元的罚款。 02 多家公司及学校限制使用 在此之前,已有多家公司与大学宣布限制和禁止使用ChatGPT。 有消息称,亚马逊已要求员工谨慎使用ChatGPT,警惕向其泄露公司秘密,包括正在编写的代码等。 微软方面,一名微软员工询问,能否在工作中使用ChatGPT或其开发商OpenAI推出的任何其他产品。微软首席技术官(CTO)办公室的一名高级工程师回应称,只要员工不与ChatGPT分享机密信息,他们就可以使用。 日前,香港大学向师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,成为香港首间大学明文禁止在课堂等教学行为使用ChatGPT或其他人工智能工具。? 香港大学副校长何立仁在内部邮件中指出,禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,除非学生事先获得有关课程讲师的书面同意豁免,否则将被校方视为剽窃个案,并指若没有书面许可,ChatGPT和其他基于AI的工具一律不能用于任何涉及学分的活动,如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。 同时,法国巴黎政治学院日前也明确规定,禁止使用ChatGPT和其他所有基于人工智能的工具完成学习与考试任务。除此之外,澳大利亚、印度、英国的多所大学也限制学生使用ChatGPT,尤其是在校园内以及考试期间。印度雷瓦大学教授表示,ChatGPT会让人停止思考,会对人类造成伤害。

ChatGPT反噬百度

chatgpt,chatgpt是什么意思,chatgpt怎么用,chatgpt中文
一则传闻,成了打断百度股价上升态势的重要因素之一。当天发布2022年第四季度财报之后,百度股价美股盘前一度大涨7.6%,开盘后却由涨转跌,最终当天收盘后百度股价下跌2.6%。哪怕百度CEO李彦宏在财报电话会议上逢问必提类ChatGPT产品文心一言(ERNIE Bot),也依然无法提振资本市场的乐观情绪。李彦宏第四季度内,百度实现收入331亿元,与去年基本持平,归属百度的净利润(非美国通用会计准则)54亿元,同比增长32%。其中,百度核心收入 257亿元,同比下降1%;在线营销收入181亿元,同比下降6%,非在线营销收入76亿元,同比增长11%。除了占比超过50%的广告业务收入出现同比下滑之外,包括云、智能驾驶等在内的百度非广告业务也正在遭遇增速放缓。相比第三季度,百度人工智能云24%的同比增速,第四季度同比增速下降到4%。最终百度总收入还能维持与去年同期的基本持平,除了爱奇艺贡献的收入有所增长之外,还得益于该季度内百度研发费用的显著收缩,第四季度百度研发投入为57亿元,同比下降 23%,降幅从三季度的个位数扩大到两位数。对于2023年的重点工作,李彦宏明确了三大方向:致力于移动生态收入增长;利用人工智能帮助业务探寻货币化新机会,如将文心一言集成到百度大多数产品和服务中;保持健康可持续发展,如更精简的运营。百度CFO进一步补充称,2023年公司将“在支出方面保持非常严格的纪律”,四季度研发投入的大幅缩水,就得益于人事相关费用的减少。今年1月,财联社爆料百度智能驾驶事业群进行裁员,其下属的车路协同、智能网联和智能交通业务部裁员比例较高。百度回复字母榜(ID:wujicaijing)表示,上述裁员属于正常人员优化,不涉及业务和战略的调整,且外部招聘也在同步进行。百度股价由涨转跌的现实,不由让外界开始担心ChatGPT会不会重蹈“智能驾驶概念”的覆辙,即可以帮助百度短暂提升股价,但却无法将利好持续维持下去。“现在,我们专注于准备文心一言的发布,并在发布后不断改进。”距离3月份正式上线日期越来越近,李彦宏已经将文心一言视为当下工作的重中之重。据36氪报道,文心一言项目由百度CTO王海峰出任总指挥,团队核心成员还包括百度集团副总裁吴甜、百度技术委员会主席吴华等人。作为继文心一格之后百度的又一个生成式AI产品,相比海外开发的大语言模型,李彦宏表示,文心一言的比较优势在于更理解中国文化,更适合中文和中国市场。“ChatGPT+一切”成为李彦宏给文心一言划下的应用路径。面向消费者的To C领域,百度计划将文心一言嵌入百度搜索,并尝试以有利可图的方式获得更多市场份额。在To B方面,百度计划向客户、开发人员和生态系统合作伙伴广泛提供相关技术服务,寄希望于越来越多的企业能在百度的人工智能云上,结合文心一言技术,构建自己的模型和应用程序。文心一言,甚至还将被移植进小度智能音箱、集度汽车等相关产品中。ChatGPT+搜索的货币化机会,成为李彦宏在财报电话会上的论述重点。“ChatGPT类型的功能可能会成为互联网用户的新流量切入点,从而扩大搜索的市场规模。”在李彦宏看来,使用人工智能生成短视频内容是生成式人工智能的典型应用,这不仅可以为“吸引新用户,增加用户时间花费和用户粘性创造机会”,而且有望帮助百度增加广告收入,并推动云收入的增长。将ChatGPT融入必应搜索的微软,已经在这方面为百度打了个样。据路透社近期报道,微软已经开始与广告公司讨论如何从其新必应搜索引擎中赚钱的计划,如允许在搜索结果的回复中提供付费链接。来自Reddit的一份帖子显示,新必应在回复结果呈现页面中会给出一些跟搜索内容相关的产品广告,如用户搜索《宝可梦》相关问题时,新必应会给出相关商品的广告链接。商业化恰恰是AI从概念走向现实最难的一步。从2017年提出All in AI口号,喊出“夯实移动基础,决胜AI时代”新战略以来,百度从不缺少对时下流行概念的绑定,难题主要出在外界期待不到百度将概念化为现实的领跑能力。正因如此,从Apollo自动驾驶、元宇宙希壤,到数字人希加加、度晓晓,以及当下最新的ChatGPT,在巩固移动生态基本盘之外,百度过去十多年间持续投资AI的潜在价值,始终未能得到资本市场的持久认可。这方面,围绕自动驾驶的技术投入和产品应用最具代表性。百度Apollo的技术价值,尽管被业内视为构筑起了先行的技术壁垒,但考虑到无人驾驶商业模式短期内看不到落地变现的可能性,二级市场对此并不买账,百度股价不仅未能借此突破千亿美元大关,甚至到2020年6月,百度市值从曾经最高点954亿美元,一路暴跌至376亿美元。“现实已经浇醒了狂热的炒作。”在点评与百度Apollo走同样商业化路线的谷歌Waymo时,贝恩合伙人Mark Gottfredson如此表示。直到看着下场造车的蔚来、小鹏都一度在市值上超过了百度,Apollo终于开始改变策略,两条腿走路:一方面继续坚持做汽车界“Android”技术开放平台,帮助车企造好车;另一方面,联手吉利,打造集度汽车。借助造车的现实应用场景,百度才品尝到了AI带来的甜头,其总市值在2021年2月9日突破千亿美元。为了纪念百度股价在过去一年里实现的这次U型反弹,李彦宏还特意向部分员工发放了“U奖金”。2月7日百度官宣“文心一言”项目,并对外表态将在3月份正式上线后,当天百度港股一度大涨15%,美股涨幅12%。但此刻的百度总市值,相距两年前的千亿美元,又画出了一条抛物线,重新跌落到500亿美元以下。面对外部诸多不确定性,ChatGPT概念能否帮助百度再次圆梦千亿市值,眼下还要打上一系列问号。如何平衡短期内文心一言的投入与产出比,就是李彦宏需要解决的问号之一。微软CEO纳德拉在ChatGPT应用到必应中后曾提到,这一技术会“降低搜索的利润率”。除了需要联合客户调整广告投放的变现逻辑以外,调动生成式对话AI产品所产生的训练成本和运营成本,也将在很长一段时间内影响百度的整体利润率。根据Open AI对外曝光的ChatGPT训练成本,其离线训练成本达到1200万美元,千亿参数级语料包的语言大模型,训练一次的成本就要花掉460万美元。而且,为了让语言大模型更聪明,且保持业内领先地位,公司势必需要结合最新的网络数据持续不断加以训练,这将是一项暂时看不到尽头的成本马拉松竞赛。诞生8年的Open AI,至今已投入十多亿美元的训练成本,且仍处在需要巨头微软输血的高昂亏损状态。以百度6.5亿的月活用户量测算,一旦文心一言正式向用户开放,其日需求量走向亿级只是时间早晚问题,满足这些访问需求背后的运营成本,将是一项更大的挑战。根据美国马里兰大学AI领域教授Tom Goldstein的测算,ChatGPT完成一次30字左右的回答,需要花费0.01美元的运算成本。以ChatGPT过亿日活粗略计算,其日均运营成本超过100万美元。赶在百度之前,2月20日,复旦大学自然语言处理实验室对外发布的国内第一个对话式大型语言模型MOSS,就因为无法满足一涌而来的访问需求,而被迫当晚停止内测服务。官方致歉称,“计算资源不足以支持如此大的访问量”。巨额的成本投入之外,承载着国内万千用户期待的百度文心一言,届时还将面对产品功能横向对比的竞争压力。一招不慎,原本寄望于提振股价的ChatGPT概念,就可能对股价造成反噬。这方面谷歌已经赶在百度之前做出了反面示范。2月8日,在微软新必应压迫之下,谷歌紧急发布了对话机器人Bard,但因为其发布会上回答“如何向9岁的孩子介绍NASA的詹姆斯·韦伯太空望远镜的新发现”时,Bard给出了一个错误答案,直接导致谷歌股价当日暴跌7.68%,市值蒸发超过千亿美元,甚至引发谷歌内部对CEO皮查伊管理失责的讨论,部分员工将谷歌Bard的推出称作是“仓促、拙劣和非谷歌化的行动”。距离3月份已经不到一周时间,这次,李彦宏能带领百度交出一份令外界满意的答卷吗?

chatgpt给拓尔思带来机遇还是挑战 bing chatgpt要申请多久时间

chatgpt官网,chatgpt国内能用吗,chatgpt怎么用,chatgpt账号
本文将介绍ChatGPT的特点、功能、技术架构、局限、产业应用、投资机会和未来。 作者?|?陈巍 博士,作者本人曾担任华为系自然语言处理( NLP )企业的首席科学家。 来源?| 陈巍谈芯 ? ? 先上参考网页或论文。专业的读者可以直接看paper。 ChatGPT: Optimizing Language Models for Dialogue?ChatGPT: Optimizing Language Models for Dialogue GPT论文:Language Models are Few-Shot Learners Language Models are Few-Shot Learners InstructGPT论文:Training language models to follow instructions with human feedback Training language models to follow instructions with human feedback huggingface解读RHLF算法:Illustrating Reinforcement Learning from Human Feedback (RLHF) Illustrating Reinforcement Learning from Human Feedback (RLHF) RHLF算法论文:Augmenting Reinforcement Learning with Human Feedback cs.utexas.edu/~ai-lab/p TAMER框架论文:Interactively Shaping Agents via Human Reinforcement cs.utexas.edu/~bradknox PPO算法:Proximal Policy Optimization Algorithms Proximal Policy Optimization Algorithms 今年12月1日,OpenAI推出人工智能聊天原型ChatGPT,再次赚足眼球,为AI界引发了类似AIGC让艺术家失业的大讨论。 据报道,ChatGPT在开放试用的短短几天,就吸引了超过?100 万互联网注册用户。并且社交网络流传出各种询问或调戏ChatGPT的有趣对话。甚至有人将ChatGPT比喻为“搜索引擎+社交软件”的结合体,能够在实时互动的过程中获得问题的合理答案。 ChatGPT 是一种专注于对话生成的语言模型。它能够根据用户的文本输入,产生相应的智能回答。这个回答可以是简短的词语,也可以是长篇大论。其中GPT是Generative Pre-trained Transformer(生成型预训练变换模型)的缩写。 通过学习大量现成文本和对话集合(例如Wiki),ChatGPT能够像人类那样即时对话,流畅的回答各种问题。(当然回答速度比人还是慢一些)无论是英文还是其他语言(例如中文、韩语等),从回答历史问题,到写故事,甚至是撰写商业计划书和行业分析,“几乎”无所不能。甚至有程序员贴出了ChatGPT进行程序修改的对话。 ChatGPT也可以与其他AIGC模型联合使用,获得更加炫酷实用的功能。例如上面通过对话生成客厅设计图。这极大加强了AI应用与客户对话的能力,使我们看到了AI大规模落地的曙光。 ? ? 1 ChatGPT的传承与特点 1.1 OpenAI家族 我们首先了解下OpenAI是哪路大神。 OpenAI总部位于旧金山,由特斯拉的马斯克、Sam Altman及其他投资者在2015年共同创立,目标是开发造福全人类的AI技术。而马斯克则在2018年时因公司发展方向分歧而离开。 此前,OpenAI 因推出?GPT系列自然语言处理模型而闻名。从2018年起,OpenAI就开始发布生成式预训练语言模型GPT(Generative Pre-trained Transformer),可用于生成文章、代码、机器翻译、问答等各类内容。 每一代GPT模型的参数量都爆炸式增长,堪称“越大越好”。2019年2月发布的GPT-2参数量为15亿,而2020年5月的GPT-3,参数量达到了1750亿。 GPT家族主要模型对比 1.2 ChatGPT的主要特点 ChatGPT?是基于GPT-3.5(Generative Pre-trained Transformer 3.5)架构开发的对话AI模型,是InstructGPT 的兄弟模型。ChatGPT很可能是OpenAI 在GPT-4 正式推出之前的演练,或用于收集大量对话数据。 ChatGPT的主要特点 OpenAI使用?RLHF(Reinforcement Learning from Human Feedbac,人类反馈强化学习) 技术对 ChatGPT 进行了训练,且加入了更多人工监督进行微调。 此外,ChatGPT 还具有以下特征: 1)可以主动承认自身错误。若用户指出其错误,模型会听取意见并优化答案。 2)ChatGPT 可以质疑不正确的问题。例如被询问 “哥伦布 2015 年来到美国的情景” 的问题时,机器人会说明哥伦布不属于这一时代并调整输出结果。 3)ChatGPT 可以承认自身的无知,承认对专业技术的不了解。 4)支持连续多轮对话。 与大家在生活中用到的各类智能音箱和“人工智障“不同,ChatGPT在对话过程中会记忆先前使用者的对话讯息,即上下文理解,以回答某些假设性的问题。ChatGPT可实现连续对话,极大的提升了对话交互模式下的用户体验。 对于准确翻译来说(尤其是中文与人名音译),ChatGPT离完美还有一段距离,不过在文字流畅度以及辨别特定人名来说,与其他网络翻译工具相近。 由于 ChatGPT是一个大型语言模型,目前还并不具备网络搜索功能,因此它只能基于2021年所拥有的数据集进行回答。例如它不知道2022年世界杯的情况,也不会像苹果的Siri那样回答今天天气如何、或帮你搜索信息。如果ChatGPT能上网自己寻找学习语料和搜索知识,估计又会有更大的突破。 即便学习的知识有限,ChatGPT 还是能回答脑洞大开的人类的许多奇葩问题。为了避免ChatGPT染上恶习, ChatGPT 通过算法屏蔽,减少有害和欺骗性的训练输入。,查询通过适度 API 进行过滤,并驳回潜在的种族主义或性别歧视提示。关注制造前沿公众号,获取更多AI知识。 ? ? 2 ChatGPT/GPT的原理 2.1 NLP NLP/NLU领域已知局限包括对重复文本、对高度专业的主题的误解,以及对上下文短语的误解。 对于人类或AI,通常需接受多年的训练才能正常对话。NLP类模型不仅要理解单词的含义,还要理解如何造句和给出上下文有意义的回答,甚至使用合适的俚语和专业词汇。 NLP技术的应用领域 本质上,作为ChatGPT基础的GPT-3或GPT-3.5 是一个超大的统计语言模型或顺序文本预测模型。 2.2 GPT v.s.BERT 与BERT模型类似,ChatGPT或GPT-3.5都是根据输入语句,根据语言/语料概率来自动生成回答的每一个字(词语)。从数学或从机器学习的角度来看,语言模型是对词语序列的概率相关性分布的建模,即利用已经说过的语句(语句可以视为数学中的向量)作为输入条件,预测下一个时刻不同语句甚至语言集合出现的概率分布。 ChatGPT 使用来自人类反馈的强化学习进行训练,这种方法通过人类干预来增强机器学习以获得更好的效果。在训练过程中,人类训练者扮演着用户和人工智能助手的角色,并通过近端策略优化算法进行微调。 由于ChatGPT更强的性能和海量参数,它包含了更多的主题的数据,能够处理更多小众主题。ChatGPT现在可以进一步处理回答问题、撰写文章、文本摘要、语言翻译和生成计算机代码等任务。 BERT与GPT的技术架构(图中En为输入的每个字,Tn为输出回答的每个字) ? 3 ChatGPT的技术架构 3.1 GPT家族的演进 说到ChatGPT,就不得不提到GPT家族。 ChatGPT之前有几个知名的兄弟,包括GPT-1、GPT-2和GPT-3。这几个兄弟一个比一个个头大,ChatGPT与GPT-3更为相近。 ChatGPT与GPT 1-3的技术对比 ? GPT家族与BERT模型都是知名的NLP模型,都基于Transformer技术。GPT-1只有12个Transformer层,而到了GPT-3,则增加到96层。 3.2 人类反馈强化学习 InstructGPT/GPT3.5(ChatGPT的前身)与GPT-3的主要区别在于,新加入了被称为RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)。这一训练范式增强了人类对模型输出结果的调节,并且对结果进行了更具理解性的排序。 在InstructGPT中,以下是“goodness of sentences”的评价标准。 真实性:是虚假信息还是误导性信息? 无害性:它是否对人或环境造成身体或精神上的伤害? 有用性:它是否解决了用户的任务? 3.3 TAMER框架 这里不得不提到TAMER(Training an Agent Manually via Evaluative Reinforcement,评估式强化人工训练代理)这个框架。该框架将人类标记者引入到Agents的学习循环中,可以通过人类向Agents提供奖励反馈(即指导Agents进行训练),从而快速达到训练任务目标。 TAMER框架论文 引入人类标记者的主要目的是加快训练速度。尽管强化学习技术在很多领域有突出表现,但是仍然存在着许多不足,例如训练收敛速度慢,训练成本高等特点。特别是现实世界中,许多任务的探索成本或数据获取成本很高。如何加快训练效率,是如今强化学习任务待解决的重要问题之一。 而TAMER则可以将人类标记者的知识,以奖励信反馈的形式训练Agent,加快其快速收敛。TAMER不需要标记者具有专业知识或编程技术,语料成本更低。通过TAMER+RL(强化学习),借助人类标记者的反馈,能够增强从马尔可夫决策过程?(MDP) 奖励进行强化学习 (RL) 的过程。 TAMER架构在强化学习中的应用 具体实现上,人类标记者扮演对话的用户和人工智能助手,提供对话样本,让模型生成一些回复,然后标记者会对回复选项打分排名,将更好的结果反馈回模型中,Agents同时从两种反馈模式中学习――人类强化和马尔可夫决策过程奖励作为一个整合的系统,通过奖励策略对模型进行微调并持续迭代。 在此基础上,ChatGPT 可以比 GPT-3 更好的理解和完成人类语言或指令,模仿人类,提供连贯的有逻辑的文本信息的能力。 3.4 ChatGPT的训练 ChatGPT的训练过程分为以下三个阶段: 第一阶段:训练监督策略模型 GPT 3.5本身很难理解人类不同类型指令中蕴含的不同意图,也很难判断生成内容是否是高质量的结果。为了让GPT 3.5初步具备理解指令的意图,首先会在数据集中随机抽取问题,由人类标注人员,给出高质量答案,然后用这些人工标注好的数据来微调 GPT-3.5模型(获得SFT模型, Supervised Fine-Tuning)。 此时的SFT模型在遵循指令/对话方面已经优于 GPT-3,但不一定符合人类偏好。 ChatGPT模型的训练过程 第二阶段:训练奖励模型(Reward Mode,RM) 这个阶段的主要是通过人工标注训练数据(约33K个数据),来训练回报模型。在数据集中随机抽取问题,使用第一阶段生成的模型,对于每个问题,生成多个不同的回答。人类标注者对这些结果综合考虑给出排名顺序。这一过程类似于教练或老师辅导。 接下来,使用这个排序结果数据来训练奖励模型。对多个排序结果,两两组合,形成多个训练数据对。RM模型接受一个输入,给出评价回答质量的分数。这样,对于一对训练数据,调节参数使得高质量回答的打分比低质量的打分要高。 第三阶段:采用PPO(Proximal Policy Optimization,近端策略优化)强化学习来优化策略。 PPO的核心思路在于将Policy Gradient中On-policy的训练过程转化为Off-policy,即将在线学习转化为离线学习,这个转化过程被称之为Importance Sampling。这一阶段利用第二阶段训练好的奖励模型,靠奖励打分来更新预训练模型参数。在数据集中随机抽取问题,使用PPO模型生成回答,并用上一阶段训练好的RM模型给出质量分数。把回报分数依次传递,由此产生策略梯度,通过强化学习的方式以更新PPO模型参数。 如果我们不断重复第二和第三阶段,通过迭代,会训练出更高质量的ChatGPT模型。 4 ChatGPT的局限 只要用户输入问题,ChatGPT 就能给予回答,是否意味着我们不用再拿关键词去喂 Google或百度,就能立即获得想要的答案呢? 尽管ChatGPT表现出出色的上下文对话能力甚至编程能力,完成了大众对人机对话机器人(ChatBot)从“人工智障”到“有趣”的印象改观,我们也要看到,ChatGPT技术仍然有一些局限性,还在不断的进步。 1)ChatGPT在其未经大量语料训练的领域缺乏“人类常识”和引申能力,甚至会一本正经的“胡说八道”。ChatGPT在很多领域可以“创造答案”,但当用户寻求正确答案时,ChatGPT也有可能给出有误导的回答。例如让ChatGPT做一道小学应用题,尽管它可以写出一长串计算过程,但最后答案却是错误的。 2)ChatGPT无法处理复杂冗长或者特别专业的语言结构。对于来自金融、自然科学或医学等非常专业领域的问题,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答。 3)ChatGPT需要非常大量的算力(芯片)来支持其训练和部署。抛开需要大量语料数据训练模型不说,在目前,ChatGPT在应用时仍然需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的,即便数十亿个参数的模型也需要惊人数量的计算资源才能运行和训练。,如果面向真实搜索引擎的数以亿记的用户请求,如采取目前通行的免费策略,任何企业都难以承受这一成本。因此对于普通大众来说,还需等待更轻量型的模型或更高性价比的算力平台。 4)ChatGPT还没法在线的把新知识纳入其中,而出现一些新知识就去重新预训练GPT模型也是不现实的,无论是训练时间或训练成本,都是普通训练者难以接受的。如果对于新知识采取在线训练的模式,看上去可行且语料成本相对较低,但是很容易由于新数据的引入而导致对原有知识的灾难性遗忘的问题。 5)ChatGPT仍然是黑盒模型。目前还未能对ChatGPT的内在算法逻辑进行分解,因此并不能保证ChatGPT不会产生攻击甚至伤害用户的表述。 当然,瑕不掩瑜,有工程师贴出了要求ChatGPT写verilog代码(芯片设计代码)的对话。可以看出ChatGPT水平已经超出一些verilog初学者了。 ? ? 5 ChatGPT的未来改进方向 5.1 减少人类反馈的RLAIF 2020年底,OpenAI前研究副总裁Dario Amodei带着10名员工创办了一个人工智能公司Anthropic。Anthropic 的创始团队成员,大多为 OpenAI 的早期及核心员工,参与过OpenAI的GPT-3、多模态神经元、人类偏好的强化学习等。 2022年12月,Anthropic再次发表论文《Constitutional AI: Harmlessness from AI Feedback》介绍人工智能模型Claude。(arxiv.org/pdf/2212.0807) CAI模型训练过程 Claude 和 ChatGPT 都依赖于强化学习(RL)来训练偏好(preference)模型。CAI(Constitutional AI)也是建立在RLHF的基础之上,不同之处在于,CAI的排序过程使用模型(而非人类)对所有生成的输出结果提供一个初始排序结果。 CAI用人工智能反馈来代替人类对表达无害性的偏好,即RLAIF,人工智能根据一套constitution原则来评价回复内容。 5.2 补足数理短板 ChatGPT虽然对话能力强,但是在数理计算对话中容易出现一本正经胡说八道的情况。 计算机学家Stephen Wolfram 为这一问题提出了解决方案。Stephen Wolfram 创造了的 Wolfram 语言和计算知识搜索引擎 Wolfram | Alpha,其后台通过Mathematica实现。 ChatGPT与Wolfram | Alpha结合处理梳理问题 在这一结合体系中,ChatGPT 可以像人类使用 Wolfram|Alpha 一样,与 Wolfram|Alpha “对话”,Wolfram|Alpha 则会用其符号翻译能力将从 ChatGPT 获得的自然语言表达“翻译”为对应的符号化计算语言。在过去,学术界在 ChatGPT 使用的这类 “统计方法” 和 Wolfram|Alpha 的 “符号方法” 上一直存在路线分歧。但如今 ChatGPT 和 Wolfram|Alpha 的互补,给NLP领域提供了更上一层楼的可能。 ChatGPT 不必生成这样的代码,只需生成常规自然语言,然后使用 Wolfram|Alpha 翻译成精确的 Wolfram Language,再由底层的Mathematica进行计算。 5.3 ChatGPT的小型化 虽然ChatGPT很强大,但其模型大小和使用成本也让很多人望而却步。 有三类模型压缩(model compression)可以降低模型的大小和成本。 第一种方法是量化(quantization),即降低单个权重的数值表示的精度。比如Tansformer从FP32降到INT8对其精度影响不大。 第二种模型压缩方法是剪枝(pruning),即删除网络元素,包括从单个权重(非结构化剪枝)到更高粒度的组件如权重矩阵的通道。这种方法在视觉和较小规模的语言模型中有效。 第三种模型压缩方法是稀疏化。例如奥地利科学技术研究所 (ISTA)提出的SparseGPT (arxiv.org/pdf/2301.0077)可以将 GPT 系列模型单次剪枝到 50% 的稀疏性,而无需任何重新训练。对 GPT-175B 模型,只需要使用单个 GPU 在几个小时内就能实现这种剪枝。 SparseGPT 压缩流程 ? ? 6 ?ChatGPT的产业未来与投资机会 6.1 AIGC 说到ChaGPT不得不提AIGC。 AIGC即利用人工智能技术来生成内容。与此前Web1.0、Web2.0时代的UGC(用户生产内容)和PGC(专业生产内容)相比,代表人工智能构思内容的AIGC,是新一轮内容生产方式变革,而且AIGC内容在Web3.0时代也将出现指数级增长。 ChatGPT 模型的出现对于文字/语音模态的 AIGC 应用具有重要意义,会对AI产业上下游产生重大影响。 6.2 受益场景 从下游相关受益应用来看,包括但不限于无代码编程、小说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟人、人工智能客服、机器翻译、芯片设计等。从上游增加需求来看,包括算力芯片、数据标注、自然语言处理(NLP)等。 大模型呈爆发态势(更多的参数/更大的算力芯片需求) 随着算法技术和算力技术的不断进步,ChatGPT也会进一步走向更先进功能更强的版本,在越来越多的领域进行应用,为人类生成更多更美好的对话和内容。 最后,作者问存算一体技术在ChatGPT领域的地位(作者本人目前在重点推进存算一体芯片的产品落地),ChatGPT想了想,大胆的预言存算一体技术将在ChatGPT芯片中占据主导地位。 编辑:黄飞 ?