淘优惠

淘优惠

ai产品经理视角下的chatgpt全解析 ai产品经理视角的chatgpt全解析

热门文章 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】

ai产品经理是什么,ai产品经理与普通产品经理,ai产品经理面试题,15天入门ai产品经理
ChatGPT 依旧很火,似乎和它有关的一切都能趁热分到一杯流量和资本的羹。虽然打造出 ChatGPT 的 OpenAI 远在大洋彼岸,但作为人工智能(以下简称 AI)在自然语言领域的突破型应用,ChatGPT 的实际表现以及受欢迎程度无疑让全球资本市场再次确信了 AI 的商业前景。2022 年,国内 AI 行业进入冷静期。去年年底,商汤科技、云从科技等 AI 明星独角兽的市值已较上市之初跌去大半。而随着 ChatGPT 的出圈,国内一众 AI 上市公司的股价也闻声而涨。以云从科技(SH688327,股价 31.57 元,市值 233.8 亿元)为例,截至 2 月 16 日,云从科技股价较 1 月 20 日上涨超 87%。2 月 7 日,云从科技在公告里特别提及,公司未与 OpenAI 开展合作。无独有偶,格灵深瞳、开普云等诸多 AI 概念股近日均发布公告,明确表示公司与 OpenAI 暂无合作关系。借势而起的确诱人,但经过过去一年的沉淀,行业排头兵们也看到了狂热泡沫的不可靠。随着国内诸多企业先后宣布将推出国产版的 ChatGPT,AI 公司们能借的东风或许不会太早停下。 股价大涨后,多只 AI 概念股发澄清公告" 公司注意到 ChatGPT 等话题近期引起大量关注和讨论,截至目前,公司股价已出现较大涨幅,为避免相关信息对广大投资者造成误导,现予以澄清说明。" 这是格灵深瞳(SH688207,股价 38 元,市值 70.29 亿元)2 月 13 日公告中的内容。公司也明确表示,未与 OpenAI 开展合作,ChatGPT 的产品和服务也未给公司带来业务收入。作为国内第一批上市的 AI 公司,格灵深瞳在 2022 年 3 月上市前曾被寄予厚望。毕竟此前一个月刚上市的商汤科技(HK00020,股价 2.65 港元,市值 887 亿港元)市值一度逼近 2500 亿港元。格灵深瞳发行价为 39.49 元 / 股,但上市首日便破发,其后一直处于破发状态,直到今年 2 月 3 日才重回发行价之上,当日收盘价为 39.57 元 / 股。上市后恰逢 AI 行业进入冷静期,格灵深瞳也并未体验过站上风口的滋味,但或许也正因如此,其更相信价值与价格的对应关系。在公告中,格灵深瞳称整个 AIGC 领域的发展速度和阶段性效果需要冷静分析、避免短期盲目过热,并始终坚信公司自身业务的基本面是未来发展的关键支撑。清华大学计算机系教授、人工智能研究院视觉智能研究中心主任邓志东此前在接受《每日经济新闻》记者采访时表示,AIGC 领域可以形成一个新的产业,在其中会产生众多的创业公司,未来几年会很热。未来难以揣测,但就当下而言,国内的 AI 企业们的确又热起来了。除了 AI 四小龙,诸如海天瑞声(SH688787,股价 227 元,市值 97.16 亿元)、开普云(SH688228,股价 44.33 元,市值 29.76 亿元)等数据训练相关领域上市公司的股价也在过去一段时间大幅上涨。截至 2 月 16 日,两家公司近 20 个交易日股价涨幅分别达到 263.37%、26.66%。记者注意到,2 月 13 日,开普云在互动平台表示,公司的数字人已与 ChatGPT 的上一代版本完成接口对接,待 ChatGPT 正式对国内开放接口后即可快速完成集成,并结合开普云的内容安全能力形成更可靠的数字人对话服务。2 月 14 日,开普云发布澄清公告称,公司未与 OpenAI 开展正式合作,ChatGPT 的产品和服务未给公司带来业务收入。公司现阶段不具备提供 ChatGPT 相关产品和服务的条件和能力。 大厂加速入局,但不是谁都有机会据瑞银集团的一份研究报告,ChatGPT 在推出仅仅两个月后就实现了 1 亿的月活跃用户数,成为史上用户增长最快的消费应用。在此之前,这一最短时长纪录由 TikTok 保持,其达成 1 亿月活用户成就用了约 9 个月时间。除了令人咋舌的用户数增长态势以及资本市场的热烈反馈,ChatGPT 还直接刺激了诸多大厂的神经。ChatGPT 回答每经记者的问题在美国,为了不让 OpenAI" 一枝独秀 ",谷歌在 2 月宣布将推出 AI 聊天机器人 Bard。国内大厂们更是 " 前赴后继 "。先是百度宣布在 3 月初推出 " 文心一言 "。随后,阿里巴巴、腾讯、华为、字节跳动、京东、360、科大讯飞、快手、网易有道等十余家互联网大厂先后宣布进军相关领域。百度或许是其中最受期待的选手。据悉,在相关技术方面,百度同时具备人工智能需要的算力、算法和数据,在芯片、框架、模型、应用四层技术栈也均有布局,是国内少数的具备 AI 全栈能力的企业。百度董事长兼 CEO 李彦宏在 2020 年接受采访时曾提及,百度每年对 AI 的整体研发投入资金比例稳定在 15% 左右。在那次采访中,李彦宏表示,中国面临一个把 AI 打造成社会新的基础设施的机会," 这跟一百多年前美国工业化时面临的机会非常类似 "。想要把 AI 打造成社会基础设施,单靠 ChatGPT 所对应的 AI 语言大模型还远远不够,而是要借助预训练巨模型――一种通用 AI。邓志东在此前的采访中表示 " 巨模型是通用的 AI 上游基础设施 "。但这一块不是谁都可以做。邓志东直言:" 一定是巨头企业才可以做。这里面涉及‘三个大’――大模型、大专利、大数据。一定是少之又少的头部企业才能干,其他人根本没有资源。"此前,据多家媒体报道,前美团高管王慧文宣称要带资 5000 万美元入局 AI。这固然是行业火热的印证,但考虑到微软为 OpenAI 投入的资金规模,王慧文的 5000 万美元或许显得有些 " 杯水车薪 "。目前看来,AI 大概率已经锁定了 2023 年年度关键词之一。大厂们的国产化 ChatGPT 表现几何也值得期待。走过 2022 年的冷静期,国内 AI 市场已然开始复苏。工业和信息化部科技司副司长任爱光近日表示,截至目前,我国 AI 核心产业规模超过 4000 亿元,企业数量接近 4000 家。而据 IDC 最新数据,全球人工智能收入预计在 2023 年将突破 5000 亿美元。封面图片来源:视觉中国 -VCG211101835839每日经济新闻

九卦| 祝世虎:ChatGPT的技术、缺陷与合规|大数据|自然语言生成|模型


    作者 | 祝世虎(光大信托科技部副总经理,数据中心总经理、CIC金融科技和数字经济发展专家委员会委员,九卦金融圈专栏作家)  来源?|九卦金融圈  编辑 | 武文 张云迪    在2月18日参加完由清华大学经济管理学院中国金融研究中心和新网银行共同举办“ChatGPT爆火后的冷思考”数字金融智库沙龙后,我感触颇多!  我是2009年博士毕业于北京大学智能科学系,自2005年建系以来的第一批AI博士。那时的AI只在书本里,2016年AlphaGo让AI走到了资本里,2022年ChatGPT则让AI飞入寻常百姓家!  作为一个AI老兵,虽然在金融领域的风险、科技、数据部门工作多年,但“AI工程师”的初心犹在,下面我就以一个工程师的视角,以通俗易懂的文字,尝试讲解一下ChatGPT的技术、缺陷与合规等问题。    一、ChatGPT简述  (一)ChatGPT:从技术到客户的珠联璧合  冷静思考下,ChatGPT为什么突然间获得人们追捧?我认为这是技术的成功,是产品的成功,是营销的成功,是客户的成功,更是技术、产品、营销、客户的珠联璧合。  从技术和产品角度看,ChatGPT具有易用、好用、实用的特性。  一是易用,OpenAI斥巨资提供了便捷的API接口,每个人都可以很方便的接入;  二是好用,其效果远远高于同类型的传统产品,出乎意料的效果吸引了更多的人进行试用;  三是实用,有些学生用ChatGPT来写作业,有些程序员用ChatGPT来代码,有些画师用ChatGPT来绘画,这就体现了ChatGPT的实用性。  从客户和营销角度,上述“易用、好用、实用”完美诠释了ChatGPT的客户策略或者客户旅程。  “易用”带来了万千的客户,“好用”使得一个个好奇的测试者变成了初级使用者,“实用”使得初级使用者变为了坚定使用者。  从我个人理解来看,我更想倾向于把ChatGPT的成功主因归因于客户营销的成功。以AI的上一个里程碑AlphaGo为例,其技术也是领先,但是客户却只局限于围棋的垂直领域;再以二维码支付为例,其技术与其竞品相比并不先进,但其“易用、好用、实用”带来的客户体验,使得二维码支付取得了极大的成功。    (二)OpenAI:工程师的世外桃源  OpenAI人工智能研究实验室成立于2015年,主要由微软资助,目的是促进和发展友好的人工智能。OpenAI公司最优质的资产就是,有300多名工程师,他们“自由散漫”但“理想崇高”,无忧无虑地以工程师的思维来改变世界,这或许就是我前文说的工程师的初心。    (三)Microsoft:第三代的王者荣耀  微软是OpenAI的幕后金主,并且一直为其提供算力,这体现了微软这个office王者对文字的深刻理解。纵观历史:  第一代王者:微软的office是第一代的王者,人们实现了文字的电子化,并通过对文字的“Ctrl+C与Ctrl+V”减轻了人的工作量,但其文字范围仅为身边小范围的文字;  第二代王者:Google的搜索引擎是第二代王者,人们实现了对历史文字(已有文字)的使用,文字范围由身边扩展到了整个互联网;  第三代王者:微软认为第三代的王者或许是自然语言生成,文字范围突破了已有文字。    (四)岗位之争:人与AI的边界线  有一群人类的工作是发展AI,与此同时,有另一群人类的工作却不断地被AI所取代,这个边界线一直在后退。  第一阶段,体力工作被机器取代;  第二阶段,重复性工作被具有简单智能的机器取代;  第三阶段,自动驾驶逐渐变为了现实;  第四阶段,ChatGPT让人们相信AI会“创造”,那么未来可能任何不需要深度情感交流的工作,都会被AI所取代。  理性来看,ChatGPT对人们就业的冲击,和以往出现的生产力跃升并无本质区别,短期内会对岗位形成一定的结构性冲击,但中长期便会稳定。此时作为一个AI老兵,我也要为AI说一句话:抢走你工作的不是AI,而是先掌握AI的人。    二、ChatGPT的技术分析  (一)技术路线:工程师思维的成功  从技术角度看ChatGPT的成功,是得益于在自然语言处理NLP(Natural Language Processing)领域一群工程师的工程探索,从下文我们可以看出,工程师们基于工程探索的技术路线可能有别于研究者基于理论推导的技术路线。  从技术角度解释工程师思维并不易读,我尝试从逻辑角度解释一下工程师的思维。要做一个具有人的智能的机器,首先要创建一个大脑;其次要有学习资料;然后掌握学习方法;最后考试归来。这就形成了ChatGPT的技术路线的逻辑框架。  第一步,构建大脑,工程师们认为这应该是一个通用的大脑,什么都能学习,所以工程师们选择了通用人工智能AGI(Artificial General Intelligence)的构想:AGI应该是一个大系统,系统的核心是一个与任务无关的大模型,大模型依靠大算力从海量大数据中学习人类的知识,从而形成AI智能。这就是工程师们的系统思维。  第二步,学习资料,人类知识的载体是文字和语言,所以工程师们选择了大型语言模型LLM(Large Language Model)。在这群工程师的眼里,大算力、大存储、大数据使得大模型的工程实践成为了可能,更成了工程师的“心猿意马”!随着数据越来越大,算力越来越大,模型越来越大,效果越来越好,这就是工程师们“力大砖飞”的思维。  第三步,学习方法,工程师们选择了GPT的技术路线,并坚持了下去。在当时的NLP领域,深度学习模型已经遇到瓶颈,通过增加模型层深来提升模型效果微乎其微,深度学习模型已经逐步被预训练模型所取代。在预训练模型范式下,存在BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-Training)两种技术实现方式,两者看似比较相像,但其底层逻辑的截然不同。  从当时的论文发表来看,研究者大部分选择了BERT技术,而工程师们大部分选择了GPT技术。回头看分析其原因,我个人觉得研究者的思路一般是按部就班:先是完成自然语言理解任务,而后是完成自然语言生成任务,这就是BERT。工程师们则希望一步到位,越过自然语言理解任务,直接完成自然语言生成任务,这就是GPT。  第四步,考试归来,随着大算力、大数据的“厚积薄发”,大模型“量变突破质变”,能力超群的ChatGPT横空出世,获得了人们的追捧。  (二)智能涌现:人工智能的厚积薄发  最初的 GPT 模型是在 2018 年提出的,模型参数只有 1.17 亿;2019 年的时候 GPT-2 模型参数是 15 亿;到了 2020 年 GPT-3 模型参数达到了 1750 亿;通过几代的模型更新迭代,到 2022 年能力超群的ChatGPT横空出世,这就体现了大型语言模型的涌现能力(Emergent Abilities of Large Language Models),其涌现主要来自于三方面的积累:  一是,技术积累。不断试错直到成功,就是技术的积累。在不断的探索中,形成了ChatGPT技术的三步走方案:第一步,真实客户输入文字的监督学习技术;第二步,reward模型的奖励与评价技术;第三步,基于人类反馈的强化学习技术,使得生成内容与使用者对齐,不同的人获得适合各自的回答。  看似合理的几步路径,其中蕴含着大量的技术积累。在工程师们成功解决这个“端到端的大任务”的时候,实际上已经从技术层面解决了至少四个人工智能专业任务:创造性任务、少数标注或零标注任务、知识密集型任务、数据集外泛化任务。  二是,知识积累。知识的积累得益于数字化的内容的爆发式增长,期间数据的清洗标注、模型训练都是在积累知识。知识积累也体现在参数的数量上,ChatGPT的模型参数高达1750亿,百度的文心一言模型参数高达2600亿,二者参数基本在一个数量级上,其训练成本极其昂贵,GPT3.0离线训练成本高达1200万美元,大模型重新训练成本达400万美元。  三是,理念坚持。这也是工程师们对初心的坚持。在NLP领域中,深度学习模型逐渐失效;GPT1采用了自回归语言模型路线,随后BERT采用了双向语言模型路线,并且当时的效果优于GPT;直到GPT3出现,优势开始体现出来。所以有资深专家认为,GPT3不仅仅是技术,更是AI模型发展的新理念。  我是同意这种观点的,那么这种AI理念究竟是什么?我尝试解释一下,一是对AGI的架构设想的坚持,二是对LLM通往AGI道路的坚持,三是来自于工程师们对未来“人与AI分工的设想”的坚持,如果这是一道选择题:在人与AI共同写作文的时候,人与AI的分工究竟是?BERT技术路线是:人提供作文框架,AI受框架限制填写内容。GPT的技术路线是:人来命题,AI不受约束的开放式作答。  所以,对于BERT和GPT之争,他们只是各有所长,在开放式的领域GPT有其天然优势,但是在垂直场景与受控领域,只要坚持下去,BERT也会脱颖而出的。    (三)融合技术:多模态大模型  前文已经说明,通用人工智能AGI的核心是一个与任务无关的大模型LLM,目前其在自然语言相关领域有三大方向:GPT适用于语言领域,CODEX适用于代码领域,DALLE适用于图像领域。  上述应用使得ChatGPT成为了“多模态大模型”,多模态大模型拥有两种能力:一是寻找到不同模态数据之间的对应关系,例如将一段文本和与之对应的图片联系起来;二是实现不同模态数据间的相互转化与生成,比如根据一张图片生成对应的语言描述。  上述的技术并不新鲜,在搜索引擎时代已经有了广泛应用,例如我们使用文字搜索与之相关的图片。其技术路线的关键是,将不同模态的原始数据映射到统一或相似语义空间当中,从而实现不同模态的信号之间的相互理解与对齐。    三、ChatGPT的缺陷  可以预见ChatGPT将会在社会生产和生活的方方面面发挥着重要的作用。所以我们要更加重视ChatGPT的缺陷以及可以预见的风险。  1、应用平民化,但建模贵族化  ChatGPT成本很高,导致“虽应用平民化,但建模贵族化”。从公开渠道可以获得如下信息:一是人员储备,300余名工程师;二是大模型,训练参数1750亿个,训练数据45TB;三是大算力,训练运算需要355块NVIDA高级显卡运行1年的运算量。总之,在AI应用平民化的同时,AI研究越来越贵族化。我个人觉得,未来在AGI这个基础领域中,作为AI的底层能力,可能只有中美两个国家有能力建设。  2、AI大而不便改,使得人去适应AI  ChatGPT有1750亿个参数,这些参数以“某种方式”存储着人类的知识,这些参数的逻辑关系、相互依赖、学习过程等在技术上也尚未完全明确。这些参数的修改主要是靠训练,训练依赖的是昂贵的数据集,所以会产生“大而不便改”的缺陷。  所以,这可能会产生一个“反直觉”的问题:究竟是人去适应AI大模型,还是AI大模型去适应人。以人和手机为例,从客户体验角度看,好像是手机在适应人的操作,但本质却是人去适应手机技术的更新!  3、智能缺陷:感知智能而非决策智能  从前述ChatGPT的算法不难看出,通过文本语言等训练的模型,其智能类型是受限的,可见ChatGPT只不过是一种感知智能,是局限在文字语言领域的感知智能,不是决策智能,更不是计算智能。  智能缺陷就是ChatGPT的使用边界。作为风险老兵,在风险领域举例如下:例如,在金融机构中,ChatGPT不是决策智能,不宜用于风险决策;ChatGPT不是计算智能,不宜用于资本计量;ChatGPT是语言领域的感知智能,可以以文字助手的身份嵌入大部分和文本相关的工作。  4、技术缺陷:人工智能算法的固有缺陷  ChatGPT作为一种人工智能算法,无法避免传统的人工智能算法一些固有缺陷。  一是,算法黑箱。由于算法模型的黑箱运作机制,其运行规律和因果逻辑并不会显而易见地摆在用户面前。  二是,算法的鲁棒性。算法运行容易受到数据、模型、训练方法等因素干扰,出现非鲁棒特征。  三是,算法歧视。算法以数据为原料,如果初始使用的是有偏见的数据,无形中会导致生成的内容存在偏见或歧视,引发用户对于算法的公平性争议。  5、数据安全缺陷:多个环节存在合规问题  我们整体分析一下ChatGPT与用户数据交互的全过程以及存在的可能的风险与合规瑕疵。  一是,在个人信息收集阶段,当用户在使用ChatGPT时,可能会输入自己的个人数据,但《个人信息保护法》强调单独授权。  二是,在个人数据的加工使用阶段,ChatGPT使用了RLHF的训练方法,用户使用过程中的输入和交互信息可能会用于其持续迭代训练,进一步被用于为其他用户提供服务,可能构成数据共享,这时已与用户初最初使用目的相悖,根据《个人信息保护法》需要重新授权。  三是,训练数据的获取。ChatGPT如果通过抓取互联网上的信息获得训练数据,可能存在合规问题。  四是,数据泄漏。用户在使用过程中输入个信息,以及企业用户输入的各类工作相关信息,可能导致敏感信息泄露。  五是,算法缺陷导致数据主体行权困难。ChatGPT的算法黑箱与算法复杂性导致数据主体的基本权利,如更改权、删除权、访问权等行权困难。    四、ChatGPT应用的法律红线与合规底线    (一)法律红线  1、著作权  ChatGPT生成的文学作品、代码等存在着著作权归属不清的现实困境。其困难主要如下:我国现行知识产权法律体系均规定法律主体为享有权利、负有义务和承担责任的人。  2、帮助信息网络犯罪活动罪  所谓帮信罪,全称是帮助信息网络犯罪活动罪,被规定于我国《刑法》第287条之二中,指的是明知他人利用信息网络实施犯罪,为其犯罪提供互联网接入、服务器托管、网络存储、通讯传输等技术支持,或者提供广告推广、支付结算等帮助。  抛开法条中的“明知”二字,例如犯罪分子使用ChatGPT的文字生成功能,利用来自互联网的大量数据,可以生成极具说服力的钓鱼电子邮件或消息,冒充真实的人或者组织骗取他人信息。  3、拒不履行信息网络安全管理义务罪  ChatGPT的运营商,作为信息发布的网络内容服务提供者,需要履行信息网络安全管理义务。如果被监管部门要求责令整改,而ChatGPT的运营商无法提供有效的管理措施,致使违法信息大量传播的,则可能涉嫌拒不履行网络安全管理义务。而前文提及的ChatGPT“大而不便改”的缺陷,则加大了“运营商无法提供有效的管理措施”的可能性。    (二)合规底线  1、相关法规:技术与内容并重  我国已经形成由《网络信息内容生态治理规定》《网络数据安全管理条例(征求意见稿)》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定(征求意见稿)》等政策法规形成的法律体系,对 ChatGPT从技术角度和内容角度进行了约束。  2、行业自律:伦理先行  国家新一代人工智能治理专业委员会亦在2021年发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。《中国关于加强人工智能伦理治理的立场文件》中明确写到,人工智能治理应坚持伦理先行,通过制度建设、风险管控、协同共治等推进人工智能伦理监管;应加强自我约束,提高人工智能在研发过程中的算法安全与数据质量,减少偏见歧视;应提倡负责任使用人工智能,避免误用、滥用及恶用,加强公众宣传教育。  3、企业治理:积极履行社会职责  《关于加强互联网信息服务算法综合治理的指导意见》明确提出强化企业主体责任。所以,ChatGPT的供应商应构建完善的算法与模型的管理能力,切实防范发展过程中的各项风险。 特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

九卦|祝世虎:ChatGPT的技术、缺陷与合规

祝世虎 2020
作者 | 祝世虎(光大信托科技部副总经理,数据中心总经理、CIC金融科技和数字经济发展专家委员会委员,九卦金融圈专栏作家) 来源?| 九卦金融圈 编辑 | 武文 张云迪? ? 在2月18日参加完由清华大学经济管理学院中国金融研究中心和新网银行共同举办“ChatGPT爆火后的冷思考”数字金融智库沙龙后,我感触颇多! 我是2009年博士毕业于北京大学智能科学系,自2005年建系以来的第一批AI博士。那时的AI只在书本里,2016年AlphaGo让AI走到了资本里,2022年ChatGPT则让AI飞入寻常百姓家! 作为一个AI老兵,虽然在金融领域的风险、科技、数据部门工作多年,但“AI工程师”的初心犹在,下面我就以一个工程师的视角,以通俗易懂的文字,尝试讲解一下ChatGPT的技术、缺陷与合规等问题。 一、ChatGPT简述 (一)ChatGPT:从技术到客户的珠联璧合 冷静思考下,ChatGPT为什么突然间获得人们追捧?我认为这是技术的成功,是产品的成功,是营销的成功,是客户的成功,更是技术、产品、营销、客户的珠联璧合。 从技术和产品角度看,ChatGPT具有易用、好用、实用的特性。 一是易用,OpenAI斥巨资提供了便捷的API接口,每个人都可以很方便的接入; 二是好用,其效果远远高于同类型的传统产品,出乎意料的效果吸引了更多的人进行试用; 三是实用,有些学生用ChatGPT来写作业,有些程序员用ChatGPT来代码,有些画师用ChatGPT来绘画,这就体现了ChatGPT的实用性。 从客户和营销角度,上述“易用、好用、实用”完美诠释了ChatGPT的客户策略或者客户旅程。 “易用”带来了万千的客户,“好用”使得一个个好奇的测试者变成了初级使用者,“实用”使得初级使用者变为了坚定使用者。 从我个人理解来看,我更想倾向于把ChatGPT的成功主因归因于客户营销的成功。以AI的上一个里程碑AlphaGo为例,其技术也是领先,但是客户却只局限于围棋的垂直领域;再以二维码支付为例,其技术与其竞品相比并不先进,但其“易用、好用、实用”带来的客户体验,使得二维码支付取得了极大的成功。 (二)OpenAI:工程师的世外桃源 OpenAI人工智能研究实验室成立于2015年,主要由微软资助,目的是促进和发展友好的人工智能。OpenAI公司最优质的资产就是,有300多名工程师,他们“自由散漫”但“理想崇高”,无忧无虑地以工程师的思维来改变世界,这或许就是我前文说的工程师的初心。 (三)Microsoft:第三代的王者 微软是OpenAI的幕后金主,并且一直为其提供算力,这体现了微软这个office王者对文字的深刻理解。纵观历史: 第一代王者:微软的office是第一代的王者,人们实现了文字的电子化,并通过对文字的“Ctrl+C与Ctrl+V”减轻了人的工作量,但其文字范围仅为身边小范围的文字; 第二代王者:Google的搜索引擎是第二代王者,人们实现了对历史文字(已有文字)的使用,文字范围由身边扩展到了整个互联网; 第三代王者:微软认为第三代的王者或许是自然语言生成,文字范围突破了已有文字。 (四)岗位之争:人与AI的边界线 有一群人类的工作是发展AI,与此同时,有另一群人类的工作却不断地被AI所取代,这个边界线一直在后退。 第一阶段,体力工作被机器取代; 第二阶段,重复性工作被具有简单智能的机器取代; 第三阶段,自动驾驶逐渐变为了现实; 第四阶段,ChatGPT让人们相信AI会“创造”,那么未来可能任何不需要深度情感交流的工作,都会被AI所取代。 理性来看,ChatGPT对人们就业的冲击,和以往出现的生产力跃升并无本质区别,短期内会对岗位形成一定的结构性冲击,但中长期便会稳定。此时作为一个AI老兵,我也要为AI说一句话:抢走你工作的不是AI,而是先掌握AI的人。 二、ChatGPT的技术分析 (一)技术路线:工程师思维的成功 从技术角度看ChatGPT的成功,是得益于在自然语言处理NLP(Natural Language Processing)领域一群工程师的工程探索,从下文我们可以看出,工程师们基于工程探索的技术路线可能有别于研究者基于理论推导的技术路线。 从技术角度解释工程师思维并不易读,我尝试从逻辑角度解释一下工程师的思维。要做一个具有人的智能的机器,首先要创建一个大脑;其次要有学习资料;然后掌握学习方法;最后考试归来。这就形成了ChatGPT的技术路线的逻辑框架。 第一步,构建大脑,工程师们认为这应该是一个通用的大脑,什么都能学习,所以工程师们选择了通用人工智能AGI(Artificial General Intelligence)的构想:AGI应该是一个大系统,系统的核心是一个与任务无关的大模型,大模型依靠大算力从海量大数据中学习人类的知识,从而形成AI智能。这就是工程师们的系统思维。 第二步,学习资料,人类知识的载体是文字和语言,所以工程师们选择了大型语言模型LLM(Large Language Model)。在这群工程师的眼里,大算力、大存储、大数据使得大模型的工程实践成为了可能,更成了工程师的“心猿意马”!随着数据越来越大,算力越来越大,模型越来越大,效果越来越好,这就是工程师们“力大砖飞”的思维。 第三步,学习方法,工程师们选择了GPT的技术路线,并坚持了下去。在当时的NLP领域,深度学习模型已经遇到瓶颈,通过增加模型层深来提升模型效果微乎其微,深度学习模型已经逐步被预训练模型所取代。在预训练模型范式下,存在BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-Training)两种技术实现方式,两者看似比较相像,但其底层逻辑的截然不同。 从当时的论文发表来看,研究者大部分选择了BERT技术,而工程师们大部分选择了GPT技术。回头看分析其原因,我个人觉得研究者的思路一般是按部就班:先是完成自然语言理解任务,而后是完成自然语言生成任务,这就是BERT。工程师们则希望一步到位,越过自然语言理解任务,直接完成自然语言生成任务,这就是GPT。 第四步,考试归来,随着大算力、大数据的“厚积薄发”,大模型“量变突破质变”,能力超群的ChatGPT横空出世,获得了人们的追捧。 (二)智能涌现:人工智能的厚积薄发 最初的 GPT 模型是在 2018 年提出的,模型参数只有 1.17 亿;2019 年的时候 GPT-2 模型参数是 15 亿;到了 2020 年 GPT-3 模型参数达到了 1750 亿;通过几代的模型更新迭代,到 2022 年能力超群的ChatGPT横空出世,这就体现了大型语言模型的涌现能力(Emergent Abilities of Large Language Models),其涌现主要来自于三方面的积累: 一是,技术积累。不断试错直到成功,就是技术的积累。在不断的探索中,形成了ChatGPT技术的三步走方案:第一步,真实客户输入文字的监督学习技术;第二步,reward模型的奖励与评价技术;第三步,基于人类反馈的强化学习技术,使得生成内容与使用者对齐,不同的人获得适合各自的回答。 看似合理的几步路径,其中蕴含着大量的技术积累。在工程师们成功解决这个“端到端的大任务”的时候,实际上已经从技术层面解决了至少四个人工智能专业任务:创造性任务、少数标注或零标注任务、知识密集型任务、数据集外泛化任务。 二是,知识积累。知识的积累得益于数字化的内容的爆发式增长,期间数据的清洗标注、模型训练都是在积累知识。知识积累也体现在参数的数量上,ChatGPT的模型参数高达1750亿,百度的文心一言模型参数高达2600亿,二者参数基本在一个数量级上,其训练成本极其昂贵,GPT3.0离线训练成本高达1200万美元,大模型重新训练成本达400万美元。 三是,理念坚持。这也是工程师们对初心的坚持。在NLP领域中,深度学习模型逐渐失效;GPT1采用了自回归语言模型路线,随后BERT采用了双向语言模型路线,并且当时的效果优于GPT;直到GPT3出现,优势开始体现出来。所以有资深专家认为,GPT3不仅仅是技术,更是AI模型发展的新理念。 我是同意这种观点的,那么这种AI理念究竟是什么?我尝试解释一下,一是对AGI的架构设想的坚持,二是对LLM通往AGI道路的坚持,三是来自于工程师们对未来“人与AI分工的设想”的坚持,如果这是一道选择题:在人与AI共同写作文的时候,人与AI的分工究竟是?BERT技术路线是:人提供作文框架,AI受框架限制填写内容。GPT的技术路线是:人来命题,AI不受约束的开放式作答。 所以,对于BERT和GPT之争,他们只是各有所长,在开放式的领域GPT有其天然优势,但是在垂直场景与受控领域,只要坚持下去,BERT也会脱颖而出的。 (三)融合技术:多模态大模型 前文已经说明,通用人工智能AGI的核心是一个与任务无关的大模型LLM,目前其在自然语言相关领域有三大方向:GPT适用于语言领域,CODEX适用于代码领域,DALLE适用于图像领域。 上述应用使得ChatGPT成为了“多模态大模型”,多模态大模型拥有两种能力:一是寻找到不同模态数据之间的对应关系,例如将一段文本和与之对应的图片联系起来;二是实现不同模态数据间的相互转化与生成,比如根据一张图片生成对应的语言描述。 上述的技术并不新鲜,在搜索引擎时代已经有了广泛应用,例如我们使用文字搜索与之相关的图片。其技术路线的关键是,将不同模态的原始数据映射到统一或相似语义空间当中,从而实现不同模态的信号之间的相互理解与对齐。 三、ChatGPT的缺陷 可以预见ChatGPT将会在社会生产和生活的方方面面发挥着重要的作用。所以我们要更加重视ChatGPT的缺陷以及可以预见的风险。 1、应用平民化,但建模贵族化 ChatGPT成本很高,导致“虽应用平民化,但建模贵族化”。从公开渠道可以获得如下信息:一是人员储备,300余名工程师;二是大模型,训练参数1750亿个,训练数据45TB;三是大算力,训练运算需要355块NVIDA高级显卡运行1年的运算量。总之,在AI应用平民化的同时,AI研究越来越贵族化。我个人觉得,未来在AGI这个基础领域中,作为AI的底层能力,可能只有中美两个国家有能力建设。 2、AI大而不便改,使得人去适应AI ChatGPT有1750亿个参数,这些参数以“某种方式”存储着人类的知识,这些参数的逻辑关系、相互依赖、学习过程等在技术上也尚未完全明确。这些参数的修改主要是靠训练,训练依赖的是昂贵的数据集,所以会产生“大而不便改”的缺陷。 所以,这可能会产生一个“反直觉”的问题:究竟是人去适应AI大模型,还是AI大模型去适应人。以人和手机为例,从客户体验角度看,好像是手机在适应人的操作,但本质却是人去适应手机技术的更新! 3、智能缺陷:感知智能而非决策智能 从前述ChatGPT的算法不难看出,通过文本语言等训练的模型,其智能类型是受限的,可见ChatGPT只不过是一种感知智能,是局限在文字语言领域的感知智能,不是决策智能,更不是计算智能。 智能缺陷就是ChatGPT的使用边界。作为风险老兵,在风险领域举例如下:例如,在金融机构中,ChatGPT不是决策智能,不宜用于风险决策;ChatGPT不是计算智能,不宜用于资本计量;ChatGPT是语言领域的感知智能,可以以文字助手的身份嵌入大部分和文本相关的工作。 4、技术缺陷:人工智能算法的固有缺陷 ChatGPT作为一种人工智能算法,无法避免传统的人工智能算法一些固有缺陷。 一是,算法黑箱。由于算法模型的黑箱运作机制,其运行规律和因果逻辑并不会显而易见地摆在用户面前。 二是,算法的鲁棒性。算法运行容易受到数据、模型、训练方法等因素干扰,出现非鲁棒特征。 三是,算法歧视。算法以数据为原料,如果初始使用的是有偏见的数据,无形中会导致生成的内容存在偏见或歧视,引发用户对于算法的公平性争议。 5、数据安全缺陷:多个环节存在合规问题 我们整体分析一下ChatGPT与用户数据交互的全过程以及存在的可能的风险与合规瑕疵。 一是,在个人信息收集阶段,当用户在使用ChatGPT时,可能会输入自己的个人数据,但《个人信息保护法》强调单独授权。 二是,在个人数据的加工使用阶段,ChatGPT使用了RLHF的训练方法,用户使用过程中的输入和交互信息可能会用于其持续迭代训练,进一步被用于为其他用户提供服务,可能构成数据共享,这时已与用户初最初使用目的相悖,根据《个人信息保护法》需要重新授权。 三是,训练数据的获取。ChatGPT如果通过抓取互联网上的信息获得训练数据,可能存在合规问题。 四是,数据泄漏。用户在使用过程中输入个信息,以及企业用户输入的各类工作相关信息,可能导致敏感信息泄露。 五是,算法缺陷导致数据主体行权困难。ChatGPT的算法黑箱与算法复杂性导致数据主体的基本权利,如更改权、删除权、访问权等行权困难。 四、ChatGPT应用的法律红线与合规底线 (一)法律红线 1、著作权 ChatGPT生成的文学作品、代码等存在着著作权归属不清的现实困境。其困难主要如下:我国现行知识产权法律体系均规定法律主体为享有权利、负有义务和承担责任的人。 2、帮助信息网络犯罪活动罪 所谓帮信罪,全称是帮助信息网络犯罪活动罪,被规定于我国《刑法》第287条之二中,指的是明知他人利用信息网络实施犯罪,为其犯罪提供互联网接入、服务器托管、网络存储、通讯传输等技术支持,或者提供广告推广、支付结算等帮助。 抛开法条中的“明知”二字,例如犯罪分子使用ChatGPT的文字生成功能,利用来自互联网的大量数据,可以生成极具说服力的钓鱼电子邮件或消息,冒充真实的人或者组织骗取他人信息。 3、拒不履行信息网络安全管理义务罪 ChatGPT的运营商,作为信息发布的网络内容服务提供者,需要履行信息网络安全管理义务。如果被监管部门要求责令整改,而ChatGPT的运营商无法提供有效的管理措施,致使违法信息大量传播的,则可能涉嫌拒不履行网络安全管理义务。而前文提及的ChatGPT“大而不便改”的缺陷,则加大了“运营商无法提供有效的管理措施”的可能性。 (二)合规底线 1、相关法规:技术与内容并重 我国已经形成由《网络信息内容生态治理规定》《网络数据安全管理条例(征求意见稿)》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定(征求意见稿)》等政策法规形成的法律体系,对 ChatGPT从技术角度和内容角度进行了约束。 2、行业自律:伦理先行 国家新一代人工智能治理专业委员会亦在2021年发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。《中国关于加强人工智能伦理治理的立场文件》中明确写到,人工智能治理应坚持伦理先行,通过制度建设、风险管控、协同共治等推进人工智能伦理监管;应加强自我约束,提高人工智能在研发过程中的算法安全与数据质量,减少偏见歧视;应提倡负责任使用人工智能,避免误用、滥用及恶用,加强公众宣传教育。 3、企业治理:积极履行社会职责 《关于加强互联网信息服务算法综合治理的指导意见》明确提出强化企业主体责任。所以,ChatGPT的供应商应构建完善的算法与模型的管理能力,切实防范发展过程中的各项风险。 九卦姐小茶馆新话题: 如何辨别职场焦虑?