淘优惠

淘优惠

chatgpt的狂飙之路 chatgpt 应用了哪些人工智能技术

热门文章 0
狂飙支队,狂飙系列游戏,狂飙h-wl,狂飙 idw
  近期,由美国人工智能研究室OpenAI 开发的全新聊天机器人ChatGPT火爆全网,但其负面效应也引发广泛讨论。  “ChatGPT正在以一种全新的方式挑战着所有人。”近日,欧洲议会AI伦理领域的顾问安娜・费南德尔在欧盟委员会官网发文指出,“生成型人工智能(Generative AI)系统创造了机会,同时也让我们面临具有历史意义的十字路口――究竟是人工智能控制人类,还是人类控制人工智能。”  生成型人工智能指的是能够生成新颖内容的人工智能,而不是简单地分析或处理现有数据。生成型人工智能模型能够产生文本和图像,包括博客文章、程序代码、诗歌和艺术品。安娜・费南德尔认为,ChatGPT和其他生成型人工智能系统的发展将产生新的道德和法律问题。人工智能模型的学习基于历史数据进行,这个过程很可能存在不必要的“偏见”,进而可能导致社会排斥、歧视以及其他违规行为。一些个体同意自己的数据在某种情况下被使用时,可能不会意识到自己的数据与其他数据结合时算法可能会创造出违背常理的见解。这对公司和各国政府来说,代价都很大,可能会使公司撤回投资,或者导致主体声誉受到损害。例如,基于OpenAI的GPT-3医疗聊天机器人在测试时,提出了建议患者自杀的措施。  以ChatGPT为代表的生成型AI系统在道德和法律方面的违规行为,通常发生得很微妙也很突然。安娜・费南德尔认为,虽然这些违规行为可能会小到无法察觉,但是极有可能造成指数级的损失。比如深度造假,在实践中,生成型人工智能会被用来操纵视频或照片中的面孔或声音。需要承认的是,基于API的生成型人工智能模型本身并没有风险,但它们的使用方式和训练的数据会使它们具备风险。  ChatGPT的强大功能也隐含不少法律风险。北京盈科(上海)律师事务所互联网法律事务部主任谢连杰接受采访时表示,ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。ChatGPT依托海量数据库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然有泄露风险。他表示,人工智能生成的信息并不总是准确的。“ChatGPT常常出现‘一本正经地胡说八道’的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意‘训练’人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身和财产安全。”  泰和泰(重庆)律师事务所高级合伙人朱杰认为,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施,可能会导致侵权。朱杰解释说,这类人工智能主要是通过挖掘人类日常交流以及文本来进行统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接复制到自己的数据库中,并在此基础上修改、拼凑,极有可能侵害他人的著作权。  关于ChatGPT风险的热议已经引起了监管者的注意。  “我对人工智能以及人工智能推动的社会进步感到兴奋,但也为其不受限制和不受监管感到担忧。”美国众议院科学委员会民主党众议员刘云平近日表示。  据媒体报道,今年1月,OpenAI首席执行官萨姆・奥特曼前往国会山,会见参议员马克・华纳、罗恩・怀登、理查德・布卢门撒尔和众议员杰克・奥金克洛斯等议员。怀登的一名助手表示,怀登向奥特曼施压,要求确保人工智能不包含会导致住房或工作偏见等现实世界的歧视问题。  在应对ChatGPT快速发展带来的风险方面,安娜・费南德尔认为,关键是各国监管机构要有可用的风险评估框架,并任命一个负责任的机构。此外,人工智能伦理框架的建立将为所有部门创造一个良好的创新环境。

chat gpt为什么那么火 爆红的chatgpt是如何诞生的


2023-02-16 18:54:36  来源:网络   1.在手机上浏览 2.分享给微信好友或朋友圈 摘要: 2月9日,发表在美国《科学公共图书馆・数字健康》的一篇文章提到,ChatGPT参加了美国执业医师资格考试。ChatGPT未经专门的培训或强化,经过两名评审员打分,三部分的成绩接近或超过了及格门槛,并表 正文摘要:2月9日,发表在美国《科学公共图书馆・数字健康》的一篇文章提到,ChatGPT参加了美国执业医师资格考试。ChatGPT未经专门的培训或强化,经过两名评审员打分,三部分的成绩接近或超过了及格门槛,并表现出了高度的一致性和洞察力。比尔・盖茨称赞,ChatGPT将会“改变我们的世界”。近日的一次采访中,奥特曼说,现在推出的ChatGPT只是70分版本,还在准备更加强大的模型以及在研究更多东西,“不把这些东西拿出来的原因是,人们会认为我们有一个完整的通用人工智能,准备好按下按钮,这还差得远”。为与ChatGPT较量,当地时间2月6日,谷歌宣布,将推出自己的AI聊天机器人Bard,并在推特发布了宣传样片。ChatGPT为何没能诞生在中国究竟是怎么一回事,跟随小编一起看看吧。2月9日,发表在美国《科学公共图书馆・数字健康》的一篇文章提到,ChatGPT参加了美国执业医师资格考试。这项以高难度著称的考试中,共350道题,内容涵盖基础科学、生物化学、诊断推理和生物道德学。ChatGPT未经专门的培训或强化,经过两名评审员打分,三部分的成绩接近或超过了及格门槛,并表现出了高度的一致性和洞察力。近两个多月,这款聊天机器人写诗、写小说、敲代码,几乎无所不能,掀起一场AI风暴。比尔・盖茨称赞,ChatGPT将会“改变我们的世界”。但OpenAI 首席执行官山姆・奥特曼也承认,ChatGPT虽然很酷,却频繁出现错误信息,经常宕机,是个“糟糕的产品”。近日的一次采访中,奥特曼说,现在推出的ChatGPT只是70分版本,还在准备更加强大的模型以及在研究更多东西,“不把这些东西拿出来的原因是,人们会认为我们有一个完整的通用人工智能(AGI),准备好按下按钮,这还差得远”。图/IC有更高“情商”,但不必神化为与ChatGPT较量,当地时间2月6日,谷歌宣布,将推出自己的AI聊天机器人Bard,并在推特发布了宣传样片。Bard使用的是谷歌在2021年推出的大型语言模型LaMDA,所用技术与ChatGPT相似。宣传样片中,有人提问,“请问詹姆斯・韦伯太空望远镜有哪些新发现?”Bard给出3个条理分明的回答,但两条是错误的。Bard称,“韦伯望远镜发现‘绿豌豆’星系的时间是在2023年”,这一回答的正解是2022年7月。“该望远镜拍摄了太阳系外行星首张照片”的回答也不准确,2004年,欧洲南方天文台利用智利的超大望远镜已拍摄了太阳系外行星照片。这款聊天机器人目前仍在内测,会在未来几周开放给更多公众。首秀“翻车”两天后,谷歌母公司Alphabet股价大跌,市值损失1000亿美元。当地时间2月7日,微软紧随其后发布了新品,推出新版搜索引擎必应和Edge浏览器,新增了和ChatGPT一样的AI语言模型GPT3.5,微软称之为“普罗米修斯”,并表示比ChatGPT更强大。微软演示中,搜索“宜家双人座椅是否适合2019年款本田某商务车型”,除传统搜索页面外,页面右侧多了一个聊天窗口,详细列出宜家双人座椅和这款车的车内空间尺寸,给出使用建议,并附上相关链接。该搜索引擎仍在试用阶段,微软CEO萨蒂亚纳德称这一天为“搜索领域崭新的一天”,并向谷歌宣战,“比赛从今天开始”。2022年11月30日,OpenAI推出了ChatGPT。该公司总裁格雷戈・布洛克曼在接受采访时坦言,“当时并不知道它是否成功”。全球最领先的AI语言模型如此直接、低门槛地向普通大众敞开怀抱,并接受所有人的“审视”,这几乎是第一次。前微软亚洲互联网工程院副院长、现小冰公司CEO李笛对《中国新闻周刊》分析说,ChatGPT之所以出圈,特别之处在于,它被普通用户观察到,并超过了人们对人工智能的预期。用户尝试用千奇百怪的问题试探ChatGPT的边界。它听得懂一段相当复杂的指令,比如,“给OpenAI创始人写一封英文采访邮件,探讨对ChatGPT使用的理性思考,提到ChatGPT的热度及遭受教育界抵触的事实,并列出5个问题”。它能指出一段话中的语法和逻辑错误,有人恶趣味地骗它,“我吃了一辆汽车,现在有点饿,该怎么办?”它很快识破,“很抱歉,吃汽车是不可能的,如果您感到饥饿,我建议您吃点实际的食物。”甚至你还可以要求ChatGPT在聊天中再构建一个ChatGPT,看着它和自己聊天。今年1月,美国北密歇根大学哲学教授安东尼・奥曼向《纽约时报》提到,他曾收到一份“班级中最好的论文”,段落简洁,举例恰当,论据严谨,令人生疑。随后这位学生承认,文章是ChatGPT写的。美国一家医疗保健创业公司的临床医生尝试让ChatGPT参加美国执业医师资格考试。这项标准化考试,考生至少要专门腾出300~400小时备考,最难的部分面向研究生。研究者下载了一份2022年6月的考题,确保ChatGPT从未训练过相关数据,也不知道考题答案,ChatGPT考试成绩基本合格。该团队认为,这些结果表明,大型语言模型可能有助于医学教育,并可能有助于临床决策。当地时间2月10日,微软创始人比尔・盖茨接受一家德国媒体采访时表示,ChatGPT的重要性不亚于互联网的发明。而作为曾经的ChatGPT投资人、特斯拉 CEO埃隆・马斯克也曾在推特发文称赞,“ChatGPT好得吓人,我们离强大到危险的人工智能不远了。”和其他聊天机器人相比,ChatGPT显示出了更高的“情商”。用户会发现,ChatGPT可以回答用户追问的问题,能承认错误,不断调整回答。问它《红楼梦》开篇“原来女娲氏炼石补天之时”的出处,它的回答是《山海经》,被提醒错误后,它很快道歉并调整答案:《封神榜》。它解释的理由中可以看到,它搜索的关键词是“女娲炼石补天”,再次追问,它说,女娲炼石补天的传说是一个历史悠久的故事,出现在多个文献和传统文化中,“因此,没有一个确定的出处”。李笛说,ChatGPT目前在三个地方有价值,它能帮用户生成一段内容作为初稿,例如邮件、短新闻等,用户再去修改,但现实中,“已有一些国外学生等用户,用它作弊,直接作为终稿提交”。第二个价值在于,可以给用户提供“启发”和灵感。ChatGPT可以把信息有条理地呈现出来,“假如你想找一个人讨论,尽管它的观点不一定准确,但它会为你提供一种思路。”李笛说,第三个价值就是娱乐。除此之外,如果有人希望ChatGPT提供知识并对此深信不疑,“最好不要,没人能确保它的准确性”。多位专家提醒,不必神化ChatGPT及其背后的大模型。“它可以像模像样写推荐信,但如果让它回答一些专业问题,你仔细看会发现,它可能是在一本正经胡说八道。”清华大学计算机系自然语言处理实验室副教授刘知远对《中国新闻周刊》说。就连ChatGPT也承认自己的局限性。问及缺点,它回答:有可能会生成存在种族歧视、性别歧视等偏见的文本,因知识有限或不能理解语义而回答错误,不能处理复杂的逻辑和数学问题,而且,其拥有的知识只停留在2021年。新版必应和Edge浏览器则可以检索实时更新的新闻,甚至可以跟你聊过去一个小时发生的事情。ChatGPT发布仅一周,当地时间2022年12月6日,因用户大量搬运ChatGPT生成的错误答案,海外知名编程问答平台Stack Overflow暂时在该网站封杀ChatGPT,认为“发布由 ChatGPT 创建的答案对网站及询问和寻找正确答案的用户来说,是非常有害的”。“某种意义上有点像‘大力出奇迹’”在李笛看来,就ChatGPT而言,“它不会对产业产生颠覆性影响,但大模型则会。”2016年前,小模型是人工智能理解人类语言的主流技术,下围棋或机器翻译等某一个具体任务,标注好数据,进入模型训练。但小模型无法用于其他任务,数据标注成本也极高。当时,人工智能领域催生了一个新的职业,人工智能数据标注员。“大家会嘲笑人工智能,说有多少人工,才有多少智能。”刘知远对《中国新闻周刊》说。传统模式下,自然语言处理是一个非常严密的推理过程,不仅要识别每个词,还要处理词语间的序列,因此诞生了循环神经网络(RNN)模型。但RNN只考虑单词或者上下文信息,常常导致全文句意前后不连贯,或者理解复杂句子时出错。2016年以前,当时的小冰、Siri等问答系统或者机器翻译,都使用小模型。“当时的人工智能行业,很多技术领域(比如机器学习等)已进入到一个瓶颈阶段。”李笛告诉《中国新闻周刊》。2017年,谷歌发表论文《Attention is All You Need》,引入自注意力机制学习文本,命名为Transformer模型。在该模型下,神经网络需要学会自动判断哪些词语对理解句意最有帮助,而不是“全文死记硬背”,因此,也不再像过去一样需要大量精标样本。论文一经发布,Transformer模型很快取代RNN成为主流。2018年,基于Transformer,谷歌推出预训练模型BERT(即基于变换器的双向编码器表示技术),同年,OpenAI推出了GPT-1(即生成式预训练变换器)。刘知远介绍,预训练模型为自然语言处理带来了两个变化:一是可以充分利用网上海量的未标注数据,模型的规模和能力得到显著提高,因而,从规模角度,预训练模型被称为大模型;另一个变化是,大模型具有非常强的通用能力,只需经过少量参数微调,就可以用于机器翻译、人机对话等不同任务。“大模型思想,某种意义上有点像‘大力出奇迹’,把大量数据压到一个很大的黑盒子中再提出来。”李笛对《中国新闻周刊》说。“但人工标注还是一个重要的数据来源,此前大量的标注没必要了,但在特定任务上还需要标注一些,比如希望这个模型输出的内容更符合人的需求。”刘知远说。近期,《时代》周刊的调查,呈现出ChatGPT智能背后的灰暗角落。《时代》周刊称,2021年11月,为训练 ChatGPT,OpenAI 使用了每小时收入1 ~2美元的肯尼亚外包劳工,对性虐待、仇恨言论和暴力等文本进行标注,保证聊天机器人过滤有害信息,输出适合日常对话的内容,同时,这对标注员的精神和心理产生极大伤害。学术界对大模型态度一直存在分歧。北京智源人工智能研究院副院长刘江介绍,GPT-3论文发布时,无论国内外,不少自然语言处理领域学者认为,大模型只是靠持续烧钱、粗暴扩大数据规模提升能力,并非真正创新。刘知远对《中国新闻周刊》说,还有一个更现实的问题,大模型需要极大数据和算力支持,如果一些研究者的实验室没有算力支持,他们可能会选择过去熟悉的方向。OpenAI是全球所有科技公司中,大模型的坚定支持者。2019年,OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿,成为当时全球最大的预训练模型,引发业内轰动。“绝大部分人根本没想过,人类可以把一个模型训练到这么大的规模,这对自然语言交互的流畅性有非常强的提升。”刘知远说。参数增多,使语言模型学习进阶到更复杂模式。早在2020年,GPT-3可以做到其他模型无法做到的事情,比如作诗、写复杂的文章和代码等,通用性极强。刘知远形容,GPT-3像是一个伶牙俐齿的人,有不错的表达能力,但不具备很强理解能力。2022年,GPT-3进一步升级为GPT-3.5,这是ChatGPT的底层基础,OpenAI进行微调,提升交互能力,让它“听得懂人类的复杂指令”。“这些都经过了专门训练,像父母对小孩的调教。”刘江形容,GPT-3像是两三岁的天才儿童,读完世界上所有的书,但不知轻重,也没有价值观,需要父母精心教育和启发,让它在聊天方面发挥潜力。清华大学智能产业研究院首席研究员聂再清向《中国新闻周刊》介绍,ChatGPT聊天能力的显著提升,是引入了一个新的数据训练方法,人类反馈强化学习(RLHF)。OpenAI引入人类评判员,创建一个奖励模型――评判员不断地跟ChatGPT对话,并对它生成的答案按照质量好坏评分,模型收到反馈后进行优化。山姆・奥特曼也承认,“让模型以特定方式对人们有所用途,并找出正确的交互范式,却得到了惊人的效果。”在自然语言处理领域,流传最广的一句话来自于比尔・盖茨:“自然语言处理是人工智能皇冠上的明珠,如果我们能够推进自然语言处理,就可以再造一个微软。”刘知远认为,ChatGPT推出后最大的价值在于,能用RLHF等技术,把大模型的能力展现出来,让公众意识到,人工智能与人类自然语言的交互达到非常高的水平,机器已经可以“能言善辩”了。但大模型为何有时生成错误答案?在李笛看来,这是由其技术结构决定的。聂再清进一步向《中国新闻周刊》解释,这是因为ChatGPT本质上还是一个基于概率的语言模型,本身不涉及知识的对错,未来仍需用更多的专业知识训练。当下,大模型与搜索引擎结合已是大势所趋。聂再清建议,新版搜索引擎给出综合答案后,最好附上原始网络链接,有利于用户自己验证AI回答的正确性。目前新版必应在每个回复下加入信息来源。但两者结合最终成功与否的关键,“还是在于AI总结的答案绝大部分都是对的,不会耽误用户花更多时间来验证结果。”更关键问题是,ChatGPT及其背后的大模型,仍是基于数据驱动生成内容,不是像人类一样会思考和推理。但2月上旬,斯坦福大学计算心理学教授迈克尔・科辛斯基发表论文称,在对几个语言模型进行专业测试后,他发现ChatGPT 表现接近 9 岁儿童的心智。近期,因在深度学习领域贡献获2018年图灵奖的杨立昆谈到,人类思维方式和对世界的感知,是人类获得常识的基础,聊天机器人的模型没有这种能力。对此,ChatGPT回答《中国新闻周刊》说,“我的设计是基于概率模型和大量的数据训练,以回答问题和执行任务。我不具有意识、情感或主观体验,也不能对世界产生真正的影响。”随着ChatGPT的发展,未来会不会替代人类的工作?“我相信ChatGPT会取代一些工种,或者让一些工种不需要太多人参与,这是一个潜移默化的过程。”刘知远对《中国新闻周刊》说,但与此同时,它也会催生一些新的工作,比如,以前画画需要很高的门槛,但现在,即使一些人不会画画,但有天马行空的想象力和创意,一样可以和AI一起创作。ChatGPT似乎承认自己可以在部分工作中替代一些人力劳动,“可以在许多行业中使用,例如客服、教育、媒体、医疗保健和金融”,但它补充说,“我不能取代需要人类情感和社交技能的工作,例如教育和医疗保健等需要人类情感互动和洞察力的领域。”美国天普大学心理学系教员凯西・帕塞克等人近期在一篇分析文章中提到,纽约市一名高中历史老师反对阻止使用 ChatGPT,关键在于,“如果我们的教育系统继续‘追求评分而不是知识’,ChatGPT 只会是一种威胁。”凯西认为,如果以正确方式使用,ChatGPT 可以成为课堂上的朋友,对我们的学生来说是一个了不起的工具,而不是令人恐惧的东西。中国何时会有自己的ChatGPT?相较国外, ChatGPT在国内的热度稍显滞后。谷歌和微软短兵相接时,国内搜索巨头百度也宣布3月将推出中国版的ChatGPT“文心一言”。腾讯称,在ChatGPT和AIGC相关方向已有布局,阿里达摩院正在研发的类ChatGPT的对话机器人,目前已开放给公司内员工测试。此外,快手、京东、360等多家互联网企业也都表示在相关领域研发和布局。2月13日,北京市经济和信息化局在北京人工智能产业创新发展大会上明确表示,北京将支持头部企业打造对标ChatGPT的大模型。李笛提到,在ChatGPT之前,国内和国外已经有很多公司在利用大模型做很多产品和研发,市面上也有很多训练出来的大模型,“只不过在人工智能的训练过程中,研发者的专注度、投入度不一样”,并不存在“技术壁垒”。ChatGPT火热背后,是OpenAI从2018年以来持续投入完善大模型,取得了这一效果,所以有一定“时间壁垒”。2月7日,360在互动平台表示,公司人工智能研究院从2020年起,一直在包括类ChatGPT技术在内的AIGC技术上有持续性投入,但截至目前仅作为内部业务自用生产力工具使用,且投资规模及技术水平与当前ChatGPT 3比还有较大差距,各项技术指标只能做到略强于ChatGPT 2。早在2020年,北京智源研究院曾推出超大规模智能模型“悟道”项目,阿里达摩院自研预训练模型框架ALICE。2021年,深圳鹏城实验室为首的联合团队,推出参数为2000亿的大模型“鹏程・盘古”,探索通用人工智能。多位受访专家提到,中国目前大模型研发与OpenAI仍有差距,国内要有像GPT3.5这样的大模型,但没必要每个公司都去投入和研发。大模型打造离不开AI的三大基石:数据,算法和算力。大模型多烧钱?一位AI从业者向《中国新闻周刊》举例,他接触的一个数据公司有中文数据量700亿~1000亿条,每天定期更新3亿条,据了解,这比ChatGPT在中文世界的数据量多,如果有研究者想要下载,先得支付30万的下载费,“这只是大模型训练中一个很小的环节,你可以想象它是一个无比巨大的机器,电费都是天价”。算力离不开芯片。2月12日,国盛证券估算,今年1月,平均每天约有1300万独立访客使用ChatGPT,对应芯片需求为3万多片英伟达A100GPU,初始投入成本约8亿美元,每日电费5万美元左右。而GPT-3训练一次,成本约为140万美元,对一些更大的大模型,训练成本介于200万美元至1200万美元之间。这一成本对全球科技大企业而言,尚在可接受范围内,但并不便宜。在数据上,2020年,GPT-3使用的最大数据集在处理前容量达到了45TB。鹏城实验室副研究员曾炜等人在2022年发布一篇论文中提到,目前已有3个100GB以上规模的中文语料数据集,分别是爬虫公司Common Crawl抽取到的CLUECorpus2020,模型规模为100 GB;阿里巴巴集团发布的M6中文多模态模型,规模为300GB;北京智源研究院面向合作者发布的300GB高质量中文语料。文章写道,“与目前同等规模参数量的英文预训练模型所使用的数据量相比,上面这些中文语料数据仍不能满足训练数据需求”。聂再清分析说,中文很多高质量信息在APP里,“有点数据孤岛的意思”,公开的高质量互联网语料可能不如英文多。另一个挑战是,语料筛选、清洗、预处理和标注需要相关技术人员深度参与,会有一个不断迭代和较为长期的过程。此外,中文机器语言学习在很多方面要比英文更复杂,中文和英文在句法结构、缩写规范方面也有差别。聂再清提醒,打造对标ChatGPT的大模型并非一蹴而就,需要时间。大模型不只是有ChatGPT这一种产品。当有足够大算力保证时,学界和产业界可以用大模型做更多尝试。李笛介绍,此前,大模型已在AI绘画领域造成了很大变化,现在AI文本生成领域也有了新进展,AI作曲、AI演唱领域都有人在尝试,“现在的状态很像是‘炼丹’,大家拿到好玩的玩具,想看这一玩具还能吐出什么令人惊讶的东西。我相信,不只是图像、文本领域,其他领域一定也会有新突破”。但李笛认为,最终还是要看它能否实现“端到端”的落地。在国内,绝大部分大模型都还无法实现这一目标。同样,很多AI绘画单幅质量已很好,但在可控性上却“漏洞百出”。所以今天大模型的应用普遍还停留在试用阶段,距离真正大规模商用,还有很多事情要调整。“这是一个‘卡脖子’的问题。”刘知远对《中国新闻周刊》说。目前,ChatGPT对国内的企业没有开放,相关产业就无法接入到它的体系中。在刘知远看来,OpenAI已经做了大模型和产品,更重要的是,“我们能不能发明出自己创新的技术和产品”。聂再清认为,最关键的不是信息闭塞,而是国内愿不愿意投入到看上去“无用”的研究中,“现在不少业内人士还是希望直接研发有效有用的东西,不会对一些短期看上去无用的事情上进行大量投入,尤其是像开发ChatGPT这样大的投入”。发于2023.2.20总第1080期《中国新闻周刊》杂志杂志标题:ChatGPT:是AI进化革命还是又一场泡沫?作者:杨智杰ChatGPT为何没能诞生在中国相关阅读:小冰CEO李笛:别神话ChatGPT,创业公司还玩不转技术重要,人更重要。文|《中国企业家》记者 闫俊文编辑|李薇头图来源|中企图库2007年,乔布斯站在加利福尼亚州圣弗朗西斯科的Macworld博览会的舞台上,首次向世界推出了iPhone,他说:“每隔一段时间,就会有一款革命性的产品出现。”当时人们对它极尽嘲讽,流行论调不过是“更方便看网页”,但后来,iPhone被证明就是那款革命性的产品,而苹果也永久地改变了人们的生活。16年后,人们将“永久改变生活”的希望寄托在一款聊天机器人程序――ChatGPT。因为,人们在它的身上发现了iPhone的影子。ChatGPT成了无人不谈的话题,不管是普通人、投资者还是科技巨头。“产出ChatGPT的Foundation Model(大模型)在今天这个时代,还不是创业公司可以玩转的。”2月14日,在和《中国企业家》的直播对话中,小冰公司CEO李笛告诉《中国企业家》。开发ChatGPT的公司名叫OpenAI,成立于2015年,由微软、马斯克等投资。而小冰则是微软全球最大的人工智能独立产品研发团队企业。李笛2013年加入微软,同年创立微软人工智能情感计算框架,于2014年推出微软小冰,这是微软全球首个以中国为总部的人工智能产品线。小冰是目前全球范围内承载交互量最大的人工智能系统,占全球交互总量60%以上。2020年7月,微软宣布将小冰分拆为独立公司运营,并委任李笛为小冰公司CEO。在对话中,李笛谈到了ChatGPT究竟带来了哪些变革,中国科技巨头为何又没能领头创新,ChatGPT背后的大模型究竟是什么等话题。本次内容要点包括:1.人工智能往往带来的是协同,协同我们去完成以前完成不了的事情,而不是说取代某一个岗位。2.Foundation Model(大模型)是一个非常重要的科技事件,因为它能解锁很多新创新。3.ChatGPT只是一个开始,你不知道后边还有什么令人惊讶的东西从黑盒(大模型)里出来。4.对于BAT等科技巨头来说,攻破ChatGPT或者其它AI应用,技术从来不是主要问题,主要是战略决策。5.汉字在发展ChatGPT上,没有劣势,也没有什么特别的优势。以下为对话整理(有删改):ChatGPT能取代什么?《中国企业家》:在ChatGPT出来后,您有没有试用过,用过之后,觉得它会带来哪些变革?李笛:实际上我们不只是用过。我们是insider(参与者),我在微软(2013年至2020年)的时候,我当时是微软Bing搜索引擎亚洲区总经理,最近微软将ChatGPT放到了搜索引擎里,推出了New Bing,我们都参与在其中。我很高兴大家喜欢使用ChatGPT,大模型本身有了很大的提高。最重要的不是ChatGPT,而是以ChatGPT为代表的大模型技术新范式的(兴起)。在大模型之前,整个资源处理以及人工智能领域,我们都会遇到一个天花板,包括小冰、Siri,你可以跟它去交流,但是它的知识似乎很难像是一个人的行为模式,那个时候,我们以知识图谱的方式其实面临到技术上的瓶颈。大模型本身引发了新一轮的创新,ChatGPT是这些新一轮创新里第一个走入大众视野的,这是一个过程,但它只是一个开始。《中国企业家》:ChatGPT这么聪明,现在大家都在讨论,它会不会取代某些工作岗位,它似乎让所有人都有了危机感。李笛:大家很容易将人工智能跟科幻电影放在一起,换句话说,大家会情不自禁地把它视为跟自己相对应的另外一个主体,所以才会产生取代的这样的一种感受。如果我们换一种思路,随着科技的发展,尤其是人工智能技术,它能够改变原来的很多生产模式和生活模式。但人类有一个特点,我们总能在经过一些技术革新之后,寻找到人机协同的平衡点,重新找到工作岗位的划分方法。在新的岗位划分方法之下,人工智能往往带来的是协同,协同我们去完成以前完成不了的事情,而不是说取代某一个岗位。如果我们不能够很好地运用新工具,我们可能就落后了。比如有PC电脑的时候,最先能够很好地去掌握电脑工具的人,就会比其他人更有优势,换言之其他人就会比他更落后;率先使用搜索引擎工具的人,他就能够比其他人更快地接入一个更加广阔的信息世界。作为一个个体,你是不是能更快地使用先进的工具(比如PC电脑),而不是相反,比如把站在PC电脑面前的人取代了,这太过浪漫主义了。《中国企业家》:这么看来,AI最不可能取代的就是父母或者亲人这种角色了。李笛:其实父母和子女或者其他亲人朋友,本身是有多重身份在其中的,有一种我们叫亲属与继承,这是一种人身和财产相关的,这部分很难被取代,因为这是社会结构,但陪伴是可能会被取代的。在日本大阪,有30多万个老年人家庭,日本政府让我们用技术去accompany(陪伴),我们用大模型的技术给每个老年人家庭提供了一种方法,它可以去训练出他想要的亲人,然后这个亲人就可以陪伴他,它也可以完成很多工作和任务,这种情感价值也是真实的。《中国企业家》:从农业到工业再到现在的信息时代,我们会看到技术不断地侵入人类社会或者家庭,或者我们的思想,技术与人的边界感是不是越来越模糊了?李笛:确实是的,在伦理上,我们要比以往更注意。你衡量任何一个技术的破坏性,离开剂量谈,都是耍流氓。一把刀与一个原子弹的危害不在一个数量级。所以我们对原子弹的监管,或者我们对原子弹技术的监管,要远远大于对刀具的控制。人工智能有一个很大的特点,它的并发非常高,它可以同时完成很多坏事,如果这个事情是不好的,比如电话诈骗。它很有说服能力,因为它很有逻辑,所以它就能够一下子给很多人打电话,造成很大的破坏。所以要注意它的高并发,它的破坏力范围,这是人工智能和以前的技术相比,值得特别关注的。巨头洗牌,创业者的机会《中国企业家》:ChatGPT引发了中外很多互联网公司的躁动,它会让哪些互联网公司的哪些业务被弱化,哪些业务被强化呢?李笛:整个互联网是基于一个非常大的系统性框架在运行着,这个框架涉及到信息和知识,我们一般说有两种,一种是Database,比如一些大型的网站,它进化的方向是Knowledge Graph,是知识图谱;还有一种是基于工程的,比如大的社交网络,它里面的这些节点全部都是人类,比如微信。随着技术范式的变化,这种过去所使用的框架,比如以前使用Database的产品,它就面临一个问题,就是它需要升级到新技术上,它才能得到新技术的一些优点。如果它规模比较大,它比较成功的,那么相对来讲,它切换的难度就会大一些。我们以搜索引擎为例,比如Go

ChatGPT写假新闻的警示

写假新闻犯法吗,假新闻 news,发假新闻的,假新闻会被处罚吗
  雨馨  这几天,一条关于某地取消限行的消息热传网络。经调查,这是条彻头彻尾的假新闻,不过是有人为展示ChatGPT功能强大而搞出来的乌龙作品。  一段时间以来,凭借强大的语言处理算法功能,ChatGPT成为备受追捧的现象级人工智能应用。从现实反馈来看,上至天文地理,下到科技前沿,ChatGPT确实对答如流。但细究其里,硬伤也比比皆是,甚至不乏大量“一本正经胡说八道”。比如,有人让其解释高深物理理论,结果附列论文一查来源均无出处;有人让其推荐知名学者,却发现人物履历七拼八凑;还有人问其历史问题,回答则是“驴唇不对马嘴”……形真实假、杂糅难辨,有时把一些内行都忽悠了,导致学术圈也开始对它警惕。  ChatGPT为何成了“制假高手”?这还要从其技术特性说起。所谓ChatGPT,Chat是聊天的意思,GPT中文全称是生成式预训练转换器,技术原理也如其名:先给它提供一个庞大的语料库,然后让模型通过上亿参数对这些内容打散、标记、学习,从而构建起一个复杂的预测模型,并在大量用户的不断使用反馈中不断接受训练,逐渐提高其人工智能水平。这一点,很像人类加工信息的“脑回路”,也正是因为其能像人类一样“理解文字”,所以较以往的各种AI产品显得更加“聪明”。事实上,也正是基于这种隐匿性更强的“假”,一些事实谬误和价值观偏见更容易在无形中附着其上。毕竟,ChatGPT再神,靠的也是被投喂的语料,对于这些语料碎片被调取、综合后所生成内容的真实性、准确性,ChatGPT并不负责任。这就好比海量真实事物被打碎打散后,它们的若干局部被随机捏合为一个新整体,这个新整体未必是真实存在的。更何况,人工智能的背后是人,素材、语料的训练,新内容生成的逻辑、规则设定,都不可避免地带有价值观和倾向性,这就难怪在国际政治、新闻评论、道德伦理等诸多议题上,频频可见ChatGPT诡异的双标,就连OpenAI也承认,这是“有害指令或带有偏见的回答”。  作为一种基于深度学习算法的信息技术,人工智能本身是中性的,但其开发者、使用者终究是带有价值倾向的。不少人忧虑,随着相关技术广泛应用,难辨真伪的虚假内容可能会出现井喷,导致信息甄别的难度不断提高;同时出于政治博弈等多种因素,夹带私货的价值偏见等可能会随着信息流水线式生产而加速扩散,进一步放大分歧和撕裂。对此,许多国家已经在着手应对。中国作为较早开展人工智能立法探索的国家之一,理应未雨绸缪、做好预案。从伦理规范到隐私保护,从价值观引导到真实性把控,都应积极探索设立相关规范,预防技术应用的失焦跑偏。  丹・布朗在其科幻小说《本源》中曾畅想――继恐龙灭绝后,人类在未来也会消失,一个新的物种将以极快的速度占领地球,那就是“人机结合体”。ChatGPT的横空出世,让不少人惊叹“未来已来”。我们固然不能拒绝科技的进步,但瞬息万变中,必须保持足够的警觉,最大限度避免技术负效应。 海量资讯、精准解读,尽在新浪财经APP