azure authenticator azure 微软
热门文章
0
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
智通财经APP获悉,2月22日,受万科与Azure OpenAI合作落地消息影响,A股ChatGPT概念再度拉升,截至发稿,鸿博股份(002229.SZ)、奥拓电子(002587.SZ)涨停,拓尔思(300229.SZ)涨超8%,汉王科技(002362.SZ)、科大国创(300520.SZ)、新致软件(688590.SH)等股拉升上涨。 据微软(中国)公众号显示,2023年2月Azure OpenAI嵌入到万科风险预警平台。Azure OpenAI模型嵌入万科预警平台后,可利用GPT-3模型从大量舆情、投诉、突发事件数据中提取特征。经对比测试,Azure OpenAI嵌入万科预警平台后,基于GPT-3模型的自定义训练,契合了地产行业的特点,使投诉数据标签准确率相较此前又提升了5个百分点,达到业界领先水平。 整个人工智能、云计算领域乃至互联网行业,都意识到了CHATGPT的强大。微软Azure是OpenAI独家云服务提供商,依托微软Azure云平台强大的算力支持,以及Azure OpenAI宇宙最强的自然语言处理能力,帮助企业更好地实现数据管理,切实提升生产力。 券商人士表示,伴随着OpenAI技术与微软业务融合不断加深,大模型商业化落地进度有望加速。数字化浪潮席卷了时代的每一个人。万科与Azure OpenAI的合作只是一个开始,伴随着openAI技术与微软自身业务融合不断加深,更多AI功能嵌入到微软全线业务,GPT系列语言大模型的商业化落地进度有望持续加速,带动上下游生态快速成长丰富。
每日讯息!ChatGPT不是一天建成的:人类如何用66年实现今天的AI聊天?
每日讯息简报,每日车讯信息速递,每日资讯通,每日资讯是哪个平台・人工智能这一术语始于1956年的美国达特茅斯学院,经历几十年“三起三落”的发展阶段,有过“寒冬”,也有过“盛夏”:几次重大事件让一度归于沉寂的人工智能研究再次成为被广泛讨论的热门话题。ChatGPT的成功,源于以深度学习为代表的人工智能技术的长期积累。罗马不是一天建成的。当人工智能对话工具ChatGPT一夜之间成为顶流,在略显沉闷的科技界如闪电般发出炫目光芒后,它似乎点亮了指引投资界方向的明灯,一些商界人士的内心开始“骚动”。的确,这个成绩是史无前例的。ChatGPT是有史以来用户增长最快的互联网服务,推出仅两个月就获得了1亿用户。它被内置于微软的必应搜索引擎中,把谷歌顷刻间拉下神坛,正在促成搜索引擎自诞生以来的重大转折点。但ChatGPT绝非凭空而来。这款聊天机器人是多年来一系列大型语言模型中最完善的一个。梳理ChatGPT的简要历史就会发现,在其诞生前,有无数技术的迭代、理论的发展为它铺路。20世纪五六十年代:符号与亚符号人工智能人工智能这一术语始于1956年的美国达特茅斯学院,经历几十年“三起两落”的发展阶段,有过“寒冬”,也有过“盛夏”:几次重大事件让一度归于沉寂的人工智能研究再次成为被广泛讨论的热门话题。ChatGPT的成功,源于以深度学习为代表的人工智能技术的长期积累。1956年达特茅斯会议,约翰・麦卡锡、马文・明斯基、克劳德・香农、艾伦・纽厄尔、赫伯特・西蒙等科学家正聚在一起,讨论用机器来模仿人类学习以及其他方面的智能。这一年被誉为人工智能诞生元年。人工智能领域主要有两类,一类是符号人工智能(symbolic AI),另一类是以感知机为雏形的亚符号人工智能(subsymbolic AI)。前者的基本假设是智能问题可以归为“符号推理”过程,这一理论可追溯至计算机鼻祖、法国科学家帕斯卡和德国数学家莱布尼茨,真正体现这一思想的所谓智能机器,源于英国的查尔斯・巴贝奇(Charles Babbage)和艾伦・图灵(Alan Turing)的开创性工作。亚符号人工智能的出现归功于行为主义认知理论的崛起,其思想基础是“刺激-反应理论”。美国神经生理学家沃伦・麦克卡洛克(Warren McCulloch)、沃尔特・皮茨(Walter Pitts)提出神经元模型后,心理学家弗兰克・罗森布拉特(Frank Rosenblatt)提出了感知机模型,奠定了神经网络的基础。早期的神经网络技术秉承人工智能深度学习“逐层递进、层层抽象”的基本思想,出现了诸如MCP神经元、感知机和前馈神经网络等模型,它们通常由多个处理信息且相互连接的“神经元”组成,其灵感来自人脑中所连接神经元之间的信息交换。20世纪五六十年代,人工智能在符号演算和感知机两个方向上都陷入了停滞。在麻省理工学院和加州大学伯克利分校任教的休伯特・德雷福斯(Hubert Dreyfus )1965年发表《炼金术与人工智能》报告,将当时所进行的神经网络研究与历史上的炼金术相提并论,辛辣指出爬上树梢不等于攀登月球。1973年,“莱特希尔报告”对当时的符号主义人工智能提出批评,认为“迄今的发现尚未产生当时承诺的重大影响”,人工智能第一次跌入低谷。80年代兴起的专家系统和神经网络,也因为受制于计算能力和对智能的理解,并未获得实质性的突破,使得人工智能跌入了第二次低谷。但从80年代开始,一棵大树已经播种。20世纪八九十年代:递归神经网络理解和使用自然语言是人工智能面临的最大挑战之一。语言常常充满歧义,极度依赖语境,而且通常用语言沟通的各方需要具备大量共同的背景知识。与人工智能的其他领域一样,自然语言处理相关的研究在最初的几十年集中在符号化的、基于规则的方法上,并没有取得很好的效果。递归神经网络(Recurrent Neural Networks)改变了一切。ChatGPT是基于大型语言模型GPT-3的一个对话式版本,而语言模型是一种经过大量文本训练的神经网络。由于文本是通过不同长度的字母和单词序列组成,语言模型需要一种能够“理解”这类数据的神经网络,发明于20世纪80年代的递归神经网络可以处理单词序列。但有一个问题是,它们的训练速度很慢,而且可能会忘记序列中之前的单词。1997年,计算机科学家斯皮・哈切瑞特(Sepp Hochreiter)和尤尔根・斯成杜博(Jürgen Schmidhuber)通过发明长短期记忆(LSTM)网络解决了这个问题,这是一种具有特殊成分的循环神经网络,可以让输入序列中的过去的数据保留更长时间。LSTMs可以处理几百个单词长的文本字符串,但他们的语言技能有限。在人工智能处理自然语言出现重大突破前夕,神经网络和机器学习在2016年发生了一次“出圈”事件。谷歌公司的AlphaGo在各种围棋比赛中大获全胜,给全世界做了一次人工智能科普。DeepMind创始人之一沙恩・莱格(Shane Legg)认为,超越人类水平的人工智能将在2025年左右出现。谷歌公司战略委员会成员雷・库兹韦尔(Ray Kurzweil)则提出了令人震惊的“奇点理论”,认为2029年完全通过图灵测试的智能机器将会出现,以强人工智能为基础的智能爆炸将会在2045年出现。(资料图片)AlphaGo战胜李世石和柯洁。2017年:Transformer谷歌的一个研究团队发明了Transformer,这是一种神经网络,可以跟踪每个单词或短语在序列中出现的位置,从而实现了当今这一代大型语言模型背后的突破。单词的含义通常取决于前面或后面其他单词的含义。通过跟踪这些上下文信息,Transformer可以处理更长的文本字符串,并更准确地捕捉单词的含义。例如,“hot dog”在“Hot dogs should be given plenty of water(狗热了要多喝水)”和“Hot dogs should be eaten with mustard(热狗应该和芥末酱一起吃)”这两个句子中的含义截然不同。谷歌发布Transformer的那篇著名论文。Transformer能够同时并行进行数据计算和模型训练,训练时长更短,并且训练得出的模型可用语法解释,也就是模型具有可解释性。经过训练后,Transformer在包括翻译准确度、英语成分句法分析等各项评分上都达到了业内第一,成为当时最先进的深度学习模型。Transformer自诞生的那一刻起,就深刻地影响了接下来几年人工智能领域的发展轨迹。短短的几年里,该模型的影响已经遍布人工智能的各个领域――从各种各样的自然语言模型到预测蛋白质结构的AlphaFold2模型,用的都是它。2018年:GPT-1在Transformer诞生还不到一年的时候,人工智能研究机构OpenAI推出了具有1.17亿个参数的GPT-1模型,GPT是Generative Pre-training Transformer(生成式预训练Transformer)的缩写,即用大量数据训练的基于Transformer的模型。该公司希望开发多技能、通用的人工智能,并相信大型语言模型是实现这一目标的关键一步。GPT将Transformer与无监督学习相结合,这是一种根据事先未注释的数据训练机器学习模型的方法。这让软件可以自己找出数据中的模式,而无需被告知它在看什么。机器学习先前的许多成功都依赖于监督学习和注释数据,但手动标记数据是一项缓慢的工作,因此限制了可用于训练的数据集的大小。GPT最终训练所得的模型在问答、文本相似性评估、语义蕴含判定以及文本分类这四种语言场景,都取得了比基础Transformer模型更优的结果,成为了新的业内第一。为了创造通用人工智能,“你需要有数十亿美元的投资。”OpenAI LP的首席科学家Ilya Sutskever(左)2019年说。他与该公司当时的首席技术官Greg Brockman坐在一起。2019年:GPT-2微软向OpenAI投资了十亿美元。同年,OpenAI公布了具有15亿个参数的模型:GPT-2。该模型架构与GPT-1原理相同,主要区别是GPT-2的规模更大(10倍)。同时,他们发表了介绍这个模型的论文“Language Models are Unsupervised Multitask Learners” (语言模型是无监督的多任务学习者)。在这项工作中,他们使用了自己收集的以网页文字信息为主的新的数据集。不出意料,GPT-2模型刷新了大型语言模型在多项语言场景的评分纪录,引起了更大的轰动。但OpenAI称,他们非常担心人们会使用GPT-2“产生欺骗性的、有偏见的或辱骂性的语言”,因此不会发布完整的模型。2020年:GPT-3GPT-2令人印象深刻,但OpenAI的后续GPT-3引起了更大的反响,它实现了生成类人文本能力的巨大飞跃。GPT-3可以回答问题、总结文档、生成不同风格的故事,在英语、法语、西班牙语和日语之间进行翻译等。它的模仿能力不可思议。最显著的收获之一是,GPT-3的收益来自于现有技术的超大规模化,而不是发明新技术。 GPT-3有1750亿个参数,比前两款GPT模型要大得多:经过基础过滤的全网页爬虫数据集(4290亿个词符)、维基百科文章(30亿词符)、两个不同的书籍数据集(一共670亿词符)。它的模型架构与GPT-2没有本质区别。GPT-3面世时未提供广泛的用户交互界面,并且要求用户提交申请,申请批准后才能注册,所以直接体验过GPT-3模型的人并不多。早期测试结束后,OpenAI对GPT-3进行了商业化:付费用户可以通过应用程序接口(API)连上GPT-3,使用该模型完成所需语言任务。2020年9月,微软公司获得了GPT-3模型的独占许可,意味着微软可以独家接触到GPT-3的源代码。与此同时,上一代的缺点进一步被放大,谷歌的人工智能伦理团队联合主管蒂姆尼特・格布鲁(Timnit Gebru)与人合著了一篇论文,强调了与大型语言模型相关的潜在危害,但该论文不受公司内部高级经理的欢迎。2020年12月,格布鲁被解雇。2022年1月:InstructGPTGPT-3公测期间用户提供了大量的对话和提示语数据,而OpenAI内部的数据标记团队也生成了不少人工标记数据集。OpenAI用这些数据对GPT-3用监督式训练进行了微调,并收集了微调过的模型生成的答案样本,使用奖励模型和更多的标注过的数据继续优化微调过的语言模型,并且进行迭代,最终得到了InstructGPT。InstructGPT更善于遵循人的指示,并且产生更少的冒犯性语言、更少的错误信息和更少的整体错误。大型语言模型一个普遍的问题是,训练它们的成本,使得只有最富有的实验室才能创建一个。这引发了人们的担忧,即这种强大的人工智能是由小型企业团队秘密开发的,没有经过适当的审查,也没有更广泛的研究社区的投入。作为回应,一些合作项目开发了大型语言模型,并将它们免费发布给任何想要研究和改进该技术的研究人员。Meta构建并给出了OPT,这是GPT-3的重构。Hugging Face领导了一个由大约1000名志愿研究人员组成的联盟来构建和发布BLOOM。OpenAI工作人员和Dota 2电子竞技团队OG的成员一起拍照。2022年12月:ChatGPT最终,2022年12月,ChatGPT面世。与InstructGPT模型类似,ChatGPT是OpenAI对GPT-3模型微调后开发出来的对话机器人。OpenAI官网信息显示,ChatGPT与InstructGPT是姐妹模型。与InstructGPT一样,ChatGPT使用强化学习对人类测试人员的反馈进行了训练,这些测试人员对其表现进行了评分,使其成为流畅、准确且无害的对话者。从此以后,全球有1亿人在和它聊天。用户们在社交媒体上晒出来的对话例子表明,ChatGPT能完成包括写代码、代码改错、翻译文献、写小说、写商业文案、创作菜谱、做作业、评价作业等一系列常见文字输出型任务。ChatGPT比GPT-3更优秀的一点在于,前者在回答时更像是在与用户对话,而后者更善于产出长文章,欠缺口语化的表达。ChatGPT一夜走红之后,在全球引发了高度关注,有业内人士认为它将影响包括搜索引擎、广告业、教育行业等领域。2022年12月,谷歌内部发布红色警报,着手进行紧急应对。在接受《时代》专访时,ChatGPT回答道:我还有很多局限,但人类应准备好应对AI。
毫无疑问,OpenAI发布的ChatGPT已经席卷全球,并可能开创真正的AI驱动应用程序的新时代,这将远远超出我们以往所见。Salesforce将如何把这项技术集成到平台中呢?我们会持续关注!
毫无疑问deny,毫无疑问的说英语句型,毫无疑问的是翻译成英语,毫无疑问英文怎么读原标题:重磅!技ChatGPT后Salesforce将推出EinsteinGPT! 2月9日,Salesforce首席执行官Marc Benioff在Twitter上发布了这样一则推文,表示将于3月7日的TrailblazerDX '23上发布Salesforce EinsteinGPT,随后Salesforce的官方Twitter也进行了转发。 虽然还没有正式的新闻稿,但不少业内人士猜测,EinsteinGPT应该会专注于Sales Cloud,因为Marc Benioff推文中的“It generates leads, closes deals”。 Salesforce历史上的重大发展似乎颠覆了整个行业。在Dreamforce 2016上,Salesforce发布了Einstein。Einstein已经在所有Salesforce产品中得到开发,并允许所有Salesforce客户访问有关其平台和客户的最新见解。它为销售,服务和营销提供了先进的AI功能,允许开发人员使用其背后的Einstein引擎来构建应用程序。 仅在2016年,Salesforce就收购了10多家公司。这些公司的重点多为AI和预测分析,Einstein已经采用了这些技术。Einstein大概是最早一批关于AI模型的产品,直到ChatGPT的出现,向全世界展示了真正的AI模型的可能性。 Salesforce将于TrailblazerDX '23上发布EinsteinGPT,这是在Salesforce平台和OpenAI 的GPT模型之间的直接集成。 最近火热的ChatGPT,是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列任务。这款AI语言模型,让撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误都变得易如反掌。 自2016年的PokemonGO以来,还没有一项新技术发展得如此之快。ChatGPT打破了记录,成为了世界上访问量最大的网站之一,以及历史上增长最快的消费者应用程序,推出仅两个月就达到了1亿用户。 ChatGPT的风靡恰恰表明了世界一直在等待这种技术。此前,对于普罗大众而言,AI还没有太多有形的产品,人们无法感知人工智能和机器学习将如何影响未来的日常生活。 人工智能其实一直就在我们身边,例如聊天机器人、地图、Siri、Alexa。然而,这主要是专有技术,由应用程序公司秘密开发。OpenAI的使命是创建一个公共AI模型,为下一代开发者及其构建的应用提供支持。 OpenAI的GPT模型席卷了许多行业,Salesforce生态系统对ChatGPT将提供的可能性感到非常兴奋。 2022年11月30日ChatGPT测试版刚上线时,从业者们就意识到了ChatGPT可以生成Apex代码、Lightning页面、验证规则等。自最初发布以来,Salesforce专业人士一直在学习其他用例――从总结文本、生成模拟数据到撰写提案。 巧合的是,在Marc Benioff宣布集成的同一天,我们也看到了首批宣布与GPT集成的Salesforce ISVs的发布。PipeLaunch已经发布了测试版集成,这将把GPT模型绑定到其销售应用程序中,帮助销售用户生成潜在客户电子邮件。 返回搜狐,查看更多 责任编辑:
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。