openai创始人谈chatgpt openai chatgpt算力
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
・这项服务被称为ChatGPT Plus,起价为每月20美元,与基本级别的ChatGPT相比提供了许多好处,响应速度更快,并能优先获得新功能和改进。
・据报道,微软正努力在未来几周将ChatGPT的更快版本(被称为GPT-4)纳入必应。
付费版服务被称为ChatGPT Plus,起价为每月20美元。
人工智能实验室OpenAI 2月1日为其聊天产品ChatGPT推出新的试点订阅计划,旨在将已经成为病毒式现象的ChatGPT热潮“货币化”。这种人工智能文本生成工具可以写出令人信服的类似人类的文章、诗歌、电子邮件、歌词等,上线几天就获得了100万用户。
另据新兴数字媒体Semafor 2月1日报道,微软正努力在未来几周内将更快版本的ChatGPT纳入必应(Bing),此举将使该搜索引擎对谷歌更具竞争力。另外,OpenAI正计划在未来推出一个移动ChatGPT应用程序。
目前只对美国用户开放
OpenAI说,这项服务被称为ChatGPT Plus,起价为每月20美元,与基本级别的ChatGPT相比提供了许多好处,包括即使在高峰期也能顺畅使用ChatGPT,响应速度更快,并能优先获得新功能和改进。
免费的ChatGPT将继续存在。ChatGPT Plus目前只对美国的用户开放。OpenAI表示,将在未来几个月内邀请等待名单上的人,并希望“很快”将Plus扩展到其他国家和地区。
“我们推出ChatGPT作为研究预览,以便我们能够更多地了解该系统的优点和缺点,并收集用户反馈,帮助我们改进其局限性。”OpenAI在一篇博客文章中写道,“从那时起,数百万人给了我们反馈,我们做了几个重要的更新,我们看到用户在一系列专业用例中发现了价值,包括起草和编辑内容、头脑风暴、协助编程和学习新课题。”
OpenAI暗示,ChatGPT Plus可能是未来几个计划中的第一个。该公司在博客文章中说,除了API(应用程序编程接口)之外,它还在“积极探索”低成本计划、商业计划和数据包的选项。
“我们热爱我们的免费用户,并将继续提供ChatGPT的免费访问。通过提供这种订阅价格,我们将能够帮助支持尽可能多的人获得免费访问。”该公司继续说,“我们计划根据你们的反馈和需求来完善和扩大这项服务。”
OpenAI在1月初提到了ChatGPT Plus的推出,宣布它“开始考虑如何使ChatGPT货币化”,并公布了一项调查,概述了“ChatGPT专业版”计划的定价和功能。然后,几周前,一些ChatGPT用户报告说,他们被授予了每月42美元的专业级别权限。
尽管存在争议和几次禁令,ChatGPT已被证明是OpenAI的胜利,吸引了主要媒体的关注,并在社交媒体上产生了无数的讨论。截至去年12月初,ChatGPT拥有超过100万用户,无论从哪个角度看,这都是令人羡慕的用户群。但这是一项价格昂贵的服务。据OpenAI联合创始人兼首席执行官山姆・奥特曼(Sam Altman)称,ChatGPT的运营费用“令人瞠目结舌”。
Dall-E计划测试人工智能生成视频
在获得微软数十亿美元的投资后,OpenAI正面临着在ChatGPT等产品上实现盈利的压力。消息人士去年12月透露,OpenAI预期在2023年能赚到2亿美元,与迄今为止对这家初创公司投资的10多亿美元相比,这只是一个小数目。
根据Semafor的报道,微软正努力在未来几周将ChatGPT的更快版本(被称为GPT-4)纳入必应。知情人士称,ChatGPT和GPT-4的主要区别在于速度。虽然ChatGPT有时需要几分钟才能形成响应,但据说GPT-4在回复查询方面要快得多,也更详细、更人性化。
ChatGPT被纳入微软产品的计划,预计将引发互联网搜索的新竞争,目前这个领域主要由谷歌主导。通过使用GPT-4,必应将能够为用户提供类似人性化的答案,而不仅仅是显示链接列表。
微软拒绝置评,OpenAI没有回应媒体的评论请求。
Semafor的报道称,OpenAI还计划在未来推出一款移动ChatGPT应用程序。由于目前只有ChatGPT的网络版本,引入移动版本将使OpenAI能够通过使软件更易于访问来扩展ChatGPT的用户群。
此外,该公司计划在其流行的图像生成软件Dall-E中测试一项新功能,该功能将使用人工智能生成视频。
此前有传言称,除了准备在必应中集成ChatGPT,微软还将把OpenAI的语言AI技术引入Word、PowerPoint和Outlook等应用程序中。
微软上周通过“多年期数十亿美元”投资扩大了与OpenAI的合作关系。微软首席执行官萨蒂亚・纳德拉( Satya Nadella)最近还告诉《华尔街日报》,微软计划将OpenAI的基础系统作为商业平台提供,以便任何行业的任何实体都可以在此基础上再接再厉。
在一篇博客文章中,微软表示,它计划投资部署专门的超级计算系统,以加快OpenAI的人工智能研究,并将OpenAI的人工智能系统与其产品集成,同时“引入新类别的数字体验”。
据CNBC 1月31日报道,谷歌公司正在使用其LaMDA技术测试类似ChatGPT的产品,并研究整合聊天机器人的新搜索页面设计。(详见澎湃科技报道 《谷歌在测多款类ChatGPT:“学徒巴德”可答新近事件,拟推新搜索页面》返回搜狐,查看更多
责任编辑:
ai自动生成图像描述 ai多选图稿
ai自动生成文章,ai自动生成3d模型,ai自动生成ppt,ai自动生成绘画网站IT之家 9 月 29 日消息,OpenAI 已经取消了访问其文本生成图像系统 DALL-E 2 的等待名单,这意味着任何人都可以立即注册使用这个人工智能艺术生成器。
该公司在 2021 年 1 月发布了初代 DALL-E,该工具以其将任何文本描述转化为独特图像的能力给人工智能专家和公众留下了深刻印象。之后又出现了其它一些文本生产图像的系统,并且速度和质量也可与 DALL-E 媲美。
从科技巨头微软获得大量资金的 OpenAI,对公开发布 DALL-E 一直持谨慎态度。专家指出,文本生产图像系统产生未经同意的裸体和逼真图像的能力具有潜在的破坏性,成为骚扰、鼓吹、错误信息的素材。
OpenAI 已经采取了一些措施来消除这些影响,包括从其训练数据中过滤掉性和暴力图像,并拒绝根据类似的明确提示生成图像。然而,该公司也因一些人认为的过度限制性或笨拙的减轻伤害的方法而受到批评。
还有人批评该公司试图解决偏见的做法像黑客,例如,DALL-E 无形地将“黑人”和“亚洲女性”等短语插入没有指定性别或种族的用户文本描述中,以促使系统避免生成白人的图像(OpenAI 向 The Verge 证实他们使用了这种方法),这确实减轻了 DALL-E 输出图像中的偏见,但一些用户注意到它也创造了不需要的图像,与他们的指令不符。
在今天的博文中,OpenAI 说他们对其安全系统的改进感到满意,“在过去的几个月里,我们已经使我们的过滤器在拒绝生成性、暴力和其它违反我们内容政策的内容的尝试方面更加强大,并建立新的检测和响应技术来阻止滥用。”
该公司还说,他们正在测试 DALL-E 的 API,允许公司使用该系统的输出开发自己的应用程序和插件。这将使 OpenAI 更容易将 DALL-E 的产出商业化,例如,有可能将该系统与插画师和设计师使用的工具相结合。
IT之家了解到,任何注册访问 DALL-E 的人都将免费获得 50 个点数,此后每月可再获得 15 个点数,每个点数可用于生成一张图片,点数可以购买,115 个售价 15 美元(约 107.85 元人民币)。OpenAI 称,大约 150 万 DALL-E 用户每天生成超过 200 万张图像。
OpenAI新发现:GPT-3做小学数学题能得55分,验证胜过微调!
openai和chatGPT什么关系,openai services are not available,openai 百度百科,openai为什么在中国用不了作者:吴彤
现在小学数学题有多难?小学生拍图上传作题App找不到现成答案,稍微变换下题设语句,就要买会员换人工答题。
一时间小学生纷纷成了“氪金玩家”。
即便是题目换汤不换药,讲题APP还是罢了工。如果有一款能听懂大白话的作题软件能有多好!
近日,OpenAI训练了一个新系统,可解决小学数学题,称其提升了GPT-3的逻辑推理问题。
自去年6月11日以来,OpenAI公布GPT-3语言模型,GPT-3成为OpenAI的旗舰语言生成算法,参数规模达1750亿,在文本生成上与人类写作相媲美。
三个月后,OpenAI 又推出用于数学问题的 GPT-f,利用基于 Transformer 语言模型的生成能力进行自动定理证明。
时至今日,GPT-3的能力依据被冠以“大力出奇迹”,光凭解答小学程度的几道数学题,就能盖过对OpenAI的质疑声吗?
论文地址:https://arxiv.org/pdf/2110.14168.pdf
数据集地址:https://github.com/openai/grade-school-math
其中涉及一大难点:GPT-3真的懂逻辑吗?即便是数学语言不同于大白话,但依旧涉及很多逻辑关系,一步错步步错。
为此,OpenAI 基于四个设计原则创建了 GSM8K 数据集供GPT-3反复训练,即数据集为高质量、高多样性、中等难度和自然语言的答题形式。
GSM8K 数据集由 8.5K 个高质量小学数学应用题组成,每个问题需要 2 到 8 步解决,涉及到加减乘除整合运算,难度近乎9-12岁的小学数学题。
结果发现,60亿参数的GPT-3采用“新方法”,准确率直接翻倍!甚至追平了拥有1750亿参数,采用微调方法的GPT-3模型。
新方法挑战比自己高30倍的大参数模型,力证参数并非越大越好,这一新方法是什么?
训练验证器:从错误中学习的模型
像GPT-3这样的大型语言模型有许多惊人的技能,包括模仿多种写作风格,自动编程、自然对话、语义搜索等。然而,它们很难完成需要精确的多步骤推理的任务,比如解决小学数学应用题。
「小明每半小时喝一瓶水。一个普通的数独难题要花他45分钟。一个极难的数独需要4倍的时间。做一道极难的数独的时间他喝了多少瓶水?」
在这样的数学题中,GPT-3要匹配人类在复杂逻辑领域中的表现,一味提高参数,是解决办法的长远之策吗?
并不!OpenAI在新方法中提到,为什么不让模型学会识别自己的错误呢?从许多候选的解决方案中选择出最佳方案!
为此,OpenAI训练了验证器(verifier),来评估所提出的解决方案是否正确。可比通过更新模型参数,最小化所有训练token的交叉熵损失的方法要多一个思路。
增加一个“验证”模块,通过反复试错,学习,再计算,原先微调无法解决的GPT-3逻辑推理能力,在新方法中得到进步。
对于两种思路,OpenAI通过新的GSM8K数据集来测试两种方法:
高质量:GSM8K中的问题都是人工设计的,避免了错误问题的出现。
高多样性:GSM8K中的问题都被设计得相对独特,避免了来自相同语言模板或仅在表面细节上有差异的问题。
中等难度:GSM8K中的问题分布对大型SOTA语言模型是有挑战的,但又不是完全难以解决的。这些问题不需要超出早期代数水平的概念,而且绝大多数问题都可以在不明确定义变量的情况下得到解决。
自然语言解决方案:GSM8K中的解决方案是以自然语言而不是纯数学表达式的形式编写的。模型由此生成的解决方案也可以更容易被人理解。此外,OpenAI也期望它能阐明大型语言模型内部独白的特性。
GSM8K中的三个问题示例,红色为计算的注释
在GSM8K数据集上,OpenAI测试了新方法验证(verification)和基线方法微调(fine-tuning)生成的答案。
即4种不同的解决方案:6B微调、6B 验证、175B 微调和 175B 验证。
在性能展示中,OpenAI提供了十个数学题实例,其中一个是的解决方案如下:
小明种了 5 棵树。他每年从每棵树上收集 6 个柠檬。他十年能得到多少柠檬?
175B 验证正确
175B 微调错误
6B 验证正确
6B微调正确
很明显,验证方法(verification)比基线方法微调(fine-tuning)在回答数学应用题上有了很大的提升。
在完整的训练集上,采用「验证」方法的60亿参数模型,会略微优于采用「微调」的1750亿参数模型!
但大模型也不是一无是处,采用「验证」的1750亿参数模型还是比采用「验证」方法的60亿参数模型学习速度更快,只需要更少的训练问题,就能超过微调基线。
OpenAI发现,只要数据集足够大,大模型就能从「验证」中获得强大的性能提升。
但是,对于太小的数据集,验证器会通过记忆训练集中的答案而过度拟合,而不是学习基本的数学推理这种更有用的属性。
所以,根据目前的结果进行推断,「验证」似乎可以更有效地扩展到额外的数据。
大模型毕竟有大模型的优势,如果之后能够用大模型+验证的方式,将会使得模型性能再上一个level !
新方法是如何验证的
验证器训练时,只训练解决方案是否达到正确的最终答案,将其标记为正确或不正确。但是在实践中,一些解决方案会使用有缺陷的推理得出正确的最终答案,从而导致误报。
现在的验证器具体训练方法分为三步走:
先把模型的「生成器」在训练集上进行2个epoch的微调。
从生成器中为每个训练问题抽取100个解答,并将每个解答标记为正确或不正确。
在数据集上,验证器再训练单个epoch。
生成器只训练2个epoch是因为2个epoch的训练就足够学习这个领域的基本技能了。如果采用更长时间的训练,生成的解决方案会过度拟合。
测试时,解决一个新问题,首先要生成100个候选解决方案,然后由验证器打分,排名最高的解决方案会被最后选中。
训练验证器既可以在全部的生成解决方案里进行单个标量预测(single scalar prediction),也可以在解决方案的每个 token 后进行单个标量预测,OpenAI 选择后者,即训练验证器在每个 token 之后进行预测。
如下图所示,它们分别标记为“解决方案级别”和“token 级别”。
在b图中,通过消融实验验证训练验证器中使用目标(objective)的作用, OpenAI 将使用两个目标与仅使用验证目标进行比较。
在c图中,OpenAI 对生成器和验证器的大小进行了实验,研究发现使用大的生成器、小的验证器组合性能显著优于小的生成器、大的验证器组合。
写在最后
通过OpenAI所展现出的10个数学实例是看出,使用验证方法比单纯扩大参数要更加智能,但缺点是并不稳定。比如在另一个问题实例中,仅有175B验证模型输出正确结果:小明是一所私立学校的院长,他有一个班。小红是一所公立学校的院长,他有两个班,每个班的人数是小明班级人数120人的1/8。问两所学校的总人数是多少?
AI发展道阻且长,目前绝大多数的机器学习仍依赖于数据堆砌,缺乏根本性的技术突破,存在一定的发展瓶颈。Google 工程总监 Ray Kurzweil 曾在采访中表示,直到 2029 年,人类才有超过 50% 的概率打造出 AGI 系统,还有一部分专家表示至少要到2099年或2200年。
现下,通过在一些简单的领域试验新路径,识别和避免机器学习的错误是推动模型发展的关键方法,比如这种简单的小学数学题。最终当我们试图将模型应用到逻辑上更复杂的领域时,那些不被了解的黑箱子将变得越来越透明。
https://openai.com/blog/grade-school-math/
https://zhuanlan.zhihu.com/p/427877874