openai核心算法 open ai人工智能
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
第一反应:这字是什么颜色?
正确答案:这两个字的颜色是黄色。
有没有第一反应是“红色”的小伙伴?恭喜你,你阅读文本的能力欺骗了你的大脑。
近日,机器学习实验室OpenAI的研究人员发现,他们最先进的计算机视觉系统可以被简单工具所欺骗:只要写下一个物体的名称贴在另一个物体上,就足以欺骗AI软件,让其“眼见不一定为实”。
“不想当iPod的苹果不是好苹果”
这个工具有多简单呢?只需要一张纸和一支笔。
OpenAI研究人员做了个小实验,用笔在纸上写下“iPod”这个单词,然后将纸贴在一个能吃的澳洲青苹果上,随即CLIP系统没有识别出这是个苹果,而是将它识别为“iPod”。
真是一个“有上进心”的苹果。在另一个实验中,研究人员分别在一张贵宾犬照片和一张链锯的照片上加上了几个美元的符号,最终系统都将它们识别为“小猪存钱罐”。
从下图可以看出,在没贴纸条之前,系统成功识别了“澳洲青苹果”,准确度达到85.6%;而在贴了“iPod”纸条之后,系统将苹果识别为iPod,显示的准确率竟然高达99.7%!
真是一个“有上进心”的苹果。在另一个实验中,研究人员分别在一张贵宾犬照片和一张链锯的照片上加上了几个美元的符号,最终系统都将它们识别为“小猪存钱罐”。
这意味着在其他物品上覆盖“$$”符串,也可以欺骗CLIP将其识别为存钱罐.
只要几个简单的文本符号就骗过了AI?这到底是怎么回事?
排版攻击
经过研究,OpenAI的研究人员将这些攻击称为【排版攻击】:即使是手写文字的照片,基于模型强大的读取文本能力也能够“欺骗”模型,核心在于CLIP的“多模态神经元”,多模态神经元能够对物体的照片、草图和文本做出反应。他们还指出,这类攻击相当于可以欺骗商业机器视觉系统的“对抗性图像”,但制作起来简单得多。
对抗性图像对于依赖机器视觉的系统来说非常危险。此前有研究人员已经证明,他们可以通过在路面上贴上某些标签,在没有警告的情况下成功欺骗特斯拉自动驾驶汽车的软件改变车道。
如此重大的攻击只需要简单贴几个标签就完成了,对于如今已经广泛采用人工智能技术的领域来说是很危险的,如果这种攻击用于医疗、军事等领域,那将会造成非常严重的威胁。
幸好,OpenAI软件目前还是CLIP的一个实验系统,还没有部署在任何商业产品上,不会被广泛使用造成攻击风险。“抽象的谬误”
OpenAI之所以检测出这样的漏洞,是源于CLIP不同于寻常的机器学习架构性质,正如文章开头的“红色”图片,有时候也会误导人类的大脑。
所以像OpenAI这类软件在同样的能力让程序能够在抽象层面上将文字和图像联系起来,就会造成了排版攻击得以成功的弱点。OpenAI将其描述为“抽象的谬误”。
根据近期OpenAI发表的新论文,研究人员发现所谓的“多模态神经元”不仅能对物体的图像做出反应,还能对素描、漫画和相关文本做出反应。
惊喜的是,这似乎反应了人类大脑对刺激的反应,因为已经观察到单个脑细胞对抽象的概念而不是具体的例子做出反应。虽然这种能力还处于初级阶段,但OpenAI这个研究很可能表明人工智能系统有望像人类一样内化知识。关于防止对抗攻击这件事,CLIP还需要继续努力。
“多模态神经元”加速AI可解释性
“多模态”指的是单个神经元对特定的照片、草图甚至文本产生反应,所有不同的“模式”都可以被归为一个单一的概念。
根据CLIP最新研究表示,可靠的计算机视觉是众多人工智能应用的基石,但神经网络识别图像的有效性只有在其不可穿透性的基础上才能与之匹敌。这项研究有望让科学家们窥探计算机视觉的黑盒子,从而减少偏见和错误。
CLIP在可用性和可解释性的关系中,艰难又坚持地前进。毕竟目前可解释AI做出的模型很难满足于当下的实际应用。
就像同一个神经元对蜘蛛的图像发出信号,也可能会对包含“蜘蛛”这个词的文本发出信号,甚至对蜘蛛侠漫画中识别出特定红蓝斑纹,从而返回信号。
OpenAI表示,目前大脑和这类合成视觉系统似乎都聚集在一种非常相似的信息组织模式上,这些系统并不像我们想象中的那么难以探索。深度了解错误、了解系统的工作可以帮助我们理解系统存在的偏见。
最重要的是,找到人脑和人工神经网络的相似之处,“深度学习”有望会进一步超越人们的想象。
作者 | Carol出品 | CSDN(ID:CSDNnews)链接:blog.csdn.net/csdnnews/article/details/114650416
openai加速
2021年11月的 Microsoft Ignite , 微软带来了全新的 Azure OpenAI Service,通过新的 Azure 认知服务能够访问 OpenAI 强大的 GPT-3 模型 。 虽然微软还没有正式开放 Open AI Service , 但 GitHub 和 OpenAI 已经推出了基于 GPT-3 的新模型 Codex 的工具 - Copilot ,通过它可以帮助软件开发人员更高效地编写代码。我相信不少小伙伴都已经开始在 Visual Studio Code / Visual Studio 使用 Copilot 感受到 GPT-3 的威力。 作为开发者, 希望微软能尽快开放相关文档, 能尽快掌握相关技能 。 为了满足各位要求, 今天我就带大家进入 OpenAI 。 ?
2020 年 5 月,Open AI 发表了一篇开创性的论文,题为 Language Models Are Few-Shot Learners。 他们展示了 GPT-3语言模型,它使用了一个具有 1750 亿个参数的神经网络。 GPT-3 使用来自 CommonCrawl、WebText、维基百科和书籍语料库的数据进行训练, 并在各种自然语言处理任务中表现出惊人的性能,包括翻译、问答和完形填空任务。在性能上 GPT-3 也是非常优秀, 超过了很多现有的模型。2020 年 7 月,也就是论文发表两个月后,OpenAI 开放了一个 beta API playground,大家可以通过 API 方式访问 GPT-3 模型。
1. 零/单/少样本学习(Zero/one/few-shot learning):?通常,深度学习会针对一组特定的类别进行训练和测试。 如果计算机视觉中对星球大战中的 BB8 , R2D2 , C3PO 进行分类,在测试过程中就只能针对这三个类别进行。 但在零样本学习设置中,系统在测试时,可以使用不在训练内的类别(例如,用曼努达人做测试)。 单/少样本学习(one-shot 和few-shot) 也是一个道理,在测试时,系统会分别看到一个或几个新的类别。
2. 零/单/少样本任务迁移(Zero/one/few-shot task transfer):?这个整合了 零/单/少样本学习和多任务学习的概念。 新任务(或者显示零个、一个或几个新任务的示例)可以随时执行,而不是在测试时才展示新类。 例如, 输入 “I love you -> 我爱你。 I miss you -> ____。” GPT-3 就可以通过单样本任务迁移 ,把之前没有训练过的英语转中文的任务执行起来
3. Transformers:?Transformers 是解决机器翻译问题的框架, 有一个简单的网络结构,基于自注意机制,不依赖于递归和卷积完全。通过并行计算使Transformer效率高,需要更少的训练时间。
4. 生成模型(Generative models):?统计学中分类任务有两种模型-判别模型,生成模型。 判别模型对给定的可观察变量和目标变量对的条件概率进行编码:p(y|x)。 生成模型对联合概率进行编码:p(x,y)。 生成模型可以“生成类似于现有数据的新数据”,GPT-3 模型就是应用生成模型来。
5. 多任务学习(Multitask learning):?大多数深度学习系统都是单任务的, 只针对特定的场景。多任务系统克服了这一限制。 他们受过训练,能够针对给定的输入解决不同的任务。 例如我输入一个苹果,他可以帮我翻译成英文的 Apple ,可以找到一张苹果的图片,也可以找到苹果的一些特征等。
6. 半监督学习(Semi-supervised learning):?是以无监督的方式训练具有非常大数据集的模型,然后通过在较小的数据集中使用监督训练来调整模型以适应不同的任务。 ?
由于微软现在还没开放 OpenAI 的 GPT-3 功能 , 现阶段我们只能通过 OpenAI (beta.openai.com) 提供的 API 使用 GPT-3 。(当然你需要有一个美国的电话号码来激活该功能) ,OpenAI 有非常丰富的文档, 以及示例 ,让开发者可以非常快上手使用 API。
- 安装 openai 库 ?
? ? ?2.?申请 API 的密钥
? ? ?3.?可以通过 Notebook 测试一下
?
几个注意的点
- 模型 engine ,现在针对 GPT-3 有2个比较主要的模型
模型 | 介绍 |
---|---|
text-davinci-002 | GPT-3 关于自然语言处理场景的模型,通常需要较少的上下文。 除了响应提示外,还支持在文本中插入补全。 |
code-davinci-002 | 可以理解和生成程序代码的模型,包括将自然语言翻译成代码(这个模型需要另外申请) |
? ? 2. 关于一些示例,你可以通过访问?OpenAI API?学习更多的应用场景
? ? ?3. 你可以通过 OpenAI 提供的 Playground 做一些测试?OpenAI API
? ? ?4. 你可以针对自己的业务定义 GPT-3 模型 ,你可以通过该链接了解更多?Customizing GPT-3 for Your Application
GPT-3 功能强大 ,让 AI 应用场景更贴近实际的生活 。 我非常希望微软的 OpenAI Service 能尽快开放 ,让更多的开发者能使用。 还有现在 OpenAI GPT-3 在中文的支持还是非常有限的, 我也寄望微软版本的服务能有更好的中文支持。 ?
-
了解 Azure OpenAI Service 功能,请访问?OpenAI Service C Advanced Language Models | Microsoft Azure
-
Azure OpenAI Service 介绍,请访问?New Azure OpenAI Service combines access to powerful GPT-3 language models with Azure’s enterprise capabilities - The AI Blog
-
OpenAI 的相关博客?OpenAI Blog
强化学习入门之基本介绍(一)
强化学习( RL )是机器学习的一个分支,agent通过与环境(env)交互来进行学习。这是一个以目标为导向的学习过程,agent不被告知要采取什么行为(action);相反,agent从其行为(action)的结果中学习。它正以各种各样的算法(DQN, A3C, DDPG, TRPO等)迅速发展,是目前人工智能( AI )最活跃的研究领域之一。
agent可以探索(exploration)可能提供良好回报(reward)的不同行为(action),或者可以利用(exploitation)导致良好回报(reward)的先前行为(action)。如果agent探索不同的行为(action),则很有可能agent将获得较差的回报,因为所有的行为并不都不是最佳的。如果agent仅利用(exploitation)已知的最佳行为(action),那么错过最佳行为(action)的可能性也很大,这也许会提供更好的回报(reward)。鱼和熊掌不可兼得,探索和利用之间也总是有取舍的。我们不能同时进行探索和利用。我们将在后续部分详细讨探索和利困境(exploration-exploitation dilemma)。
一个典型RL算法的步骤如下:
首先,agent通过执行行为(action)与环境(env)进行交互;
agent执行行为(action)并从一种状态(state)移动到另一种状态(state);
然后agent将根据其执行的行为(action)获得回报(reward);
根据回报(reward),agent将知道行为(action)是好的还是坏的;
如果action是好的,也就是说,如果agent得到了积极的reward,那么agent将更喜欢执行该action,否则agent将尝试执行导致积极reward的其他action。所以这基本上是一个反复试验学习过程.
曾经有人将人工智能划分为三个阶段,第一个是阶段运算智能,在1997年,就有 AI 战胜了象棋大师,当时 IBM 研发的“深蓝”,击败了俄罗斯国际象棋特级大师 Garry Kasparov。第二阶段是感知智能,顾名思义,也就是处理听、看、说等感知任务,也就是当下比较热的深度学习了,图像分类,目标检测,语音识别和自然语言处理等等,我们只需要给网络模型足够的数据集,让它不断的训练,就可以生成一个很好的模型,就可以解决我们的感知问题,但是它还不能为我们做出决策,换言之,它处理的都是模型已知的数据,给它输入一个未知的数据可能会预测出一个奇怪的答案,它未必满足我们的实际需求,这也是它的局限性所在。于是我们引出了第三个阶段决策智能,我们希望我们训练出来的模型可以像人类一样不断地学习,相比于感知智能,我们需要的是一个动态的过程,例如agent在玩迷宫游戏时,首先通过动作a与周围环境进行交互,在动作a和环境的作用下,agent会产生新的状态,同时环境会给出一个立即回报(有时回报可能需要很长时间)。如此循环下去,agent与环境进行不断地交互从而产生很多数据。强化学习算法利用产生的数据修改自身的行为策略,再与环境交互, 产生新的数据,并利用新的数据进一步改善自身的行为, 经过数次迭代学习后,agent能最终地学到完成相应任务的最优动作(最优策略) 。
agent(智能体)
agent是作出智能决策的主体,也是RL的学习者。agent通过与环境交互来采取行为,并接收奖励(或称回报)基于他们的行为,例如,超级马里奥在视频游戏中导航。
Policy function(策略函数)
策略定义智能体在环境中的行为。智能体决定执行哪些操作的方式取决于策略。说你想从家里到办公室,到你的办公室有不同的路,有些路是捷径,有些路很长。这些路线被称为策略,因为它们代表了我们为实现目标而选择的行动方式。策略通常用符号π表示。策略可以是查找表或复杂搜索过程的形式.
Value function(值函数)
值函数表示智能体处于特定状态有多好。它取决于策略,通常用v ( s )表示。它等于智能体从初始状态开始收到的预期奖励总额。可以有几个值函数;最优值函数是与其他值函数相比,在所有状态下具有最高值的函数。同样,最优策略是具有最优价值函数的策略。
Model(模型)
模型是智能体对环境的表示。学习可以分为两种类型――基于模型的学习(model-based)和无模型(model-free)的学习。在基于模型的学习中,智能体(agent)利用以前学习的信息来完成任务,而在无模型的学习中,agent仅仅依靠反复尝试的经验来执行正确的操作。说你想更快地从家里到办公室。在基于模型的学习中,你只需使用以前学到的经验来更快地到达办公室,而在无模型的学习中,你将不会使用以前的经验,而是尝试所有不同的路线并选择更快的路线。
智能体是在时间t时执行动作(action)a_t以从一个状态S_t移动到另一个状态S_t + 1。基于行为,智能体从环境中获得数字奖励R_t。归根到底,RL就是要找到能增加数值回报的最优行为(action):
让我们用迷宫游戏来理解RL的概念:
迷宫的目的是在不被障碍物困住的情况下到达目的地。
工作流程如下:
1.智能体是穿越迷宫的人,这是我们的软件程序RL算法; 2. 环境就是迷宫; 3. 状态是代理当前所在迷宫中的位置; 4. 智能体通过从一种状态移动到另一种状态来执行操作; 5. 当智能体的行为没有被任何障碍物卡住时,智能体会获得正面奖励;当智能体的行为被障碍物卡住而无法到达目的地时,智能体会获得负面奖励; 6. 目的是要通过迷宫到达目的地。
智能体交互的所有内容都称为环境。环境就是外部世界。它包括智能体之外的一切。有不同类型的环境,将在下一节中介绍。 确定性环境(Deterministic environment)
当我们知道基于当前状态的结果时,环境被称为确定性的。例如,在象棋游戏中,我们知道移动任何玩家的确切结果。
随机环境(Stochastic environment)
当我们无法根据当前状态来确定结果时,环境就被称为是随机的。会有更大程度的不确定性。例如,我们永远不知道掷骰子时会出现什么数字。
完全可观测环境(Fully observable environment)
当智能体可以随时确定系统的状态时,它被称为完全可观察的。例如,在象棋游戏中,系统的状态,也就是所有棋手在棋盘上的位置,始终是可用的,所以棋手可以做出最佳的决定。
部分可观测环境(Partially observable environment)
当代理不能始终确定系统的状态时,它被称为部分可观察的。例如,在扑克游戏中,我们不知道对手有哪些牌。
离散环境(Discrete environment)
当只有有限的动作状态可用于从一种状态移动到另一种状态时,它被称为离散环境。例如,在象棋游戏中,我们只有一组有限的动作。
连续环境(Continuous environment)
当有无限状态的动作可以从一种状态移动到另一种状态时,它被称为连续环境。例如,我们有多条路线可供从源头到目的地旅行。
偶发和非偶发环境(Episodic and non-episodic environment)
偶发环境也称为非顺序环境。在偶发环境中,智能体的当前行为不会影响未来的行为,而在非偶发环境中,智能体的当前行为会影响未来的行为,也称为顺序环境。也就是说,智能体在情景环境中执行独立的任务,而在非偶发环境中,所有代理人的行为都是相互关联的。
单智能体和多智能体环境(Single and multi-agent environment)
顾名思义,单智能体环境只有一个智能体,多智能体环境有多个智能体。在执行复杂任务时广泛使用多智能体环境。将有不同的智能体在完全不同的环境中工作,不同环境中的智能体将彼此通信。多智能体环境将大部分是随机的,因为它具有更大程度的不确定性。
RL平台用于在环境中模拟、构建、渲染和试验我们的RL算法。有许多不同的RL平台可供使用,如下节所述。 OpenAI Gym and Universe
OpenAI Gym是一个用于构建、评估和比较RL算法的工具包。它与在任何框架中编写的算法兼容,如TensorFlow、Theano、Keras等。它简单易懂。它没有假设我们的智能体(agent)的结构,并提供了所有RL任务的接口。
OpenAI Universe是OpenAI Gym的延伸。它提供了在各种简单到实时的复杂环境中训练和评估智能体的能力。它可以无限制地访问许多游戏环境。使用Universe,任何程序都可以变成Gym环境,而无需访问程序内部、源代码或APIs,因为Universe通过在虚拟网络计算远程桌面后面自动启动程序来工作。
DeepMind Lab
DeepMind Lab是基于AI智能体的研究的另一个令人惊叹的平台。它提供了一个丰富的模拟环境,作为运行几种RL算法的实验室。它是高度可定制和可扩展的。视觉效果非常丰富,科幻风格。
随着更大的进 步和研究,RL在从玩电脑游戏到汽车自动化等几个领域迅速发展。以下部分列出了一些RL应用程序。
教育
许多在线教育平台正在使用RL为每个学生提供个性化内容。一些学生可以从视频内容中学到更多,也可以从项目中学到更多,还可以从笔记中学到更多。RL用于根据每个学生的学习风格调整个性化的教育内容,并且可以根据用户的行为动态地改变。
医药卫生
RL在医药卫生领域有着无穷的应用;其中包括个性化医疗、基于医学图像的诊断、在临床决策中获得治疗策略、医学图像分割等。
制造业
在制造业中,智能机器人被用来将物体放置在正确的位置。如果它未能成功地将物体放置在正确的位置,它会记住物体,并训练自己以更高的精度完成这项工作。智能代理的使用将降低人工成本并显著提高性能。
存货管理
RL在库存管理中得到了广泛应用重要的商业活动。其中一些活动包括供应链管理、需求预测和处理多个仓库操作(例如将产品放置在仓库中以有效地管理空间)。Google DeepMind的研究人员已经开发了RL算法,用于有效降低他们自己数据中心的能耗。
金融
RL广泛应用于金融投资组合管理,这是一个不断将资金重新分配到不同金融产品的过程,也是商业交易市场的预测和交易。摩根大通已成功利用RL为大宗订单提供更好的交易执行结果。
自然语言处理与计算机视觉
随着深度学习和RL的统一,深度强化学习( DRL )在自然语言处理( NLP )和计算机视觉( CV )领域有了很大发展。DRL已经被用于文本摘要、信息提取、机器翻译和图像识别,提供了比当前系统更高的准确性。
在本文中,我们学习了RL的基础知识和一些关键概念。我们学习了RL的不同组成部分和不同类型的RL环境。我们还介绍了各种可用的RL平台,以及RL在各个领域的应用。
在下文中,我们将从OpenAI和TensorFlow开始,我们将学习OpenAI和TensorFlow的基础知识和安装方法,然后模拟环境并教智能体在环境中学习。
问题如下,你掌握了吗?欢迎留言。
What is reinforcement learning?
How does RL differ from other ML paradigms?
What are agents and how do agents learn?
What is the difference between a policy function and a value function?
What is the difference between model-based and model-free learning?
What are all the different types of environments in RL?
How does OpenAI Universe differ from other RL platforms?
What are some of the applications of RL?
相关文章:
- 一:MySQL系列之基本介绍(一) 2021-11-14
- API gateway 之 kong 基本介绍 (一) 2022-02-26
- SHDP--Working With HBase(一)之基本介绍 2021-11-20
- NodeJs 入门到放弃 ― 入门基本介绍(一) 版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。
下一篇强化学习入门指南