淘优惠

淘优惠

faceswap 激活虚拟环境 open ai 申请教程

热门文章 0
faceswap,faceswaplive安卓版,faceswap安装教程,faceswap和deepfacelab

机器学习本质上涉及大量的试验和错误,让一个程序尝试数百万种不同的设置,经过不断的试错,最终形成一个算法,该算法可以完成你想要它做的事情。这个过程真的很慢,除非你有可以加速试错训练所需的硬件【GPU显卡】。

训练过程所执行的计算类型非常适合GPU图形卡,而不是常规的CPU处理器。需要在支持桌面或服务器的 GPU 上运行训练过程。在 CPU 上运行它,意味着训练模型可能需要数周时间,而在 GPU 上则需要几个小时。

强大的CPU中央处理器

  • 笔记本电脑CPU通常可以运行软件,但速度非常慢,无法以合理的速度进行训练。

强大的GPU显卡

  • 目前,几乎完美支持任何型号的Nvidia[英伟达]GPU显卡,AMD显卡则仅支持部分型号。
  • 如果使用 Nvidia GPU,那么它至少需要支持 CUDA 计算能力 3.5。(版本 1.0 将适用于计算功能 3.0) 要查看您的 GPU 支持哪个版本,请参阅此列表:  最有可能支持高于 7xx 系列的台式机卡。
  • Windows 10| 完美兼容
  • Windows 7 和 8 可能有效
  • 所有操作系统必须是 64 位(不然无法运行Tensorflow)

在当前的迭代中,该项目严重依赖命令行的使用,尽管可以使用 GUI。 如果您不熟悉命令行工具,则可能在设置环境时遇到困难,因此可能不应尝试本指南中描述的任何步骤。本指南假定您具有命令行的中级知识。

开发人员也不对您可能对自己的计算机造成的任何损坏负责。

Windows现在都有一个exe安装程序,可以为您安装所有内容,并创建一个桌面快捷方式以直接启动到GUI中。您可以从  下载安装程序。

如果您在使用安装程序时遇到问题,请继续阅读,了解在Windows上安装faceswap的更多手动方法。

对于新用户来说,设置面部交换似乎有点吓人,但它并不复杂,尽管有点耗时。建议尽可能使用Linux,因为Windows将占用大约20%的GPU内存,使faceswap运行速度稍慢,但是使用Windows是完全可以的,并且100%支持。

从以下位置下载并安装最新的Python 3 Anaconda: 

下载并安装 Git for Windows: 。除非您知道自己在做什么,否则可以将所有选项保留为默认值。

重新启动您的 PC,以便您刚刚安装的所有内容都得到注册。

设置虚拟环境

  • 打开Python导航器
  • 选择左侧的“环境”
  • 选择底部的“创建”
  • 在弹出窗口中:
    • 给它起个名字:换脸
    • 重要提示:选择 python 版本 3.8
    • 点击“创建”(注意:这可能需要一段时间,因为它需要下载Python)

Fine-tuning Approaches -- OpenAI GPT 学习笔记

finette纷丽,finetune翻译,finetest,finetime翻译

从语言模型转移学习的一个趋势是,在监督的下游任务中相同模型的微调之前,一个语言模型目标上预训练一些模型体系结构。这些方法的优点是几乎没有什么参数需要从头学习。至少部分由于这一优势,OpenAI GPT在GLUE benchmark的许多句子级别任务上取得了以前最先进的结果。

微调是必须非常精确地调整模型参数以适应某些观察的过程。在没有已知机制来解释为什么参数恰好具有它们返回的观察值的情况下,需要微调的理论被认为是有问题的。

该方法主要结合了Transfromer和无监督预训练。

主要分为两个阶段: (1)首先以无监督的方式在大型数据集上训练一个 Transformer,即使用语言建模作为训练信号。 (2)然后在小得多的有监督数据集上精调模型以解决具体任务。

这一项研究任务建立在Semi-supervised Sequence Learning论文中所提出的方法,该方法展示了如何通过无监督预训练的 LSTM 与有监督的精调提升文本分类性能。这一项研究还扩展了论文Universal Language Model Fine-tuning for Text Classification所提出的 ULMFiT 方法,它展示了单个与数据集无关的 LSTM 语言模型如何进行精调以在各种文本分类数据集上获得当前最优的性能。

OpenAI 的研究工作展示了如何使用基于 Transformer 的模型,并在精调后能适应于除文本分类外其它更多的任务,例如常识推理、语义相似性和阅读理解。

该方法与 ELMo 相似但更加通用,ELMo 同样也结合了预训练,但需要使用为任务定制的架构以在各种任务中取得当前顶尖的性能。

OpenAI 只需要很少的调整就能实现最后的结果。所有数据集都使用单一的前向语言模型,且不使用任何集成方法,超参配置也与大多数研究成果相同。

附录: Transformer详解


gan对抗网络怎么学 gan网络基础框架

gan对抗网络有哪些应用场景,gan对抗网络框架,gan对抗网络 进化演化,gan对抗网络生成简单图形

GAN

Ian Goodfellow 在 NIPS 2016 上的 tutorial 演讲依旧是聊他的代表作生成对抗网络(GAN/Generative Adversarial Networks),毕竟 Ian 就是「对抗生成网络之父」。这两年,他每到大会就会讲 GAN,并且每次都会有一些新的干货,当然这次也不例外。

可以说,这几年在机器学习领域最亮最火最耀眼的新思想就是生成对抗网络了。这一思想不光催生了很多篇理论论文,也带来了层出不穷的实际应用。Yann LeCun 本人也曾毫不吝啬地称赞过:这是这几年最棒的想法!

大家都知道,LeCun 是无监督学习的头号号召者。生成对抗网络这种靠数据和模型自己的内部对抗来实现无监督学习的模型正好给人工智能的自我学习能力带来了一线曙光!

大神 Ian Goodfellow(这姓本身就很学术)是神经网络奠基人 Yoshua Bengio 的学生(跟相声一样,学术界也讲究个师承和门派。收不收学费就因人而异了。学校的发票应该还是有的)。继承了 Bengio 的步伐,Ian 在 2014 年的一篇 GAN 论文也是震惊世界,被认为是带领人类走向机器学习下一个纪元的开创性方法。Ian 在谷歌带完这一波节奏之后,便加入了「硅谷钢铁侠」Elon Musk 的 OpenAI。

OpenAI 这家酷炫的研究所是非营利的,主要目标就是做深度的人工智能研究来为人类造福,或防止人工智能失控而灭绝人类。当然,这只是个口号,本质上其实就是有钱人撒钱养一帮学界大神来提升自己在圈内的逼格。当然,他们也不计利润和 IP 地开源了大量代码和框架,这也是造福工业界和学术界的好事。GAN 作为 OpenAI 的首个高逼格成果,也在这两年得到了长足的优化和拓展。

生成模型的概念大家应该都很熟悉,大概有两种玩法:

  • 密度(概率)估计:就是说在不了解事件概率分布的情况下,先假设随机分布,然后通过数据观测来确定真正的概率密度是怎样的。

  • 样本生成:这个就更好理解了,就是手上有一把训练样本数据,通过训练后的模型来生成类似的「样本」。

这堂 tutorial 主要就是讲生成对抗网络以及一些技巧与前沿观点。

为什么要学习生成模型?

我们为什么需要生成模型?

  • 这是一种对我们处理高维数据和复杂概率分布的能力很好的检测;

  • 也可以为了未来的规划或模拟型强化学习做好理论准备(所谓的 model-free RL);

  • 当然,更多的情况是,我们会面临缺乏数据的情况,我们可以通过生成模型来补足。比如,用在半监督学习中;

  • 可以输出多模(multimodal)结果;

  • 以及很多的一些现实的需要生成模型的问题(比如,看到一个美女的背影,猜她正面是否会让你失望……)

接下来的几页幻灯片给出了一些实际的应用,比如预测影片的下一帧、去除马赛克、神笔马良等等……

生成模型是如何工作的?GAN 跟其它模型比较有哪些优势?

该怎么创造生成模型呢?这涉及到概率领域一个方法:最大似然估计。

大家都知道,一组相互独立事件的同时发生概率是:

而现实生活中,我们可能并不知道每个 P(概率分布模型)到底是什么,我们已知的是我们可以观测到的源数据。所以,最大似然估计就是这种给定了观察数据以评估模型参数(也就是估计出分布模型应该是怎样的)的方法。

比如,如果校长想调查全校同学的成绩,假如这个校长很懒但是统计学得很好的话,他会选择通过采样来估计一个靠谱的成绩分布。

首先,假设我们独立采样 X1,X2,......Xn 共 n 个同学的成绩,并且是我们使用的是 f 模型,只是它的参数θ未知,那么这个方程可表示为:

此刻,我们已知的是 X1......Xn,未知的是θ,那么我们的似然就可以定义为:

两边取对数,得到:

log L(θ|x1...xn) 称为对数似然,称为平均对数似然。那么最大的平均对数似然就是:

这就是幻灯片中那个公式的含义。

接下来几页幻灯片介绍了整个生成模型的大家族。

大家都同根于最大似然玩法,但是有着显隐密度的区分。大多数你们听过的强大的生成模型都需要用到马尔可夫链,而 GAN 是目前唯一一种直接从数据观测的一步到位的生成模型。(后面会讲具体原因。)

比如 Fully Visible Belief Nets 就用到了典型的显性密度链:

P(X1) 类似于一个先验概率,然后每往后一个数据的概率都是基于前面的已知数据的条件概率。最终得到整个模型的分布。但它的缺点也很明显:对于 N 个数据点,你得跑 N 次。也就是,这是个 O(n) 的算法。

同理,还有其它各种算法,但那些不