淘优惠

淘优惠

闻其声而知雅意,M1 Mac基于PyTorch(mps/cpu/cuda)的人工智能AI本地语音识别库Whisper(Python3.10)

热门文章 0
闻其声而知雅意,闻其声而知其人什么意思,闻雅歌而知其意,闻弦声而知雅意
用户9127725

? ? 前文回溯,之前一篇:含辞未吐,声若幽兰,史上最强免费人工智能AI语音合成TTS服务微软Azure(Python3.10接入),利用AI技术将文本合成语音...

1122
deephub

TensorFlow和PyTorch是两个最受欢迎的开源深度学习框架,这两个框架都为构建和训练深度学习模型提供了广泛的功能,并已被研发社区广泛采用。但是作为用户...

1373
deephub

对于数据科学项目来说,我们一直都很关注模型的训练和表现,但是在实际工作中如何启动和运行我们的模型是模型上线的最后一步也是最重要的工作。

1564
deephub

PyTorch 2.0 于 2022 年 12 月上旬在 NeurIPS 2022 上发布,它新增的 torch.compile 组件引起了广泛关注,因为该组件...

1515
deephub

神经网络有许多影响模型性能的超参数。一个最基本的超参数是学习率(LR),它决定了在训练步骤之间模型权重的变化程度。在最简单的情况下,LR值是0到1之间的固定值。

1357
冷冻工厂

本文 主要想分享一些可能有助于提高计算机视觉任务模型训练速度和准确性的一般技巧或建议,这些建议是通过课程、阅读顶级文章或论文学习所得来的。

532
deephub

PyTorch是一个开源的深度学习框架,它提供了一个用于高级特性的Python包。在本文中,我们将介绍PyTorch中的常见抽样函数。抽样是一个统计过程,它从总...

1252
deephub

MS即non maximum suppression即非极大抑制,顾名思义就是抑制不是极大值的元素,搜索局部的极大值。在最近几年常见的物体检测算法(包括rcnn...

1703
Alter聊科技

苹果、谷歌、Facebook、SAP、微软等科技巨头,早已有了实际的行动。单单是Apple Pay和Google Pay的停用,就已经影响了数千万人的生活秩序,...

821
风雨中的小七

在前面的几个章节中,我们介绍了几种基于不同半监督假设的模型优化方案,包括Mean Teacher等一致性正则约束,FGM等对抗训练,min Entropy等最小...

4082
Zilliz RDS

Towhee 是一个将图像、文本、语音、视频等非结构化数据编码为嵌入 embedding 向量的开源工具。

1344
Tester_muller

之前?直使? Tensorflow 训练模型,第?次训练Pytorch模型的时候,发现速度很慢,仔细观察,发现GPU 内存占?为0,基本没有使?GPU。

935
GitHubDaily

最近,AI 大模型连续火爆出圈,人工智能生成模型(AIGC)的热度尚未褪去,聊天机器人 ChatGPT 便引发全网热议,两周吸引百万用户。还有卷趴一半程序员的 ...

1274
新智元

这次的更新不仅将PyTorch的性能推到了新的高度,同时也加入了对动态形状和分布式的支持。

892
zstar

和GPT-3类似,DALL・E同样是openai的产品,并且官方提供了调用API。 官方文档中明了调用方式,下面是python的调用示例:

922
新智元

说到数据科学和机器学习竞赛平台,第一个想到的肯定是全球最大的开发者社区Kaggle了。

1153
OpenCV学堂

亲测以上模型除了SSD导出ONNX格式无法被ONNXRUNTIME、OpenVINO2022解析之外,其他模型导出均可正常加载部署并推理使用。SSD导出无法使用...

1524
一点人工一点智能

原文:https://dzone.com/articles/yolov5-pytorch-tutorial

135
算法与编程之美

我们知道,在学习深度学习的过程中,搭建网络是我们必须要掌握的,在搭建网络的过程中,我们也遇到了很很多的问题,为什么要使用卷积层,卷积层的参数我们应该怎么去定义,...

793
算法与编程之美

不同的项目需要不同的虚拟环境,可以处理不同版本的项目之间不兼容问题,进入 Anaconda prompt 命令窗口。

1532


面向纯零基础外行的搭建ai绘画novelai平台的个人指南

ai绘画网站,ai绘画作品,ai绘画教程视频,ai绘画下载

朋友们好,我是垫桌糖纸,虽然我专业是软件工程,但是说实话,我学艺不精。

让我写写点前端说不定我还能管点用,整这种深度学习之类的玩意我是真的门外汉,和大部分人都差不多。

这两天也算是折腾了好久这大名鼎鼎的novelai,可算是把这玩意成功在本地搭建起来了。

秉着开源精神,同时也是为了干点好事,我打算把我的搭建方法分享给各位,希望朋友们可以少踩点坑,少花点冤枉钱。

其实早就有很多大佬发布过教程了,我只是在这里分享一下我个人的成功案例,希望能帮到忙。

放心好啦,出了问题你在评论区问我我肯定会回你的(不过不保证能解决)。

如果我有什么描述问题请告诉我,我看到之后就立刻更改。

先说说最基本的硬件要求,如果硬件要求达不到就不要继续往下看了。

显卡要有cuda核心。

内存和显存加起来不能低于16g。

显存如果大于4g是最好的,但是听说显存不够会用内存补一下,所以上面的要求是内存和显存加起来不能低于16g。

具体情况是不是真的就卡这么死我说不准。

没有cuda核心的显卡可能也可以用,但是我不会,我只能教给你我会的(而且是在windows系统下)。

软件的话我们会用到 git和anaconda,其他文件的下载安装我们是不用费力的。

当然,你最好有一颗想折腾的心

首先看一下自己显卡支持的cuda版本

点开nvidia控制面板
鼠标右键也可以打开
点击左下角系统信息
选择组件,然后查看cuda版本

我们看到后面的数字是11.6.134,也就是说我们cuda最高支持这个版本的,低于这个版本的都可以用。

现在不用去百度cuda怎么下载,一会安装pytorch的时候会连着cuda工具一块下载的。

现在百度一下anaconda

这个英文网站就是
中间下载

点击了这个按钮会开始下载,然后给你跳转到一个推广他们教程的页面。

如果没有开始下载,返回刚才的下载页面再次点击一下Download,直到浏览器开始下载为止。

校园网网速杀我

git的话也是如法炮制,百度搜索,点击进入官网。

其实要不是程序里面会用到git,不下载git我觉得都没啥问题。

毕竟这是一个面向纯萌新的指南,git多少有点劝退了。

啦啦啦
点击这个
最头上的蓝字

然后我们来安装anaconda,安装完最好重启一下哦,防止各种玄学问题。

next一路点过去就好啦

如果你不知道你在做什么的话,最好老老实实地让conda躺在你的c盘。

然后我们来安装一下git,同样也是一路默认配置next过去就好啦

next吧少年!

如果你安装完了的话就安装完了。

接着下载一下novelai的模型文件

链接: 提取码:7qgi

这个是我从网上找到的,先下载好放着,如果没有百度网盘的话,用磁力链接。

magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak

迅雷就能下载。

下载这个
还有这个

用磁力链接下载的一会再把这俩的文件名重命名一下改成

改成这个样子

不改不知道可不可以,为了不出问题,还是改一下吧,怕识别不出来。

novelaifinal-pruned.ckpt (大的那个) novelaifinal-pruned.vae.pt(小的那个)

不过反正都是一样的文件就是了。

如果你会git的话,你可以cd到你想用的文件夹然后

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

但是还有更简单的方法,进去github的页面

AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI (github.com)
直接从这里下载,然后解压到你想要的地方

推荐解压到C:\\Users\\你的用户名,这个目录以下,这样会省去一部分的麻烦

从现在开始,就可能出现各种奇奇怪怪的报错了,我会把我遇到的全部都说一下。

另外,从现在开始,因为网络问题,中间会出现很多次报错,调整好心态。

现在下不动说不定之后就下载动了吗。

wifi下不动,流量说不定就下动了(我这边就是有的资源校园网无法下载,用流量可以。)

废话少说,首先打开anaconda,直接从开始菜单搜索anaconda就可以

打开就行

然后我们就会有这么一个页面,你不用害怕,怎么做我都会告诉你的。

y_shu是我的用户名

先配置一下国内镜像,这样会让一些下载变快

直接全部复制上然后点击一下这个黑黑的窗口,然后按住键盘上的

ctrl 和 v键一块按,就可以自动全部加上了。

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main  conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free  conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r  conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/pro  conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2    conda config --set show_channel_urls yes

接着输入以下的命令(那个novelai你可以改成别的,就是个名字,无所谓。)(可以复制粘贴)

conda create -n novelai python==3.10.6

然后就会下载好多文件,等着就行。

出现这个页面输入y开始下载

这里一般不会出现错误,如果出现了报错,重新输入上面的命令,直到成功为止。

成功之后会提示你

conda activate novelai

输入之后就到了我们创建好的虚拟环境了。

前面显示novelai

还记得之前看的cuda版本嘛

PyTorch

去这个网站,选择你最大支持cuda版本以下的选项

note的意思是让你最好用conda-forge这个站,不然容易出bug

复制圈里面的这一行命令,然后ctrl+v粘贴到你的anaconda命令行里面

然后,就是等待了。

中间也会让你输入一次 y 不要等了一会看没什么反应就跑了。

对着看似一动不懂的命令行界面按一个y然后再按一个回车,按理来说会在一会自动帮你输上,不过可能会有bug,不推荐这样干。

根据你的网络情况不同,这个等待时间可能长达整整一天,也可能只有不到一个小时。

当你实在是忍不住的时候,可以点击一下anaconda后多按几次 ctrl + c,强行终止。

终止之后再重新输入上面的那一行命令。

成功的象征

看到这三行就差不多可以半场开香槟了。

你还记的你刚才解压到哪了嘛。

C:\\Users\\你的用户名,这个目录以下是吧,应该就是

C:\\Users\\你的用户名\\stable-diffusion-webui-master这个文件夹

所以你只需要在你的anaconda里面输入一个 cd s然后再按一下tab键,再按一下回车就可以了。

如果tab自动补全的不是stable-diffusion-webui-master,你可以多按几次,肯定会有。

如果说进入了错误的目录 输入 cd ..就可以返回上一级。

简简单单,不是吗?

然后我们运行下面这一行命令

python -m pip install -r requirements.txt
我已经安装过了

如果报错(什么什么error)的话,多执行几次,最后实在不行可以把错误评论给我或者去百度搜索错误。

成功执行完之后就可以下一步啦。

还记得那两个模型文件嘛

novelaifinal-pruned.ckpt (大的那个) novelaifinal-pruned.vae.pt(小的那个)

把那两个文件,复制粘贴(剪贴粘贴也不是不行啦)到\\stable-diffusion-webui\\models\\Stable-diffusion目录下面。

就是这样!

然后我们回到anaconda

输入

python launch.py

接下来就又是漫长的等待环节啦。

如果网速不好会等好久好久

这时候可能会报各种各样的错

error: RPC failed; curl 56 OpenSSL SSL_read: error:1408F119:SSL routines:ssl

这个错误是下载着下载着有毛病了,网络不好,重新试试,多试几次。

OSError: Can't load tokenizer for 'openai/clip-vit-large-patch14'. If you were trying to load it from 'make sure you don't have a local directory with the same name. Otherwise, make sure 'openai/clip-vit-large-patch14' is the correct path to a directory containing all relevant files for a CLIPTokenizer tokenizer.

这个错误的话,还是网络不好,换一个网络或者是挂一个梯子,就能继续下载了。

没错,这个错误修好之后还要继续下载好多东西。

RuntimeError: Detected that PyTorch and torchvision were compiled with differen....

看到这个,而你别的操作又没有做错,那恭喜你,你可能是之前安装过torchvision

我的解决办法是你 pip uninstall torchvision 然后就可以继续运行了。

遇到其他错误记得告诉我。

如果没有错误的话,那么经过漫长的下载和等待,你应该就能看到

成功!

那么现在在选中那行数字 ctrl+c再去浏览器里面的地址栏ctrl+v再回车就可以啦

至于进去之后的页面怎么玩,我目前还没学会。

嘛,说难也不难啦,反正,玩的愉快!

爱你们(*^^*)



首个中文Stable Diffusion模型开源;TPU演进十年;18个PyTorch性能优化技巧 | AI系统前沿动态...(首先的中文)

首个中文全译本,首个中文表格模型,第1个中文是,第一个中文诠释

1. TPU演进十年:Google的十大经验教训

希腊神话中,特洛伊战争的起因是两方争夺世界上最美的女人――海伦,后世诗人将海伦的美貌“令成千战舰为之起航”。TPU就像海伦,它的出现引起了“成千芯片与之竞逐”。

可以说,TPU的问世引发了硅谷的“地震”。TPU宣布诞生后,Intel耗资数十亿美元收购了多家芯片公司,阿里巴巴、Amazon等竞争对手纷纷开始研发类似产品。TPU重新唤起了人们对计算机架构的关注,后来的几年内,出现了上百家相关初创企业,年均总融资额近20亿美元,各种新奇的想法层出不穷。

链接:

https://mp.weixin.qq.com/s/XuwExQsg582YSAQboypbsA

2. 进击的PyTorch,和它背后的开源领袖

十年间,从Torch进化到PyTorch,再到近期落地Linux基金会,PyTorch从一个无心插柳的项目逐渐演变为最有影响力的开源项目之一。它究竟是如何一步步成长起来的?背后有那些与众不同的故事?

链接:

https://mp.weixin.qq.com/s/JrutTVvFtx3xZoagy661LQ

3. 首个中文Stable Diffusion模型开源,中文AI艺术时代开启

生成内容一直被视为 AI 领域中最具有挑战性的能力,最近大火的 AI 绘画背后,是 Stable Diffusion 模型的开源,催生了众多 AI 绘画的应用,得益于 Stability AI 的开源精神,这一创变推动了整个以英文为主的下游文生图生态的蓬勃发展。

然而在国内,目前大部分团队主要是基于翻译 API + 英文 stable diffusion 模型进行开发,但由于中英文之间所得存在文化差异导致遇到中文独特的叙事和表达时,这种模型就很难给出正确匹配的图片内容。因此,IDEA 研究院认知计算与自然语言研究中心(IDEA CCNL)开源了第一个中文版本的 stable diffusion 模型“太乙 Stable Diffusion”,让中文的世界真正拥有具备中国文化内核的 AIGC 模型。

链接:

https://mp.weixin.qq.com/s/WrzkiJOxqNcFpdU24BKbMA

4. 开源风暴吞噬AI界?从Stable Diffusion的爆火说起

近日,文本生成图像模型Stable Diffusion背后的公司Stability AI宣布获得了1.01亿美元超额融资,估值达10亿美元,这家基于开源社区的“草根”企业的风头一时间甚至盖过了业界顶级研究机构OpenAI。

尽管开源项目存在商业模式、开源许可协议等方面的挑战,但通过良好开源社区的驱动,AI项目的技术发展、应用广度和创造空间都有了意想不到的发展,正如开源“吞噬”软件1.0,“开源AI”运动将在软件2.0时代不可阻挡。

链接:

https://mp.weixin.qq.com/s/yc5zCng3DLfn9mR80XncRw

5. 旷视开源深度学习模型编译器 MegCC

MegEngine 团队开源的深度学习模型编译器 MegCC是一个运行时超轻量,高效,移植简单的深度学习模型编译器。基于 MLIR 开发,便于所有对二进制大小/内存占用敏感的推理场景。输入模型,输出可执行文件,mobilenetv1 的推理runtime 只要 81KB,速度和内存占用都很不错。为了便于大家使用,在MegEngine 模型之外还支持 ONNX 模型的导入。

链接:

https://github.com/MegEngine/MegCC

6. TensorFlow将于2023年发布新版,明确四大支柱

近日,谷歌宣布他们已经着手开发 TensorFlow 的下一个迭代,并专注于快速和可扩展、应用型 ML、部署、简单化这四大支柱。更具体地,谷歌计划在 2023 年第二季度发布新的 TensorFlow 预览版,之后晚些时候发布生产版本。

链接:

https://mp.weixin.qq.com/s/5YIT45AcSe1237kYnADUrw

链接:

https://dev-discuss.pytorch.org/t/the-nuances-of-pytorch-graph-capture/501

8. 优化PyTorch的速度和内存效率(2022)

深度学习模型的训练/推理过程涉及很多步骤。在有限的时间和资源条件下,每个迭代的速度越快,整个模型的预测性能就越快。作者收集了几个PyTorch技巧,以最大化内存使用效率和最小化运行时间。为了更好地利用这些技巧,我们还需要理解它们如何以及为什么有效。

链接:

https://mp.weixin.qq.com/s/BYV-ANrWpaKHEYnTomBCXQ

9. OneFlow的大模型分片保存和加载策略

在模型比较小时(如 100G 以下),还有可能采用单机存储。当模型参数量比较大时,要求的样本数也更大,训练后做 dump 出来的模型也会很大,单机肯定放不下。本文将介绍 OneFlow 的大模型分片保存、加载策略以及使用方法。

链接:

https://mp.weixin.qq.com/s/2Z400_r_ZVwYYnGH7vw9zg

10. 视频教程|OneFlow源码解析(3):OneFlow的Eager VM

其它的深度学习框架的动态图运行时,往往可能只做简单的算子派发。OneFlow 的动态图运行时(Eager VM),做了多项技术创新,如:将张量的生命周期作为性能优化的考量之一。这使得 OneFlow Eager VM 在通常情况下,都具有性能优势,在某些边界情况下,这类性能优势可以超过100%。

链接:

https://www.bilibili.com/video/BV1xY4y1K7e6/?spm_id_from=333.788.recommend_more_video.1&vd_source=25c3e9bdd8a5701b69d322f471c11c38

11. N思金箍棒:基于MindSpore的业界SOTA模型压缩算法集

近些年来,随着算力的提升、数据的爆炸式增长和深度神经网络技术的成熟,深度神经网络在CV、NLP等很多领域都取得了远超传统机器学习的效果,相应的,神经网络的规模和参数量也在迅速增加。端边设备的算力、电量和内存虽然有提升,但并不能匹配神经网络的部署要求,模型压缩算法就是为解决这个矛盾应运而生。

链接:

https://zhuanlan.zhihu.com/p/555032583

12. Meta发布全新推理引擎AITemplate

Meta 发布了革命性的推理引擎 AITemplate。测试结果显示,相比 PyTorch Eager,AITemplate 在 NVIDIA GPU 上实现了最高 12 倍的性能提升,在 AMD GPU 上实现了高达 4 倍的性能提升。

链接:

https://mp.weixin.qq.com/s/POMDj0P4-IHVR1y63CKBkQ

13. 一行代码12倍加速Bert推理,OpenAI编程语言加持的引擎火了

一行代码的威力到底有多大?今天我们要介绍的这个 Kernl 库,用户只需一行代码,在 GPU 上就能以快几倍的速度运行 Pytorch transformer 模型,从而极大的加快了模型的推理速度。具体而言,有了 Kernl 的加持,Bert 的推理速度比 Hugging Face 基线快了 12 倍。

这一成果主要得益于 Kernl 用新的 OpenAI 编程语言 Triton 和 TorchDynamo 编写了定制的 GPU 内核。项目作者来自 Lefebvre Sarrut。

链接:

https://mp.weixin.qq.com/s/aIjq2JDUrfTmm7Bw6QdiPA

其他人都在看

  • 机器学习编译器的前世今生

  • OneFlow源码解析:Global Tensor

  • TPU演进十年:Google的十大经验教训

  • 更快的YOLOv5问世,附送全面中文解析教程

  • 开源吞噬AI界?从Stable Diffusion的爆火说起

  • OneEmbedding:单卡训练TB级推荐模型不是梦

  • 大模型训练难?效率超群、易用的“李白”模型库来了

欢迎体验OneFlow v0.8.0:https://github.com/Oneflow-Inc/oneflow/https://github.com/Oneflow-Inc/oneflow/stargazers