使用colossalai分布式框架加速你的深度学习训练速度(一)安装与基本构建流程
前言(废话)我们都知道,存在若干种方法可以加速我们在训练深度学习模型时的速度,本人大致知道如下几种(具体):
mlkdnn加速
cuda加速
JIT加速
分布式训练
这些都是成效显著的加速方法,而且属于不同层面的加速。其中基于硬件GPU加速的是目前最主流、效果最好的方案了,在本人自己写框架的时候也发现,深度学习训练过程中也发现,其实可以优化的地方很多:batch size之间可以做并行,单个batch中基于不同的算子实现逻辑,也能做并行;每个训练集的batch之间也能做并行,如何做到高效调度本机GPU的计算资源,或是计算机集群的计算资源,使得整体的并行训练效率尽可能高?
HPC-AI Technology Inc. 和NUS的研究人员共同开发了“夸父”Colossal-AI,该框架提供了一个并行训练框架来尽可能提升(压榨)你的计算资源的使用效率。并自动实现了一些常用的训练技巧。
由于本人的笔记本前几天又在我relink的时候烂尾了,暂时无法参与本篇文章,所以这篇文章只能展示一下单机单卡的性能压榨,等我把笔记本修好了,再来尝试一下多机多卡分布式训练。
安装、验证实验环境
平 ...
使用stable-diffusion-webui部署NovelAi/Stable Diffusion 保姆级教程、命令解释、原理讲解(colab、windows、Linux )
最近NovalAI的部署教程随处可见,可基本都是windows本地和colab白嫖google羊毛的、更多面向使用者 想要自己在Linux服务器上部署、找了一圈都没满意的、官方的一键脚本没有考虑国内网络的环境、很多大佬也不屑于写诸如此类的东西、导致踩了无数的坑才成功部署 希望借此文来帮助和我一样想部署在Linux服务器上的同学们,也好对AI黑盒里的技术窥视一番
正文开始前先讲一讲、目前为止SD的部署方案汇总
colab(科学上网 谷歌账号 包含两种ui界面的colab)
原版ui+naifu
sd-webui+novelai
个人整理notion简陋教程
windows(本地)
b站教程
Linux+SDWebUi 本文内容
利用autodl平台自带的公网ip映射服务( 强烈推荐,没有有效时间限制,访问速度快)
gradio (负责自动化生成部署生成一个网页,72小时后失效)
Linux 前后端分离 docker nginx postgresql (需要自己的公网ip或域名 显存 内存 要求最高)
10.29号更新:优雅的远程开发工作流
正文部分:Li ...
Hello World
Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.
Quick StartCreate a new post$ hexo new "My New Post"
More info: Writing
Run server$ hexo server
More info: Server
Generate static files$ hexo generate
More info: Generating
Deploy to remote sites$ hexo deploy
More info: Deployment