发布于: 2023-8-18最后更新: 2024-3-7字数 00 分钟

type
status
date
slug
summary
tags
category
icon
password

笔记已过时,仅存档

💡
这篇笔记只为给完全不了解 SatbleDiffusion 的同学打开学习入口,不至于面对网上大量的视频和攻略而无从下手,希望对大家有所帮助 !
分享网络上的优质教程,😇从入门到放(bu)弃(shi) ,持续更新。如有内容过时和错误纰漏请联系我或在对应位置评论,有发现更好的教程也请联系我更新,😘感谢!

安装:

两种方式(二选一)
  1. 秋葉aaaki的整合包和启动器(推荐,开箱即用,免折腾)
    1. 【AI绘画】Stable Diffusion整合包v4发布!全新加速 解压即用 防爆显存 三分钟入门AI绘画 ☆可更新 ☆训练 ☆汉化_哔哩哔哩_bilibili
      百度盘:https://pan.baidu.com/s/1_ibEk2OpKHxmEg4AnFOpSA什么?关注了也没有?那你看完简介再说======================================================本整合包基于开源软件Stable Diffusion Webui制作,仅供学习AIGC相关技术。任何使用整合包以及启动器,生成相关图片造成的后果以及责任都, 视频播放量 1220617、弹幕量 1554、点赞数 134991、投硬币枚数 178110、收藏人数 142583、转发人数 21726, 视频作者 秋葉aaaki, 作者简介 动态区喂饭区up主 / 爱发电 akibanzu / 纯个人,相关视频:【AI绘画】Stable Diffusion 最终版 无需额外下载安装!可更新✓ 训练✓ 汉化✓ 提供7G模型 NovelAI,【AI绘画】这 辈 子 值 了,B站第一套系统的AI绘画课!零基础学会Stable Diffusion,这绝对是你看过的最容易上手的AI绘画教程 | SD WebUI 保姆级攻略,【AI绘画】AI又进化了,革命性突破,20分钟搞懂Prompt与参数设置,你的AI绘画“咒语”学明白了吗? | 零基础入门Stable Diffusion·保姆级新手教程 | Prompt关键词教学,AI绘画模型新手包!“画风”自由切换,有哪些你不知道的模型使用技巧? | 零基础入门Stable Diffusion的保姆级新手教程 | SD模型下载方式与推荐,4090逆天的ai画图速度,提示词补全翻译反推,“终极”放大脚本与细节优化插件,这些AI绘画扩展真的泰厉害辣!| StableDiffusion教程·拓展的安装与应用·初学者必备8款拓展,AI绘画出现后的画画课,【AI绘画】全面升级!ControlNet1.1 使用教程 更加强大的控制功能!线稿上色/风格迁移/局部修改
      【AI绘画】Stable Diffusion整合包v4发布!全新加速 解压即用 防爆显存 三分钟入门AI绘画 ☆可更新 ☆训练 ☆汉化_哔哩哔哩_bilibili
  1. 自行部署(有Github使用经验的,仍可以使用秋葉aaaki的启动器)

教程:

基本用法(!!!入门必看!!!)
B站第一套系统的AI绘画课!零基础学会Stable Diffusion,这绝对是你看过的最容易上手的AI绘画教程 | SD WebUI 保姆级攻略_哔哩哔哩_bilibili
B站首门系统的AI绘画入门教程来了!零基础玩转Stable Diffusion,就看这个系列的视频了!提示词宝典:BV12X4y1r7QB模型新手包:BV1Us4y117Rg课程学习资料链接:https://www.mubucm.com/doc/_2As4DSE4m(请复制在浏览器或幕布中打开,内附资料网盘下载地址,实时更新中)——————————————作为一个新兴的技能门类,目前市面上关于AI, 视频播放量 867221、弹幕量 4492、点赞数 45165、投硬币枚数 46275、收藏人数 90382、转发人数 10984, 视频作者 Nenly同学, 作者简介 一个不会画画的设计师,AIGC创意人,相关视频:4090逆天的ai画图速度,【AI绘画】Stable Diffusion整合包v4发布!全新加速 解压即用 防爆显存 三分钟入门AI绘画 ☆可更新 ☆训练 ☆汉化,AI绘画出现后的画画课,AI美女正在入侵小红书,真人网红博主们彻底慌了,第1集 热血重燃!16名顶尖AI程序员助力科技反诈,【最新】Stable Diffusion复刻蓝衣战神,我的画真的会被AI取代吗?,弱智吧为何成为AI头号公敌,【Novelai】超简单!手机轻松跑图!,[AI生成动画]这可是耶路撒冷啊!
B站第一套系统的AI绘画课!零基础学会Stable Diffusion,这绝对是你看过的最容易上手的AI绘画教程 | SD WebUI 保姆级攻略_哔哩哔哩_bilibili
这是个视频合集,视频做的都特别好 @B站 Nenly同学
 
图文攻略(全面了解SD,选择性观看)

模型:

最大最全的模型网:
科学上网,NSFW预警
 
国人开设的模型网:
常用的模型应该基本都有吧
免费的MJ和SD,总之就是NB
 
模型
需要
作用
使用
Checkpoint / Dreambooth 底模型/大模型 .ckpt .safetensors
必备
Checkpoint:在训练过程中保存的模型参数,用于模型恢复/迁移 (现在出于安全考虑格式常用safetensors)
请看作者写的简介!基本都会给出适宜参数和配套模型信息 .\stable-diffusion-webui\models\Stable-diffusion
VAE 变分自编码器 .pt .safetensors
必备
Latent variable解码成图像。表现为强化画面色彩或者稳定画面结构 (是否需要具体看底模的简介)
① 有的底模作者会提供VAE; ② 有的就直接用最常用的几个VAE模型; ③ 有的不需要VAE,因为底模中包含了VAE; .\stable-diffusion-webui\models\VAE
Embeddings / Textual Inversion 嵌入模型 .pt .bin
可选
用几个反映该概念的图像来教授基本模型有关特定概念的新词汇(姿势、风格、纹理等,实际上是用向量表示的)
文本反转,触发词写入正/负向提示词,具体看模型简介 .\stable-diffusion-webui\embeddings
LoRA / LyCORIS .pt .safetensors
可选
一种微调CLIP和Unet权重的方法(加载LyCORIS需要下载插件
写入正向提示词(不能填入负向),有的会有触发词 .\stable-diffusion-webui\models\Lora
可选
其工作方式与LoRA相同
使用方式与LoRA相同,这种模型现在比较少用了 .\stable-diffusion-webui\models\hypernetworks

插件:

.\stable-diffusion-webui\extensions 安装的插件都在这里!先看有没有再安装
基础插件
必装的和可能会有用的插件
如何使用?
C站模型管理 【必装】
控图插件 【必装】
ControlNet(CN): 这部分内容很多,也是mj目前无法做到的重要绘图功能
预测图的提词
lora模型混合
不融合LoRA,方便调各自权重而已
读取LyCORIS
装了就是支持了,没教程
tag自动补全
允许拉更高的CFG Scale
缓解了CFG过高时产生的画面颜色崩坏
低显存绘图 or 分区绘图
界面美化
翻译插件
慎重选择!这类东西容易出问题
如何使用?
翻译提词
翻译提词 【整合包自带】
翻译界面
进阶插件
需要多学习一下才能掌握的插件
如何使用?
增加题词语法
LoRA分层绘制
LoRA融合
图片分区绘制
对不同的题词使用不同的LoRA
识别手和脸进行局部重绘
StableSR超分

咒语:

人像的快速题词网:
预设部分比较好用(有一些Textual Inversion)
mj和sd的提示词都有
相较于Midjourney,专注于SD的题词网站很少,SD作品基本都是发布在上述的模型网站。如果你想跑人像图,上述这种网址能满足你,如果你想跑其他的建议去找mj的提词网站(是真的多)。
其他
GPT辅助生成提示词
You are a master artist, well-versed and artistic terminology with a vast vocabulary for being able to describe visually things that you see. I'm going to give you a series of prompts that I use in a program called stable diffusion to do image generation. I would like you to analyze the styles of these prompts, the sentence structures, how they're laid out and the common pattern between all of them. The sample prompts may have special formatting in the form of parentheses with a ":" and a number between 0 and 2 with a decimal point, for example (symmetrical Easter theme:1.3) or (cinematic:1.4) or (symetrical:1.2). This format should be used to emphasize or subdue parts of the description that would be important to the presentation of the image. Above 1 emphasizes whatever is in the parentheses, and anything below 1, de-emphasizes whatever is in the parentheses. do not use the word "emphasis" when utilizing this format.   You will be asked to generate prompts based on your analysis. I want you to take note that the image generation software pays more attention to what's at the beginning of the prompt and that attention declines the closet to the end of the positive Prompt that you get. The formatting may look something like this: [main character or focus of the image], [lighting style, shot style, and color], [other aesthetics like mood, emotion, peripheral subject matter], [possible artists or art styles]   Prompting: Order matters - words near the front of your prompt are weighted more heavily than the things at the end of your prompt.   Most prompts should have the following at the beginning: "((best quality)), ((masterpiece)), (detailed), "   When using an artist name or artist reference always use the format " in the style of [ artist name]", for example " in the style of Greg Rutkowski" or " in the styles of Michelangelo and Leonardo da Vinci"   [Example low, medium and high quality prompts]: [low detail prompt]:portrait of a futuristic beautiful woman and a futuristic city, deep vivid colors   [medium detail prompt]:modern alchemists lab drawn with watercolor pencil, magic potions, remedies, vials and concoctions, vivid colors, bubbling, bursting, full of life, organic, oily, bones, dark, scary   [High detailed, high quality prompt]: (best quality:1.4), (masterpiece:1.4), (detailed:1.3), 8K, portrait, elven queen in a lush forest, shimmering golden gown, jeweled tiara, enigmatic smile, surrounded by ethereal glowing fauna, (magic-infused:1.4), vivid colors, intricate foliage patterns, chiaroscuro lighting, (Pre-Raphaelite art style:1.2)   [Sample positive prompts to analyze]: put your sample prompts here   You will be asked to generate prompts based on the instructions above. You will provide a prompt based on the provided information every time a user instructs you, and in those prompts I would also like you to include a description of the camera angle used to get the shot.
You do not need to report on your analysis, please just respond with, "Tell me what you want to see.".

炼丹:

反直觉:打标时候你想让ai学什么就不需要和它说什么!详见打标教程
最新的丹炉(秋葉佛祖🫡
【全网最细lora模型训练新手入门】这时长?你没看错。还教不会的话,我只能说,师弟/妹,仙缘已了,你下山去吧!_哔哩哔哩_bilibili
夸克网盘:https://pan.quark.cn/s/7160111f893a百度网盘:https://pan.baidu.com/s/1xIyS_V_6RFe1B20TPIpefA?pwd=xiao 1.2版本的小伙伴可以下载升级包,1.0和1.1或者新用户直接下载完整包A卡、MAC用户福音,青椒云版赛博丹炉:http://account.qingjiaocloud.com/signup?in, 视频播放量 102750、弹幕量 478、点赞数 5103、投硬币枚数 4899、收藏人数 13071、转发人数 715, 视频作者 朱尼酱, 作者简介 爱思考、爱折腾、爱分享,相关视频:【AI绘画】最佳人物模型训练!保姆式LoRA模型训练教程 一键包发布,Stable diffusion:万物皆可lora,生成自己的lora模型,喂饭级。,【喂饭式教学01】LORA训练流程,【lora模型训练】赛博丹炉V1.2发布!一键炼丹,离完美还差几步?,手把手教你用stable diffusion创建一个AI老婆,自定义任何你想要的哦,LoRA训练不求人,实用主义LoRA训练教程,终于找到了!这绝对是全B站最详细(没有之一)Diffusion入门到精通全套视频,整整3小时(建议收藏慢慢看),LoRA训练傻瓜包2.1发布,6G可以训练C站标准模型了,训练效率大幅提升,一键脚本部署,小白的lora模型,训练成功经历,希望对你们有些帮助吧…,【AI绘画】 lora模型推荐(附tag) —— Gacha splash LORA | Stable Diffusion
【全网最细lora模型训练新手入门】这时长?你没看错。还教不会的话,我只能说,师弟/妹,仙缘已了,你下山去吧!_哔哩哔哩_bilibili
非常详细的参数讲解
参数
步数相关:
Image * repeat * epoch / batch_size = total steps
10张图 * 20步 * 10个循环 / 2并行数 = 1000总训练步数
batch size 和 learning rate 同步增减
 
速率/质量相关:
其他教程:
还搞不定lora训练集吗?干货分享+打标讲解_哔哩哔哩_bilibili
这是我第一次坐技术分享的视频,虽然我接触AI绘图时间比较长,但是一直作为吃瓜群众,AI技术发展需要更多参与者,于是我发了这期视频,抱歉最近感冒声音不太好。时间戳:0.00 杂谈2.10 训练集准备的策略6.50 训练集图像的处理和选择14.15 NSFW?15.05 训练集快速打标工具使用方法20.00 如何理解lora打标和AI训练之间的关系30.35 训练集标签编辑器使用方法34.35 开始训, 视频播放量 8568、弹幕量 16、点赞数 415、投硬币枚数 321、收藏人数 1305、转发人数 56, 视频作者 灬见或不见灬, 作者简介 ,相关视频:如何训练一个非常像的真人Lora模型(深度探讨),【正则化制作功能LoRA】最新LoRA模型训练进阶教程4,【基础05】使用lora后效果不好?全网最贴心的Lora新手使用技巧教程,stable diffusion新手福音,从此告别基础错误,【全网最细lora模型训练新手入门】这时长?你没看错。还教不会的话,我只能说,师弟/妹,仙缘已了,你下山去吧!,Stable diffusion,多角色训练,人物lora+衣服rola,【快速打标/优化器对比】最新LoRA模型训练进阶教程2,你真的会用SD吗?超全面Stable Diffusion基础操作,半小时上手webui!!!,ChatGLM一站式微调整合包(基于lora),【轻科普】StableDiffusion那些事儿,关于LoRA、DreamBooth、模型分层融合等,Lora炼丹使用的批量抠图模型脚本分享
还搞不定lora训练集吗?干货分享+打标讲解_哔哩哔哩_bilibili
非常清晰且全面的人物LoRA训练教程,关键是把打标讲透彻了!
我用AI模仿了普奖大师的风格!一镜到底5分钟学会训练LORA_哔哩哔哩_bilibili
上期视频承蒙大家的喜欢,这期带来了训练lora的教程,希望大家可以跟着教程自己去实验一下,训练出自己喜欢的lora模型。, 视频播放量 67866、弹幕量 134、点赞数 1777、投硬币枚数 956、收藏人数 4227、转发人数 987, 视频作者 AI建筑研究室-帆哥, 作者简介 建筑师、吉他手、留学党。谢谢支持!关注我看设计前沿! +v(archifancy)备注来意 合作:archifancy@gmail.com,相关视频:用AI卷死同行?为什么设计师要学会LORA--stable diffusion+controlnet+lora的建筑设计,Lora或将成为历史?Nvidia最新AI模型仅需100K即可获得更高质量的图像,【StableDiffusion】入门级-Lora室内小场景训练教程!,有手就会,AI辅助建筑设计极简上手指南 | stable diffusion + controlnet + lora,【AI建筑LoRA训练】爆肝训练LoRA,两天四个丹,有没有效果图和设计行业的大佬锐评一下,Controlnet新模型让我LoRA白学了?-reference only新模型测试报告,训练AI自己做大师设计?从线稿到方案渲染,结果我惊呆了!,AI技术大瓜突然出现:wonder studio 结合视频剪辑和模型倒入+立即渲染 支持虚幻+blender+maya现已开放权限申请 #,AI制作室内效果图出图流程探索,自家装修也许能用AI?,只会用AI练涩图?建筑师已经在思考如何转化生产力。插画风建筑Lora正式发布 | Stable Diffusion进阶内容
我用AI模仿了普奖大师的风格!一镜到底5分钟学会训练LORA_哔哩哔哩_bilibili
建筑风格LoRA训练

ControlNet(CN):

ControlNet v1.1基本教程和模型下载:
30分钟零基础掌握ControlNet!绝对是你看过最好懂的控制网原理分析 | 基本操作、插件安装与5大模型应用 · Stable Diffusion教程_哔哩哔哩_bilibili
B站首门系统的AI绘画入门教程来了!零基础玩转Stable Diffusion,就看这个系列的视频了!ControlNet扩展和模型下载:🔗夸克:https://pan.quark.cn/s/0185938d47c5🔗度盘:https://pan.baidu.com/s/10rzgzIjzad7AKmj-w8zO_w?pwd=nely (在SD10文件夹内,模型很大,正在陆续上传,可以先点收藏, 视频播放量 272500、弹幕量 2188、点赞数 16441、投硬币枚数 17235、收藏人数 22775、转发人数 1827, 视频作者 Nenly同学, 作者简介 一个不会画画的设计师,AIGC创意人,相关视频:【AI绘画】全面升级!ControlNet1.1 使用教程 更加强大的控制功能!线稿上色/风格迁移/局部修改,1分钟学会 controlnet最强模型,SD教程·新模型tile太强了!Controlnet又更新,高清生成、细节修复、魔法滤镜 Stable Diffusion,Controlnet Tile命令到底能有多少功能?Tile加强应用教程来了,【深度解析】如何操控StableDiffusion?ControlNet-8大模型一网打尽!,stable-diffusion动作+背景【全控】-controlnet seg+动作+深度图的用法,让AI绘画变得可控ControlNet-Shuffle洗牌,Stable Diffusion 绘画教程,【Stable diffusion案例教程】运用AI实现 草图→清稿→上色→3d效果全流程,Stable Diffusion Controlnet V1.1 基础用法,Stable Diffusion中文提示词,神级插件
30分钟零基础掌握ControlNet!绝对是你看过最好懂的控制网原理分析 | 基本操作、插件安装与5大模型应用 · Stable Diffusion教程_哔哩哔哩_bilibili
‼️
值得注意的是v1.1之前的版本的CN模型很多已经不需要用了,在v1.1有效果更好的模型,上述视频中已经提到了大部分模型的取代关系,学习时请分辨网上教程中所强调的CN版本

CN教程:

  1. 由于CN模型众多,更新速度很快,所以B站controlnet的教程相当的杂乱、良莠不齐。这里推荐部分教程:@大江户战士@言萧的AI画室@AI建筑研究室-帆哥
  1. 目前比较全的图文攻略:
    1. 原文地址,应该是会持续更新的
灵活运用(多控制层使用思路):
基本流程(大概吧):
  1. 选底膜 checkpoint,看需求上 vae
  1. 写 prompt,调基础参数,看原图表现
  1. 表现不足就找 lora(看需求用或不用)
  1. 风格确定后上 ControlNet:
    1. lineat / lineatAnime(黑白线稿图)
    2. depth(深度图)
    3. seg(图像语义分割)
    4. referenc only(风格迁移)
    5. suffer(构图迁移)
    6. color(颜色迁移)
    7. tile(优化分块重绘)
    8. ip2p(氛围转化)
  1. 控制生成好基础小图开始进行 Hires.fix(高清重绘)#这步也可以不用,会增加很多细节
  1. 最后到 img2img 使用 Script → SD upscaler(可以配合controlnet的tile)

建筑CN工作流:

这个UP出视频逻辑比较清晰
SD接入设计软件:
【AI设计】犀牛AI插件更新,支持高清大图,支持lora_哔哩哔哩_bilibili
插件下载链接:https://pan.baidu.com/s/1dVrg4ZaR_EI6vZsroHj9UQ?pwd=5m0m  提取码:5m0m 安装upscale插件:浏览器打开后,在扩展里使用install from url,输入 https://github.com/Coyote-A/ultimate-upscale-for-automatic1111controlnet1.1模型 链接:, 视频播放量 1991、弹幕量 22、点赞数 112、投硬币枚数 64、收藏人数 205、转发人数 20, 视频作者 从零开始的阿莫莫, 作者简介 闲时程序,忙是设计 | 置顶动态查看已发布的资源 | vx公众号:规划元基地 | 淘宝:阿莫莫的解忧杂货铺,相关视频:完全颠覆以往认知,今后再没什么是“真实”的了……,Lora或将成为历史?Nvidia最新AI模型仅需100K即可获得更高质量的图像,史上最强AI修脸插件! 一键整容!——从此再小的图片也永别告别崩脸!Stable diffusion超强烂脸修复插件,给什么都不懂的AI装上四肢,它能自己学习走路吗?,【stable diffusion】 SadTalker 插件安装与使用详细步骤 _ 照片开口说话 _ 不用D-ID,【AI设计】从草图到效果-StableDiffusion在建筑景观规划设计中的应用(包含模型、Lora、ControlNet的使用),NVIDIA放大招!最新驱动将Stable Diffusion出图速度翻倍,stable diffusion在规划设计领域的应用尝试,Stable Diffusion平面图Lora分享 | 一键透视转换,【Stable Diffusion】表情控制 | 脸部控制 | ControlNet 1.1 | openpose_face
【AI设计】犀牛AI插件更新,支持高清大图,支持lora_哔哩哔哩_bilibili
AI as Rendering Engine: Ambrosinus Toolkit v1.2.1
📣 Since Ambrosinus Toolkit v1.1.9 is possible running Stable Diffusion and the wonderful neural network named ControlNET locally via Grasshopper. New components are based on the wonderful project of AUTOMATIC1111 which exploits all the power of Stable Diffusion entirely locally. But it doesn't end here, in fact through the expansion that integrates a second neural network, ControlNET v1.0 (developed by Stanford researchers) it is possible to use all the power of AI in the main creative activities carried out by architects and designers - AI as a rendering engine! (or something really promising 🧐). 💡With v1.2.1 is possible to interact with the webui-user.bat file, with Rhino views (so pass your model screenshot directly in the AI engine to get a conceptual render) and Upscale the image! ✨ The Ambrosinus-Toolkit project is always under development. Stay tuned! #AUTOMATIC1111 #ControlNET #AmbrosinusToolkit #DEV #Grasshopper #AI #AIasRenderingEngine #C #coding #rhino #lucianoambrosini 🧾 Files + full description - https://bit.ly/SDandCNinsideGH-Upd2 👉 About me - https://bit.ly/AboutMe-lucianoambrosini ⏱️ Highlights 00:07 Main settings 00:57 Set the Dataset model checkpoint (for instance mdjrny-v4) 1:24 Open a Rhino file 2:00 ViewCapture component 3:27 If you encounter an issue when running the CMD process? 4:11 View 01 rendering 5:05 View 02 rendering 5:29 Image Upscaling 6:09 OpenDir component (wip) 6:32 Upscaled image embedded info
AI as Rendering Engine: Ambrosinus Toolkit v1.2.1

进阶:

【AI绘画】LoRA进阶用法:分层控制_哔哩哔哩_bilibili
补充:1、本视频不讨论背景或姿势LoRA的原因是这类LoRA不同模型之间区别较大。一般而言画风模型中背景是在输入输出部分形成的,但是背景LoRA中是有可能在中间部分形成背景的。所以要单独调参2、以下是一些我觉得还不错的预设及介绍:影响除脸之外的部分(保持不变脸情况下改变其他部分)(强)1,1,1,1,1,1,1,1,0,0,0,1,1,1,1,1,1(弱)1,1,1,1,1,1,0.2,1,0.2, 视频播放量 95502、弹幕量 100、点赞数 4142、投硬币枚数 2819、收藏人数 12450、转发人数 970, 视频作者 大江户战士, 作者简介 The future is now,相关视频:卷疯了!一口气学完【12种】Multi-controlnet高阶组合用法合集&SD其他最新插件【持续更新】,lora研究生来了!深度学习lora分层控制参数调整,一入调参深似海!,lora模型使用技巧:使用分层控制来画出想要的衣服风格,stable diffusion教程,【AI绘画】LORA进阶教学!分层控制篇,恋活与Stable Diffusion的合作插件,【AI绘画】辅助插件帮你随机生成人物(以及三视图):Wildcards搭配LoRA以及ControlNet使用技巧,AI Lora技术,跑通炼实物模型+写实风格,商业化还差半步~,【AI绘画SD教程】3个插件,轻松绘制多人画面 - 使用Latent Couple、Composable LoRA和ControlNet完成多人物场景制图,基于LyCoRIS的LoRA模型:LoHa,如何使用Stable Diffusion来制作【无跳帧动画】
【AI绘画】LoRA进阶用法:分层控制_哔哩哔哩_bilibili

AI动画转绘

【AI动画教程】高效低配风格显著的平涂流AI动画(上)_哔哩哔哩_bilibili
教程上半部分链接:MMD模型及动作:aplaybox.comSegment everything安装教程:@Waiting鱼子酱 BV1th4y1b7AVEbsynth安装教程:@不当作家当树吧 BV1354y1F7bdPBRemTools安装地址:https://gitcode.net/ranting8323/PBRemTools.git该插件安装路径:stable-diffusion-, 视频播放量 10139、弹幕量 4、点赞数 642、投硬币枚数 486、收藏人数 1528、转发人数 74, 视频作者 以太之尘丨, 作者简介 AIGC优质二创内容,以尘AI联盟成员,我们的伙伴囊括各个领域up主,关注我获取交流学习群号,相关视频:最新版本完整部署-带你无门槛开始AI绘画/动画,10倍效率,打造无闪烁丝滑AI动画!EbSynth插件全流程操作解析与原理分析,超智能的“补帧”动画制作揭秘!| Stable Diffusion扩展插件教程,【AI动画超详细教程】目前最稳定,高效转绘方式,基于Ebsynth流程的简化提升方案,弱音💕跟我去约会吧 | AI动画 | 竖屏60帧,15分钟入门AI动画!Mov2Mov零基础教学,用Stable Diffusion生成酷炫逐帧重绘动画短视频,开启低成本动画时代 | 扩展插件教程,【AI绘画】Stable Diffusion强到离谱的插件让商业换装如此简单,Segment Anything GroundingDINO喂饭级安装教程,2分钟学会 目前最稳定AI动画流程ebsynth+segment+IS-NET-pro单帧渲染,我的学姐不可能这么可爱❤️ Bunny 咬人猫 | 4K | AI动画,还没学会AI动画? 拒绝低质量教学,全网最详细AI动画风格化教学 (进阶篇) | AI划时代 | AI工作流 | AI创作免费攻略下载 | 1v1免费咨询,可以和学姐交往吗💕兔总裁s | AI动画 | 4K
【AI动画教程】高效低配风格显著的平涂流AI动画(上)_哔哩哔哩_bilibili
教学质量很高
不安灵魂收容所 | 以太流动态裁剪脚本发布 | 4K AI动画_哔哩哔哩_bilibili
原视频:@琳汐汐吖o BV1zm4y1E7rN---------------本视频是联合众多up主共同完善动态裁剪渲染工作流的作品,也是把花絮和简易流程放在了片尾。感谢 @胡里胡涂大哥 @尽灭 在本次工作中夜以继日地编写和修正脚本,以及群内伙伴们积极的测试。我们一直在探索AI转绘更好更普遍性的流程,而本次的工作流完全解决了过往横屏视频难以转绘的问题。脚本github开源地址:https://, 视频播放量 48767、弹幕量 81、点赞数 1414、投硬币枚数 429、收藏人数 1613、转发人数 293, 视频作者 以太之尘丨, 作者简介 AIGC优质二创内容,以尘AI联盟成员,我们的伙伴囊括各个领域up主,关注我获取交流学习群号,相关视频:【AI动画版】估计过不了。。。,【AI动画】鹿鸣Lumi跳兔子舞,AI动画-欣小萌换装蹦迪,【AI动画教程】AI能做番了?文生图AI动画制作 | AI番剧计划①,2分钟学会 目前最稳定AI动画流程ebsynth+segment+IS-NET-pro单帧渲染,10倍效率,打造无闪烁丝滑AI动画!EbSynth插件全流程操作解析与原理分析,超智能的“补帧”动画制作揭秘!| Stable Diffusion扩展插件教程,AI舞蹈动画_StableDiffusion,基于Ebsynth流程,|AI转绘:|不闪了吧|效果怎么样|,[AI动画] 超丝滑鹿鸣dancing,真三渲二,又是拆家挨打的一天!这是谁家的可爱女友?(AI动画背景重绘版)| 黄豆粉 | 猫娘 | 4K高清画质
不安灵魂收容所 | 以太流动态裁剪脚本发布 | 4K AI动画_哔哩哔哩_bilibili
辅助脚本

这样都行 !?

  • 二维码
Stable Diffusion可识别二维码生成_哔哩哔哩_bilibili
1.由于论文发表只有几天的时间,所以ControlNet for QR Code今后会发生什么还不清楚。 等待作者的好消息!2.如果你想尝试视频中的方法,建议在理解流程的基础上调整参数,照搬参数的做法不一定能获得好的结果3.请生成高鲁棒性的二维码,以提高成功率, 视频播放量 445、弹幕量 5、点赞数 29、投硬币枚数 8、收藏人数 31、转发人数 5, 视频作者 自带马赛克属性的阿尼, 作者简介 ,相关视频:【SD】用SD生成简易二维码,ChatGPT割韭菜?我只服国产套壳!,ControlNet面部表情引导,搭了自己的chatgpt网站 | 无限制使用,免翻墙,二维码行业即将被AI颠覆!stable diffusion生成可扫码图像,【Stable Diffusion】文生图超详细参数使用技巧和方法推荐,【中英文精校】AI教父Hinton智源大会闭幕精彩演讲 “智能的两种道路”,强推!这可能是唯一能将GPT4讲清楚的教程了,不愧是哈佛大佬!1小时全面了解GPT4如何工作的,以及用GPT4构建应用程序,简直比看狂飙还爽!人工智能|机器学习,吹爆!这可能是2023最新的GPT4公开讲座了,1小时讲明白GPT4是如何工作的,以及使用GPT4打造智能程序,看完就对GPT4全面了解!人工智能|机器学习,【Stable diffusion案例教程】运用AI实现 草图→清稿→上色→3d效果全流程
Stable Diffusion可识别二维码生成_哔哩哔哩_bilibili
给出了关键参数:重绘1;tile权重0.9;介入时机0.23-0.26-0.28
具体做法
 

扩展阅读:

底层原理和名称概念讲解
SD的前世今生
 

ACGN

🧭ACGN

分享ACGN资源,附一些日文资源


AnonTranslator

AnonTranslator

Chrome扩展:Copy+Deepl+vitsTTS