python whl 文件安装
python whl 文件安装学习资源 参考文章 简介Python whl文件是Python的一个包格式,全称是wheel文件。它是Python的一个打包格式,可以用于打包模块、插件、工具等。 使用pip安装1pip install 包名.whl whl文件命名规则 win32 结尾的 whl 库 amd64 结尾的 whl 库指的就是 x86-64 cp38 代表 python3.8 版本
python whl 文件安装学习资源 参考文章 简介Python whl文件是Python的一个包格式,全称是wheel文件。它是Python的一个打包格式,可以用于打包模块、插件、工具等。 使用pip安装1pip install 包名.whl whl文件命名规则 win32 结尾的 whl 库 amd64 结尾的 whl 库指的就是 x86-64 cp38 代表 python3.8 版本
Stable Diffusion 角色设定图学习资源 参考文章 1. 下载骨骼四视图我们要借助 ControlNet中OpenPose来生成人物四视图,首先我们需要一张人物四视图的骨骼图,这种骨骼图很多(如下图),如果自己找不到,下面的图可以下载下来直接使用。 2. 准备关键词为了让 AI 知道我们生成的图片是同一个人物,需要在提示词前面加上 “character sheet of the sa
Stable Diffusion One Button Prompt 插件项目地址 GitHub仓库
Stable Diffusion Segment anything 插件模型下载 模型下载地址:sam_vit_h_4b8939.pth 插件安装插件安装类似其他插件,使用最新的 index.json 来搜索。 功能说明要配合的是ControlNet或者inpaint,inpaint是Stable Diffusion内置的一个功能,叫做绘制/重绘。 Segment anything 可
PS 上的开源 Stable Diffusion 插件学习资源 百度文章 项目信息 项目链接:GitHub仓库 下载地址:Releases v1.3.0 安装步骤 下载 .zip file 解压到 PS 的插件目录 Adobe Photoshop 2023\Plug-ins 启动 Stable Diffusion WebUI 在命令后加 --api 参数供插件使用 启动 PS 增效工具 - A
Claude2 发布官方地址 Claude.ai 功能特点 逻辑更强大,回答更”无害” 训练数据更新 支持附件上传 支持中文使用 最高支持10万tokens的输入和4000个tokens的输出 注意事项需要注意的是目前Claude Chat仅开放US和UK地区!
PS(beat版本)安装下载地址 百度网盘链接 安装步骤 打开 Adobe Creative Cloud 安装包 科学在登录界面创建账户,不要用QQ邮箱 国家选印度或者美国,然后点完成 一直选跳过问题即可,如出现正版服务(AGS),要取消勾选 侧边栏 选Beta应用程序-然后找到PS (BETA选项点击试用)等下载完成 读条完成后点击开始试用,就可以激活7天 打开PS 激活补丁,关闭
Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换学习资源 百度文章 操作方法方法:通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。 应用模型 应用模型:ip2p 预处理器:none 要点采用指令式提示词(make Y into X),如下图示例中的 make it snow,让非洲草原下雪。
Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换学习资源 百度文章 操作方法方法:在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。 应用模型 应用模型:Depth 预处理器:Dept
Stable Diffusion Multi-ControlNet 联合调节学习资源 B站文章 功能介绍此选项允许在单代中使用多个 ControlNet 输入。要启用此选项,请更改Multi ControlNet: Max models amount (requires restart)设置。请注意,您需要重新启动 WebUI 才能使更改生效。 如果启用了其中任何一个,猜测模式将应用于所有 Co
Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型Semantic Segmentation 语义分割是一种深度学习算法,重点关注 语义 一词,这种算法将一个标签或类别与图像联系起来,被用来识别形成不同类别的像素集合。具体还是看我的操作: 使用步骤 切换预处理器和模型 上传图片,然后点击”预览预处理器结果”。 可以看到,预处理阶
Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型这个是不需要我们绘画的,上传一张图片,它会帮我们生成涂鸦效果。 使用步骤 切换预处理器,模型不用切换。 上传图片,然后点击”预览预处理器结果”。(第一次用这个,控制台会更新一段时间) 关键词输入1Espresso, set in a cozy office space with warm lighti
Stable Diffusion ControlNet Scribble (涂鸦)模型使用 Scribbles 模型,可以根据草图(涂鸦)绘制出精美的图片,对于那些没有接受过美术训练或缺乏绘画天赋的人来说,这是非常棒的。 使用步骤 切换预处理器和模型。(第一次用这个,控制台会更新一段时间) 点击”创建空白画布”。 然后在这里画线稿,这里我画一盏煤油灯,我是用的鼠标绘制的,画的不好,做个演示。有手绘
Stable Diffusion ControlNet OpenPose 姿态检测模型通过姿势识别实现对人体动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势。 此外,由于 AI 生成的手部有问题,OpenPose 还有一个手部检测模型,大大改善了奇奇怪怪的手。 使用步骤 切换预处理器和模型。 上传一张图片,然后点击”预览预处理结果”,注意,第一次选中这个模型开始预处理的时候,会更新一段
Stable Diffusion ControlNet 法线贴图 (Normal map)模型学习资源 百度文章 模型介绍从原图中提取 3D 物体的法线向量,绘制的新图与原图的光影效果完全相同。 使用步骤 切换预处理器和模型 上传一张图片,然后点击”预览预处理结果”,然后就会给你生成一张法线图(懂 3 维的小伙伴应该都知道这个) 继续输入关键词,等待生图…. 1Mercedes-Benz AM
Stable Diffusion ControlNet M-LSD (建筑物绘制)模型学习资源 百度文章 模型介绍通过分析图片中的线条结构和几何形状,可以构建建筑物的外框,适合建筑、室内设计的朋友使用。 使用步骤 切换预处理器和相应模型。 上传一张室内设计的图片,然后点击”预处理结果”,(第一次用这个,控制台会更新一段时间)。 输入关键词: 1pearl white walls, windso
Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型学习资源 百度文章1 百度文章2 Canny 边缘检测Canny 用于识别输入图像的边缘信息。从上传的图片中生成线稿,然后根据关键词来生成与上传图片同样构图的画面。 使用步骤 打开 Controlnet,选择 Canny 边缘检测,模型选择对应的 canny 模型。 上传图片,并勾选
Stable Diffusion ControlNet Tile 模型用法的开发有下面三种: 放大 修复 细节增强 目前大家都喜欢在图生图(img2img)里使用。 随着 Denoising strength 重绘强度的增加,细节更多。
Stable Diffusion ControlNet 插件ControlNet 是一个用于控制 AI 图像生成的插件。它使用了一种称为”Conditional Generative Adversarial Networks”(条件生成对抗网络)的技术来生成图像。与传统的生成对抗网络不同,ControlNet 允许用户对生成的图像进行精细的控制。 在 ControlNet 出现之前,我们在生成图片
Stable Diffusion 参数 ENSD在 Settings 界面,选 Show All Pages,搜索 noise,以下参数就是: Eta noise seed delta (ENSD): does not improve anything, just produces different results for ancestral samplers - only useful for
Stable Diffusion LoRA 炼丹学习资源 B站视频教程: https://www.bilibili.com/video/BV1Ta4y1c7c1/?spm_id_from=333.337.search-card.all.click&vd_source=5bb1b6d608ac43ae4329df03895a93ec Kohya_ss GitHub页面:
stable-diffusion-webui 生成图时提示 Something went wrong Expecting value line 1 column 1 (char 0) 解决办法学习资源 解决方案: https://kinggoo.com/stable-diffusion-webui-sometingwentwrongexpectingvalue.htm 问题原因及解决办法问题原因
SD 提示词参考资源 https://wolfchen.top/tag/doc.html https://a2a.top 节选资源 https://aitag.top/ https://finding.art/ http://wolfchen.top/tag/ https://tags.novelai.dev/ https://magic-tag.netlify.app/
SD 模型资源模型资源网站 https://www.xtimesai.com https://www.liblibai.com https://civitai.com
给你的 lora 加模型预览图卡片学习资源 知乎文章: https://zhuanlan.zhihu.com/p/600628691 操作步骤之前可以发现当我们的lora模型上都显示 no preview 即没有预览图,我们可以生成完图片后再次找到添加lora模型的位置,鼠标移动lora卡片的左下角,lora标题上方位置时会出现replace preview(替换预览)红色字样,点击即可将刚刚生
SD 模型说明Checkpoint/大模型/底模型/主模型Checkpoint模型是SD能够绘图的基础模型,因此被称为大模型、底模型或者主模型,WebUI上就叫它Stable Diffusion模型。安装完SD软件后,必须搭配主模型才能使用。不同的主模型,其画风和擅长的领域会有侧重。 checkpoint模型包含生成图像所需的一切,不需要额外的文件。但是它们体积很大,
github 提供在线加速下载的网站加速下载网站 https://d.serctl.com/
如何训练自己的 Stable Diffusion 模型训练自己的Stable Diffusion模型需要一些专业的知识和技能,以及一些必要的工具和数据。基本步骤如下: 数据准备收集和清洗用于训练模型的数据。要确保数据是准确和最新的,而且与你想要生成的图像风格相关。 模型设计选择合适的算法和参数来构建模型。你可以使用已有的稳定扩散模型作为基础,或者从头开始创建一个新的模型。 模型评估使用不同的数据集
Stable Diffusion Web UI 问题汇总学习资源 B站文章: https://www.bilibili.com/read/cv19398141 CSDN博客: https://blog.csdn.net/weixin_44442186/article/details/124979085 参考教程: https://ivonblog.com/posts/
Stable Diffusion Web UI 安装学习资源 CSDN博客: https://blog.csdn.net/wpgdream/article/details/129255469 1. 安装git2. 安装Python访问Python官网,下载指定版本3.10.6。 这里千万千万不要不要乱下版本,否则会面对一连串你无法处理的问题。 安装的时候,只需要勾选”Add Python” 然后