标签:: AI

python whl 文件安装

python whl 文件安装学习资源 参考文章 简介Python whl文件是Python的一个包格式,全称是wheel文件。它是Python的一个打包格式,可以用于打包模块、插件、工具等。 使用pip安装1pip install 包名.whl whl文件命名规则 win32 结尾的 whl 库 amd64 结尾的 whl 库指的就是 x86-64 cp38 代表 python3.8 版本

Stable Diffusion 角色设定图

Stable Diffusion 角色设定图学习资源 参考文章 1. 下载骨骼四视图我们要借助 ControlNet中OpenPose来生成人物四视图,首先我们需要一张人物四视图的骨骼图,这种骨骼图很多(如下图),如果自己找不到,下面的图可以下载下来直接使用。 2. 准备关键词为了让 AI 知道我们生成的图片是同一个人物,需要在提示词前面加上 “character sheet of the sa

Stable Diffusion Segment anything 插件

Stable Diffusion Segment anything 插件模型下载 模型下载地址:sam_vit_h_4b8939.pth 插件安装插件安装类似其他插件,使用最新的 index.json 来搜索。 功能说明要配合的是ControlNet或者inpaint,inpaint是Stable Diffusion内置的一个功能,叫做绘制/重绘。 Segment anything 可

PS 上的开源 Stable Diffusion 插件

PS 上的开源 Stable Diffusion 插件学习资源 百度文章 项目信息 项目链接:GitHub仓库 下载地址:Releases v1.3.0 安装步骤 下载 .zip file 解压到 PS 的插件目录 Adobe Photoshop 2023\Plug-ins 启动 Stable Diffusion WebUI 在命令后加 --api 参数供插件使用 启动 PS 增效工具 - A

Claude2 发布

Claude2 发布官方地址 Claude.ai 功能特点 逻辑更强大,回答更”无害” 训练数据更新 支持附件上传 支持中文使用 最高支持10万tokens的输入和4000个tokens的输出 注意事项需要注意的是目前Claude Chat仅开放US和UK地区!

PS(beat版本)安装

PS(beat版本)安装下载地址 百度网盘链接 安装步骤 打开 Adobe Creative Cloud 安装包 科学在登录界面创建账户,不要用QQ邮箱 国家选印度或者美国,然后点完成 一直选跳过问题即可,如出现正版服务(AGS),要取消勾选 侧边栏 选Beta应用程序-然后找到PS (BETA选项点击试用)等下载完成 读条完成后点击开始试用,就可以激活7天 打开PS 激活补丁,关闭

Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换

Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换学习资源 百度文章 操作方法方法:通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。 应用模型 应用模型:ip2p 预处理器:none 要点采用指令式提示词(make Y into X),如下图示例中的 make it snow,让非洲草原下雪。

Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换

Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换学习资源 百度文章 操作方法方法:在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。 应用模型 应用模型:Depth 预处理器:Dept

Stable Diffusion Multi-ControlNet 联合调节

Stable Diffusion Multi-ControlNet 联合调节学习资源 B站文章 功能介绍此选项允许在单代中使用多个 ControlNet 输入。要启用此选项,请更改Multi ControlNet: Max models amount (requires restart)设置。请注意,您需要重新启动 WebUI 才能使更改生效。 如果启用了其中任何一个,猜测模式将应用于所有 Co

Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型

Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型Semantic Segmentation 语义分割是一种深度学习算法,重点关注 语义 一词,这种算法将一个标签或类别与图像联系起来,被用来识别形成不同类别的像素集合。具体还是看我的操作: 使用步骤 切换预处理器和模型 上传图片,然后点击”预览预处理器结果”。 可以看到,预处理阶

Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型

Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型这个是不需要我们绘画的,上传一张图片,它会帮我们生成涂鸦效果。 使用步骤 切换预处理器,模型不用切换。 上传图片,然后点击”预览预处理器结果”。(第一次用这个,控制台会更新一段时间) 关键词输入1Espresso, set in a cozy office space with warm lighti

Stable Diffusion ControlNet Scribble (涂鸦)模型

Stable Diffusion ControlNet Scribble (涂鸦)模型使用 Scribbles 模型,可以根据草图(涂鸦)绘制出精美的图片,对于那些没有接受过美术训练或缺乏绘画天赋的人来说,这是非常棒的。 使用步骤 切换预处理器和模型。(第一次用这个,控制台会更新一段时间) 点击”创建空白画布”。 然后在这里画线稿,这里我画一盏煤油灯,我是用的鼠标绘制的,画的不好,做个演示。有手绘

Stable Diffusion ControlNet OpenPose 姿态检测模型

Stable Diffusion ControlNet OpenPose 姿态检测模型通过姿势识别实现对人体动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势。 此外,由于 AI 生成的手部有问题,OpenPose 还有一个手部检测模型,大大改善了奇奇怪怪的手。 使用步骤 切换预处理器和模型。 上传一张图片,然后点击”预览预处理结果”,注意,第一次选中这个模型开始预处理的时候,会更新一段

Stable Diffusion ControlNet 法线贴图 (Normal map)模型

Stable Diffusion ControlNet 法线贴图 (Normal map)模型学习资源 百度文章 模型介绍从原图中提取 3D 物体的法线向量,绘制的新图与原图的光影效果完全相同。 使用步骤 切换预处理器和模型 上传一张图片,然后点击”预览预处理结果”,然后就会给你生成一张法线图(懂 3 维的小伙伴应该都知道这个) 继续输入关键词,等待生图…. 1Mercedes-Benz AM

Stable Diffusion ControlNet M-LSD (建筑物绘制)模型

Stable Diffusion ControlNet M-LSD (建筑物绘制)模型学习资源 百度文章 模型介绍通过分析图片中的线条结构和几何形状,可以构建建筑物的外框,适合建筑、室内设计的朋友使用。 使用步骤 切换预处理器和相应模型。 上传一张室内设计的图片,然后点击”预处理结果”,(第一次用这个,控制台会更新一段时间)。 输入关键词: 1pearl white walls, windso

Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型

Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型学习资源 百度文章1 百度文章2 Canny 边缘检测Canny 用于识别输入图像的边缘信息。从上传的图片中生成线稿,然后根据关键词来生成与上传图片同样构图的画面。 使用步骤 打开 Controlnet,选择 Canny 边缘检测,模型选择对应的 canny 模型。 上传图片,并勾选

Stable Diffusion ControlNet Tile 模型

Stable Diffusion ControlNet Tile 模型用法的开发有下面三种: 放大 修复 细节增强 目前大家都喜欢在图生图(img2img)里使用。 随着 Denoising strength 重绘强度的增加,细节更多。

Stable Diffusion ControlNet 插件

Stable Diffusion ControlNet 插件ControlNet 是一个用于控制 AI 图像生成的插件。它使用了一种称为”Conditional Generative Adversarial Networks”(条件生成对抗网络)的技术来生成图像。与传统的生成对抗网络不同,ControlNet 允许用户对生成的图像进行精细的控制。 在 ControlNet 出现之前,我们在生成图片

Stable Diffusion 参数 ENSD

Stable Diffusion 参数 ENSD在 Settings 界面,选 Show All Pages,搜索 noise,以下参数就是: Eta noise seed delta (ENSD): does not improve anything, just produces different results for ancestral samplers - only useful for

Stable Diffusion LoRA 炼丹

Stable Diffusion LoRA 炼丹学习资源 B站视频教程: https://www.bilibili.com/video/BV1Ta4y1c7c1/?spm_id_from=333.337.search-card.all.click&vd_source=5bb1b6d608ac43ae4329df03895a93ec Kohya_ss GitHub页面:

SD 提示词

SD 提示词参考资源 https://wolfchen.top/tag/doc.html https://a2a.top 节选资源 https://aitag.top/ https://finding.art/ http://wolfchen.top/tag/ https://tags.novelai.dev/ https://magic-tag.netlify.app/

SD 模型资源

SD 模型资源模型资源网站 https://www.xtimesai.com https://www.liblibai.com https://civitai.com

给你的 lora 加模型预览图卡片

给你的 lora 加模型预览图卡片学习资源 知乎文章: https://zhuanlan.zhihu.com/p/600628691 操作步骤之前可以发现当我们的lora模型上都显示 no preview 即没有预览图,我们可以生成完图片后再次找到添加lora模型的位置,鼠标移动lora卡片的左下角,lora标题上方位置时会出现replace preview(替换预览)红色字样,点击即可将刚刚生

SD 模型说明

SD 模型说明Checkpoint/大模型/底模型/主模型Checkpoint模型是SD能够绘图的基础模型,因此被称为大模型、底模型或者主模型,WebUI上就叫它Stable Diffusion模型。安装完SD软件后,必须搭配主模型才能使用。不同的主模型,其画风和擅长的领域会有侧重。 checkpoint模型包含生成图像所需的一切,不需要额外的文件。但是它们体积很大,

如何训练自己的 Stable Diffusion 模型

如何训练自己的 Stable Diffusion 模型训练自己的Stable Diffusion模型需要一些专业的知识和技能,以及一些必要的工具和数据。基本步骤如下: 数据准备收集和清洗用于训练模型的数据。要确保数据是准确和最新的,而且与你想要生成的图像风格相关。 模型设计选择合适的算法和参数来构建模型。你可以使用已有的稳定扩散模型作为基础,或者从头开始创建一个新的模型。 模型评估使用不同的数据集

Stable Diffusion Web UI 问题汇总

Stable Diffusion Web UI 问题汇总学习资源 B站文章: https://www.bilibili.com/read/cv19398141 CSDN博客: https://blog.csdn.net/weixin_44442186/article/details/124979085 参考教程: https://ivonblog.com/posts/

Stable Diffusion Web UI 安装

Stable Diffusion Web UI 安装学习资源 CSDN博客: https://blog.csdn.net/wpgdream/article/details/129255469 1. 安装git2. 安装Python访问Python官网,下载指定版本3.10.6。 这里千万千万不要不要乱下版本,否则会面对一连串你无法处理的问题。 安装的时候,只需要勾选”Add Python” 然后