主页

Chat-GLM 详细部署(GPU显存>=12GB)

Chat-GLM 详细部署(GPU显存>=12GB)学习资源 CSDN部署指南 安装配置 ChatGLM1. 克隆项目到本地如果没git需要安装git CD到目标文件夹内执行命令: 1git clone https://github.com/THUDM/ChatGLM2-6B 2. 创建conda工程打开CMD将目录CD到工程内。 123cd ChatGLM2-6Bconda cre

Python 报错 MemoryError

Python 报错 MemoryErrorMemoryError:涉及到了读取、保存、写入,内存不够用了 解决方案:加内存条即可

UnicodeDecodeError 'gbk' codec can't decode byte 0xa6 in position

UnicodeDecodeError ‘gbk’ codec can’t decode byte 0xa6 in position学习资源 CSDN解决方案 原因分析这个错误通常表示在执行解码操作时,使用了错误的编码格式,导致无法正常解码某些字符。例如在这个具体的错误信息中,’gbk’编码器尝试解码一个字节串,但发现该字节串中存在0xa6字节,而该字节不符合 ‘gbk’ 编码格式,因此抛出了 U

python whl 文件安装

python whl 文件安装学习资源 参考文章 简介Python whl文件是Python的一个包格式,全称是wheel文件。它是Python的一个打包格式,可以用于打包模块、插件、工具等。 使用pip安装1pip install 包名.whl whl文件命名规则 win32 结尾的 whl 库 amd64 结尾的 whl 库指的就是 x86-64 cp38 代表 python3.8 版本

Stable Diffusion 角色设定图

Stable Diffusion 角色设定图学习资源 参考文章 1. 下载骨骼四视图我们要借助 ControlNet中OpenPose来生成人物四视图,首先我们需要一张人物四视图的骨骼图,这种骨骼图很多(如下图),如果自己找不到,下面的图可以下载下来直接使用。 2. 准备关键词为了让 AI 知道我们生成的图片是同一个人物,需要在提示词前面加上 “character sheet of the sa

Stable Diffusion Segment anything 插件

Stable Diffusion Segment anything 插件模型下载 模型下载地址:sam_vit_h_4b8939.pth 插件安装插件安装类似其他插件,使用最新的 index.json 来搜索。 功能说明要配合的是ControlNet或者inpaint,inpaint是Stable Diffusion内置的一个功能,叫做绘制/重绘。 Segment anything 可

yum 升级 nodejs 和 npm

yum 升级 nodejs 和 npm突然报错: Cannot find module ‘node:assert/strict’ 需要升级 nodejs 才能解决这个问题 之前是 yum 安装的 nodejs 只能用 yum 卸载旧的再安装新的 通过 yum 命令彻底删除 node.js用自带的包管理先删除一次 1yum remove nodejs npm -y 手动删除残留 1234

PS 上的开源 Stable Diffusion 插件

PS 上的开源 Stable Diffusion 插件学习资源 百度文章 项目信息 项目链接:GitHub仓库 下载地址:Releases v1.3.0 安装步骤 下载 .zip file 解压到 PS 的插件目录 Adobe Photoshop 2023\Plug-ins 启动 Stable Diffusion WebUI 在命令后加 --api 参数供插件使用 启动 PS 增效工具 - A

Claude2 发布

Claude2 发布官方地址 Claude.ai 功能特点 逻辑更强大,回答更”无害” 训练数据更新 支持附件上传 支持中文使用 最高支持10万tokens的输入和4000个tokens的输出 注意事项需要注意的是目前Claude Chat仅开放US和UK地区!

PS(beat版本)安装

PS(beat版本)安装下载地址 百度网盘链接 安装步骤 打开 Adobe Creative Cloud 安装包 科学在登录界面创建账户,不要用QQ邮箱 国家选印度或者美国,然后点完成 一直选跳过问题即可,如出现正版服务(AGS),要取消勾选 侧边栏 选Beta应用程序-然后找到PS (BETA选项点击试用)等下载完成 读条完成后点击开始试用,就可以激活7天 打开PS 激活补丁,关闭

Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换

Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换学习资源 百度文章 操作方法方法:通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。 应用模型 应用模型:ip2p 预处理器:none 要点采用指令式提示词(make Y into X),如下图示例中的 make it snow,让非洲草原下雪。

Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换

Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换学习资源 百度文章 操作方法方法:在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。 应用模型 应用模型:Depth 预处理器:Dept

Stable Diffusion Multi-ControlNet 联合调节

Stable Diffusion Multi-ControlNet 联合调节学习资源 B站文章 功能介绍此选项允许在单代中使用多个 ControlNet 输入。要启用此选项,请更改Multi ControlNet: Max models amount (requires restart)设置。请注意,您需要重新启动 WebUI 才能使更改生效。 如果启用了其中任何一个,猜测模式将应用于所有 Co

Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型

Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型Semantic Segmentation 语义分割是一种深度学习算法,重点关注 语义 一词,这种算法将一个标签或类别与图像联系起来,被用来识别形成不同类别的像素集合。具体还是看我的操作: 使用步骤 切换预处理器和模型 上传图片,然后点击”预览预处理器结果”。 可以看到,预处理阶

Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型

Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型这个是不需要我们绘画的,上传一张图片,它会帮我们生成涂鸦效果。 使用步骤 切换预处理器,模型不用切换。 上传图片,然后点击”预览预处理器结果”。(第一次用这个,控制台会更新一段时间) 关键词输入1Espresso, set in a cozy office space with warm lighti

Stable Diffusion ControlNet Scribble (涂鸦)模型

Stable Diffusion ControlNet Scribble (涂鸦)模型使用 Scribbles 模型,可以根据草图(涂鸦)绘制出精美的图片,对于那些没有接受过美术训练或缺乏绘画天赋的人来说,这是非常棒的。 使用步骤 切换预处理器和模型。(第一次用这个,控制台会更新一段时间) 点击”创建空白画布”。 然后在这里画线稿,这里我画一盏煤油灯,我是用的鼠标绘制的,画的不好,做个演示。有手绘

Stable Diffusion ControlNet OpenPose 姿态检测模型

Stable Diffusion ControlNet OpenPose 姿态检测模型通过姿势识别实现对人体动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势。 此外,由于 AI 生成的手部有问题,OpenPose 还有一个手部检测模型,大大改善了奇奇怪怪的手。 使用步骤 切换预处理器和模型。 上传一张图片,然后点击”预览预处理结果”,注意,第一次选中这个模型开始预处理的时候,会更新一段

Stable Diffusion ControlNet 法线贴图 (Normal map)模型

Stable Diffusion ControlNet 法线贴图 (Normal map)模型学习资源 百度文章 模型介绍从原图中提取 3D 物体的法线向量,绘制的新图与原图的光影效果完全相同。 使用步骤 切换预处理器和模型 上传一张图片,然后点击”预览预处理结果”,然后就会给你生成一张法线图(懂 3 维的小伙伴应该都知道这个) 继续输入关键词,等待生图…. 1Mercedes-Benz AM

Stable Diffusion ControlNet M-LSD (建筑物绘制)模型

Stable Diffusion ControlNet M-LSD (建筑物绘制)模型学习资源 百度文章 模型介绍通过分析图片中的线条结构和几何形状,可以构建建筑物的外框,适合建筑、室内设计的朋友使用。 使用步骤 切换预处理器和相应模型。 上传一张室内设计的图片,然后点击”预处理结果”,(第一次用这个,控制台会更新一段时间)。 输入关键词: 1pearl white walls, windso

Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型

Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型学习资源 百度文章1 百度文章2 Canny 边缘检测Canny 用于识别输入图像的边缘信息。从上传的图片中生成线稿,然后根据关键词来生成与上传图片同样构图的画面。 使用步骤 打开 Controlnet,选择 Canny 边缘检测,模型选择对应的 canny 模型。 上传图片,并勾选

Stable Diffusion ControlNet Tile 模型

Stable Diffusion ControlNet Tile 模型用法的开发有下面三种: 放大 修复 细节增强 目前大家都喜欢在图生图(img2img)里使用。 随着 Denoising strength 重绘强度的增加,细节更多。

Stable Diffusion ControlNet 插件

Stable Diffusion ControlNet 插件ControlNet 是一个用于控制 AI 图像生成的插件。它使用了一种称为”Conditional Generative Adversarial Networks”(条件生成对抗网络)的技术来生成图像。与传统的生成对抗网络不同,ControlNet 允许用户对生成的图像进行精细的控制。 在 ControlNet 出现之前,我们在生成图片

Stable Diffusion 参数 ENSD

Stable Diffusion 参数 ENSD在 Settings 界面,选 Show All Pages,搜索 noise,以下参数就是: Eta noise seed delta (ENSD): does not improve anything, just produces different results for ancestral samplers - only useful for

Creator 引擎定制

Creator 引擎定制官方文档 引擎定制指南: https://docs.cocos.com/creator/2.4/manual/zh/advanced-topics/engine-customization.html

Unity WebGL 微信小游戏适配方案

Unity WebGL 微信小游戏适配方案项目地址 GitHub: https://github.com/wechat-miniprogram/minigame-unity-webgl-transform Gitee: https://gitee.com/wechat-minigame/minigame-unity-webgl-transform 方案特点 保持原引擎工具链与技术栈 无需重写游戏

Stable Diffusion LoRA 炼丹

Stable Diffusion LoRA 炼丹学习资源 B站视频教程: https://www.bilibili.com/video/BV1Ta4y1c7c1/?spm_id_from=333.337.search-card.all.click&vd_source=5bb1b6d608ac43ae4329df03895a93ec Kohya_ss GitHub页面: