Chat-GLM 详细部署(GPU显存>=12GB)
Chat-GLM 详细部署(GPU显存>=12GB)学习资源 CSDN部署指南 安装配置 ChatGLM1. 克隆项目到本地如果没git需要安装git CD到目标文件夹内执行命令: 1git clone https://github.com/THUDM/ChatGLM2-6B 2. 创建conda工程打开CMD将目录CD到工程内。 123cd ChatGLM2-6Bconda cre
Chat-GLM 详细部署(GPU显存>=12GB)学习资源 CSDN部署指南 安装配置 ChatGLM1. 克隆项目到本地如果没git需要安装git CD到目标文件夹内执行命令: 1git clone https://github.com/THUDM/ChatGLM2-6B 2. 创建conda工程打开CMD将目录CD到工程内。 123cd ChatGLM2-6Bconda cre
Python 报错 MemoryErrorMemoryError:涉及到了读取、保存、写入,内存不够用了 解决方案:加内存条即可
UnicodeDecodeError ‘gbk’ codec can’t decode byte 0xa6 in position学习资源 CSDN解决方案 原因分析这个错误通常表示在执行解码操作时,使用了错误的编码格式,导致无法正常解码某些字符。例如在这个具体的错误信息中,’gbk’编码器尝试解码一个字节串,但发现该字节串中存在0xa6字节,而该字节不符合 ‘gbk’ 编码格式,因此抛出了 U
pip install 报错 fatal error C1083 无法打开包括文件 “math.h”学习资源 CSDN解决方案 解决方案解决方案。。。现在看来原生不支持windows纯属扯蛋 使用 Visaul Studio Installer 工具安装 Windows 10/11 SDK
python whl 文件安装学习资源 参考文章 简介Python whl文件是Python的一个包格式,全称是wheel文件。它是Python的一个打包格式,可以用于打包模块、插件、工具等。 使用pip安装1pip install 包名.whl whl文件命名规则 win32 结尾的 whl 库 amd64 结尾的 whl 库指的就是 x86-64 cp38 代表 python3.8 版本
Stable Diffusion 角色设定图学习资源 参考文章 1. 下载骨骼四视图我们要借助 ControlNet中OpenPose来生成人物四视图,首先我们需要一张人物四视图的骨骼图,这种骨骼图很多(如下图),如果自己找不到,下面的图可以下载下来直接使用。 2. 准备关键词为了让 AI 知道我们生成的图片是同一个人物,需要在提示词前面加上 “character sheet of the sa
Stable Diffusion One Button Prompt 插件项目地址 GitHub仓库
Stable Diffusion Segment anything 插件模型下载 模型下载地址:sam_vit_h_4b8939.pth 插件安装插件安装类似其他插件,使用最新的 index.json 来搜索。 功能说明要配合的是ControlNet或者inpaint,inpaint是Stable Diffusion内置的一个功能,叫做绘制/重绘。 Segment anything 可
yum 升级 nodejs 和 npm突然报错: Cannot find module ‘node:assert/strict’ 需要升级 nodejs 才能解决这个问题 之前是 yum 安装的 nodejs 只能用 yum 卸载旧的再安装新的 通过 yum 命令彻底删除 node.js用自带的包管理先删除一次 1yum remove nodejs npm -y 手动删除残留 1234
PS 上的开源 Stable Diffusion 插件学习资源 百度文章 项目信息 项目链接:GitHub仓库 下载地址:Releases v1.3.0 安装步骤 下载 .zip file 解压到 PS 的插件目录 Adobe Photoshop 2023\Plug-ins 启动 Stable Diffusion WebUI 在命令后加 --api 参数供插件使用 启动 PS 增效工具 - A
Claude2 发布官方地址 Claude.ai 功能特点 逻辑更强大,回答更”无害” 训练数据更新 支持附件上传 支持中文使用 最高支持10万tokens的输入和4000个tokens的输出 注意事项需要注意的是目前Claude Chat仅开放US和UK地区!
PS(beat版本)安装下载地址 百度网盘链接 安装步骤 打开 Adobe Creative Cloud 安装包 科学在登录界面创建账户,不要用QQ邮箱 国家选印度或者美国,然后点完成 一直选跳过问题即可,如出现正版服务(AGS),要取消勾选 侧边栏 选Beta应用程序-然后找到PS (BETA选项点击试用)等下载完成 读条完成后点击开始试用,就可以激活7天 打开PS 激活补丁,关闭
Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换学习资源 百度文章 操作方法方法:通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。 应用模型 应用模型:ip2p 预处理器:none 要点采用指令式提示词(make Y into X),如下图示例中的 make it snow,让非洲草原下雪。
Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换学习资源 百度文章 操作方法方法:在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。 应用模型 应用模型:Depth 预处理器:Dept
表格转换工具 Excel 转换为 Markdown 表格主要功能 Excel 转换为 Markdown 表格 SQL 转换为 Markdown 表格 Markdown 表格 转换为 CSV
Stable Diffusion Multi-ControlNet 联合调节学习资源 B站文章 功能介绍此选项允许在单代中使用多个 ControlNet 输入。要启用此选项,请更改Multi ControlNet: Max models amount (requires restart)设置。请注意,您需要重新启动 WebUI 才能使更改生效。 如果启用了其中任何一个,猜测模式将应用于所有 Co
Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型Semantic Segmentation 语义分割是一种深度学习算法,重点关注 语义 一词,这种算法将一个标签或类别与图像联系起来,被用来识别形成不同类别的像素集合。具体还是看我的操作: 使用步骤 切换预处理器和模型 上传图片,然后点击”预览预处理器结果”。 可以看到,预处理阶
Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型这个是不需要我们绘画的,上传一张图片,它会帮我们生成涂鸦效果。 使用步骤 切换预处理器,模型不用切换。 上传图片,然后点击”预览预处理器结果”。(第一次用这个,控制台会更新一段时间) 关键词输入1Espresso, set in a cozy office space with warm lighti
Stable Diffusion ControlNet Scribble (涂鸦)模型使用 Scribbles 模型,可以根据草图(涂鸦)绘制出精美的图片,对于那些没有接受过美术训练或缺乏绘画天赋的人来说,这是非常棒的。 使用步骤 切换预处理器和模型。(第一次用这个,控制台会更新一段时间) 点击”创建空白画布”。 然后在这里画线稿,这里我画一盏煤油灯,我是用的鼠标绘制的,画的不好,做个演示。有手绘
Stable Diffusion ControlNet OpenPose 姿态检测模型通过姿势识别实现对人体动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势。 此外,由于 AI 生成的手部有问题,OpenPose 还有一个手部检测模型,大大改善了奇奇怪怪的手。 使用步骤 切换预处理器和模型。 上传一张图片,然后点击”预览预处理结果”,注意,第一次选中这个模型开始预处理的时候,会更新一段
Stable Diffusion ControlNet 法线贴图 (Normal map)模型学习资源 百度文章 模型介绍从原图中提取 3D 物体的法线向量,绘制的新图与原图的光影效果完全相同。 使用步骤 切换预处理器和模型 上传一张图片,然后点击”预览预处理结果”,然后就会给你生成一张法线图(懂 3 维的小伙伴应该都知道这个) 继续输入关键词,等待生图…. 1Mercedes-Benz AM
Stable Diffusion ControlNet M-LSD (建筑物绘制)模型学习资源 百度文章 模型介绍通过分析图片中的线条结构和几何形状,可以构建建筑物的外框,适合建筑、室内设计的朋友使用。 使用步骤 切换预处理器和相应模型。 上传一张室内设计的图片,然后点击”预处理结果”,(第一次用这个,控制台会更新一段时间)。 输入关键词: 1pearl white walls, windso
Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型学习资源 百度文章1 百度文章2 Canny 边缘检测Canny 用于识别输入图像的边缘信息。从上传的图片中生成线稿,然后根据关键词来生成与上传图片同样构图的画面。 使用步骤 打开 Controlnet,选择 Canny 边缘检测,模型选择对应的 canny 模型。 上传图片,并勾选
Stable Diffusion ControlNet Tile 模型用法的开发有下面三种: 放大 修复 细节增强 目前大家都喜欢在图生图(img2img)里使用。 随着 Denoising strength 重绘强度的增加,细节更多。
Stable Diffusion ControlNet 插件ControlNet 是一个用于控制 AI 图像生成的插件。它使用了一种称为”Conditional Generative Adversarial Networks”(条件生成对抗网络)的技术来生成图像。与传统的生成对抗网络不同,ControlNet 允许用户对生成的图像进行精细的控制。 在 ControlNet 出现之前,我们在生成图片
Stable Diffusion 参数 ENSD在 Settings 界面,选 Show All Pages,搜索 noise,以下参数就是: Eta noise seed delta (ENSD): does not improve anything, just produces different results for ancestral samplers - only useful for
Creator 引擎定制官方文档 引擎定制指南: https://docs.cocos.com/creator/2.4/manual/zh/advanced-topics/engine-customization.html
Unity WebGL 微信小游戏适配方案项目地址 GitHub: https://github.com/wechat-miniprogram/minigame-unity-webgl-transform Gitee: https://gitee.com/wechat-minigame/minigame-unity-webgl-transform 方案特点 保持原引擎工具链与技术栈 无需重写游戏
Stable Diffusion LoRA 炼丹学习资源 B站视频教程: https://www.bilibili.com/video/BV1Ta4y1c7c1/?spm_id_from=333.337.search-card.all.click&vd_source=5bb1b6d608ac43ae4329df03895a93ec Kohya_ss GitHub页面:
stable-diffusion-webui 生成图时提示 Something went wrong Expecting value line 1 column 1 (char 0) 解决办法学习资源 解决方案: https://kinggoo.com/stable-diffusion-webui-sometingwentwrongexpectingvalue.htm 问题原因及解决办法问题原因