pip install 报错 fatal error C1083 无法打开包括文件 “math.h”
pip install 报错 fatal error C1083 无法打开包括文件 “math.h”https://blog.csdn.net/weixin_44289959/article/details/122282633 解决方案。。。现在看来原生不支持windows纯属扯蛋 使用 Visaul Studio Installer 工具安装 Windows 10/11 SDK
pip install 报错 fatal error C1083 无法打开包括文件 “math.h”https://blog.csdn.net/weixin_44289959/article/details/122282633 解决方案。。。现在看来原生不支持windows纯属扯蛋 使用 Visaul Studio Installer 工具安装 Windows 10/11 SDK
python whl 文件安装https://www.ycpai.cn/python/LXwtm7JL.html Python whl文件是Python的一个包格式,全称是wheel文件。它是Python的一个打包格式,可以用于打包模块、插件、工具等。 使用pip安装 1pip install 包名.whl win32 结尾的 whl 库 amd64 结尾的 whl 库指的就是 x86-64
Stable Diffusion 角色设定图http://sailmeet.com/news/detail/438 1、下载骨骼四视图 我们要借助 ControlNet中OpenPose来生成人物四视图,首先我们需要一张人物四视图的骨骼图,这种骨骼图很多(如下图),如果自己找不到,下面的图可以下载下来直接使用。 2、准备关键词 为了让 AI 知道我们生成的图片是同一个人物,需要在提示词前面加上
Stable Diffusion One Button Prompt 插件https://github.com/AIrjen/OneButtonPrompt
Stable Diffusion Segment anything 插件模型下载地址:https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth 插件安装类似其他插件,使用最新的 index.json 来搜索 要配合的是ControlNet或者inpaint,inpaint是Stable Diffusion内置的一个功
yum 升级 nodejs 和 npm突然报错: Cannot find module ‘node:assert/strict’ 需要升级 nodejs 才能解决这个问题 ==之前是 yum 安装的 nodejs 只能用 yum 卸载旧的再安装新的== 通过 yum 命令彻底删除 node.js用自带的包管理先删除一次 1yum remove n
PS 上的开源 Stable Diffusion 插件https://baijiahao.baidu.com/s?id=1752990949654292243&wfr=spider&for=pc 项目链接:https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin 下载:https://gith
Claude2 发布https://claude.ai/chats 逻辑更强大,回答更“无害”,训练数据更新,支持附件上传、也支持中文使用。 最高支持10万tokens的输入和4000个tokens的输出 需要注意的是目前Claude Chat仅开放US和UK地区!
PS(beat版本)安装https://pan.baidu.com/s/1ILZA7pic2PlmgvQLEQVFGQ?errmsg=Auth+Login+Params+Not+Corret&errno=2&pwd=AICM&ssnerror=0#list/path=%2F 1.打开 Adobe Creative Cloud 安装包 2.科学在登录界面创建账户,不要用QQ
Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换https://baijiahao.baidu.com/s?id=1764942391242220507&wfr=spider&for=pc 方法:通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。 应用模型:ip2p,预处理器选择
Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换https://baijiahao.baidu.com/s?id=1764942391242220507&wfr=spider&for=pc 方法:在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的
表格转换工具 Excel 转换为 Markdown 表格https://tableconvert.com/zh-cn/ insert SQL 转换为 Markdown 表格 https://tableconvert.com/zh-cn/sql-to-markdown Markdown 表格 转换为 CSV https://tableconvert.com/zh-cn/markdown-to-cs
Stable Diffusion Multi-ControlNet 联合调节https://www.bilibili.com/read/cv23308070 此选项允许在单代中使用多个 ControlNet 输入。要启用此选项,请更改Multi ControlNet: Max models amount (requires restart)设置。请注意,您需要重新启动 WebUI 才能使更改生效
Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型Semantic Segmentation 语义分割是一种深度学习算法,重点关注 语义 一词,这种算法将一个标签或类别与图像联系起来,被用来识别形成不同类别的像素集合。具体还是看我的操作: 切换预处理器和模型 上传图片,然后点击“预览预处理器结果”。 可以看到,预处理阶段
Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型这个是不需要我们绘画的,上传一张图片,它会帮我们生成涂鸦效果。 切换预处理器,模型不用切换。 上传图片,然后点击“预览预处理器结果”。(第一次用这个,控制台会更新一段时间) 输入关键词: Espresso, set in a cozy office space with warm light
Stable Diffusion ControlNet Scribble (涂鸦)模型使用 Scribbles 模型,可以根据草图(涂鸦)绘制出精美的图片,对于那些没有接受过美术训练或缺乏绘画天赋的人来说,这是非常棒的。 切换预处理器和模型。(第一次用这个,控制台会更新一段时间) 点击“创建空白画布”。 然后在这里画线稿,这里我画一盏煤油灯,我是用的鼠标绘制的,画的不好,做个演示。有手绘板
Stable Diffusion ControlNet OpenPose 姿态检测模型通过姿势识别实现对人体动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势。 此外,由于 AI 生成的手部有问题,OpenPose 还有一个手部检测模型,大大改善了奇奇怪怪的手。 切换预处理器和模型。 上传一张图片,然后点击“预览预处理结果”,注意,第一次选中这个模型开始预处理的时候,会更新一段时间
Stable Diffusion ControlNet 法线贴图 (Normal map)模型https://baijiahao.baidu.com/s?id=1765031088842063815&wfr=spider&for=pc 从原图中提取 3D 物体的法线向量,绘制的新图与原图的光影效果完全相同。 切换预处理器和模型 上传一张图片,然后点击“预览预处理结果”,然后就
Stable Diffusion ControlNet M-LSD (建筑物绘制)模型https://baijiahao.baidu.com/s?id=1765031088842063815&wfr=spider&for=pc 通过分析图片中的线条结构和几何形状,可以构建建筑物的外框,适合建筑、室内设计的朋友使用。 切换预处理器和相应模型。 上传一张室内设计的图片,然后点击“
Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型https://baijiahao.baidu.com/s?id=1765031088842063815&wfr=spider&for=pc https://baijiahao.baidu.com/s?id=1764942391242220507&wfr=sp
Stable Diffusion ControlNet Tile 模型用法的开发有下面三种: 1.放大 2.修复 3.细节增强 目前大家都喜欢在图生图(img2img)里使用 随着 Denoising strength 重绘强度的增加,细节更多
Stable Diffusion ControlNet 插件ControlNet 是一个用于控制 AI 图像生成的插件。它使用了一种称为”Conditional Generative Adversarial Networks”(条件生成对抗网络)的技术来生成图像。与传统的生成对抗网络不同,ControlNet 允许用户对生成的图像进行精细的控制。 在 ControlNet 出现之前,我们在生成图
Stable Diffusion 参数 ENSD在 Settings 界面,选 Show All Pages,搜索 noise,以下参数就是: Eta noise seed delta (ENSD; does not improve anything, just produces different results for ancestral samplers - only useful for
Creator 引擎定制https://docs.cocos.com/creator/2.4/manual/zh/advanced-topics/engine-customization.html
Unity WebGL 微信小游戏适配方案https://github.com/wechat-miniprogram/minigame-unity-webgl-transform https://gitee.com/wechat-minigame/minigame-unity-webgl-transform 方案特点 保持原引擎工具链与技术栈 无需重写游戏核心逻辑,支持大部分第三方插件 由转换
Stable Diffusion LoRA 炼丹https://www.bilibili.com/video/BV1Ta4y1c7c1/?spm_id_from=333.337.search-card.all.click&vd_source=5bb1b6d608ac43ae4329df03895a93ec Kohya_ss Github页面:https://github.com/bmal
stable-diffusion-webui 生成图时提示 Something went wrong Expecting value line 1 column 1 (char 0) 解决办法https://kinggoo.com/stable-diffusion-webui-sometingwentwrongexpectingvalue.htm 问题原因是开启了代理。 把代理关掉或者设置为PA
SD 提示词参考:https://wolfchen.top/tag/doc.html https://a2a.top 节选:https://aitag.top/ https://finding.art/ http://wolfchen.top/tag/ https://tags.novelai.dev/ https://magic-tag.netlify.app/
SD 模型资源https://www.xtimesai.com https://www.liblibai.com https://civitai.com
给你的 lora 加模型预览图卡片https://zhuanlan.zhihu.com/p/600628691 之前可以发现当我们的lora模型上都显示 no preview 即没有预览图,我们可以生成完图片后 再次找到添加lora模型的位置,鼠标移动lora卡片的左下角,lora标题上方位置时 会出现replace preview(替换预览)红色字样 点击即可将刚刚生成的图设置为此lora模型