ChatGLM-6B 简介
ChatGLM-6B 简介ChatGLM-6B是清华大学提出的支持中英双语问答的对话语言模型。ChatGLM-6B采用了与GLM-130B相同的模型结构。 模型结构ChatGLM-6B采用了prefix decoder-only的transformer模型框架,在输入上采用双向的注意力机制,在输出上采用单向注意力机制。 基于ChatGLM衍生出来的大模型应用 langchain-ChatGLM:基
ChatGLM-6B 简介ChatGLM-6B是清华大学提出的支持中英双语问答的对话语言模型。ChatGLM-6B采用了与GLM-130B相同的模型结构。 模型结构ChatGLM-6B采用了prefix decoder-only的transformer模型框架,在输入上采用双向的注意力机制,在输出上采用单向注意力机制。 基于ChatGLM衍生出来的大模型应用 langchain-ChatGLM:基
fatal unable to access https://huggingface.co/魔法导致的,关闭魔法就好了
InternLM-7B 模型的安装和使用方法学习资源 CSDN部署指南 InternLM 7B下载地址 HuggingFace下载地址 InternLM模型的高性能部署1. InternLM 的一键部署首先安装: 123456789101112conda create -n lmdeploy python=3.10 -yconda activate lmdeploypip uninstall
LLama 简介LLaMA 是Meta提出的大语言模型按照模型参数量,LLaMA模型有7B、13B、33B、65B这四个不同参数规模的模型版本。 虽然LLaMA-13B模型参数量只有GPT3的不到1/10,但在大部分任务上效果都超过了GPT3。证明了在给定训练预算的情况下,即使减少模型参数量,只要增加预训练的数据大小和训练时长(更多的训练tokens数),可以达到甚至超过原始大小模型的效
书生·浦语 InternLM 简介由上海人工智能实验室和商汤科技联合多所高校发布的千亿参数书生·浦语模型(InternLM-104B)。 项目资源 GitHub文档 官方网站 性能表现在大部分主流评测集上领先于Llama-2以及ChatGPT。具体而言,在43个评测集中,InternLM-104B在34个评测集中超越ChatGPT,在41个评测集上超越Llama-2-70B。 中文考试大幅领先
LangChain 一个让你的 LLM 变得更强大的开源框架学习资源 百度文章 一、LangChain介绍LangChain是一个开源的框架,它可以让AI开发人员把像GPT-4这样的大型语言模型(LLM)和外部数据结合起来。它提供了Python或JavaScript(TypeScript)的包。 简单来说,它可以让你的LLM在回答问题时参考整个数据库。所以你现在可以让你的GPT模型访问最新的数据
Chat-GLM 详细部署(GPU显存>=12GB)学习资源 CSDN部署指南 安装配置 ChatGLM1. 克隆项目到本地如果没git需要安装git CD到目标文件夹内执行命令: 1git clone https://github.com/THUDM/ChatGLM2-6B 2. 创建conda工程打开CMD将目录CD到工程内。 123cd ChatGLM2-6Bconda cre
Python 报错 MemoryErrorMemoryError:涉及到了读取、保存、写入,内存不够用了 解决方案:加内存条即可
UnicodeDecodeError ‘gbk’ codec can’t decode byte 0xa6 in position学习资源 CSDN解决方案 原因分析这个错误通常表示在执行解码操作时,使用了错误的编码格式,导致无法正常解码某些字符。例如在这个具体的错误信息中,’gbk’编码器尝试解码一个字节串,但发现该字节串中存在0xa6字节,而该字节不符合 ‘gbk’ 编码格式,因此抛出了 U
pip install 报错 fatal error C1083 无法打开包括文件 “math.h”学习资源 CSDN解决方案 解决方案解决方案。。。现在看来原生不支持windows纯属扯蛋 使用 Visaul Studio Installer 工具安装 Windows 10/11 SDK
python whl 文件安装学习资源 参考文章 简介Python whl文件是Python的一个包格式,全称是wheel文件。它是Python的一个打包格式,可以用于打包模块、插件、工具等。 使用pip安装1pip install 包名.whl whl文件命名规则 win32 结尾的 whl 库 amd64 结尾的 whl 库指的就是 x86-64 cp38 代表 python3.8 版本
Stable Diffusion 角色设定图学习资源 参考文章 1. 下载骨骼四视图我们要借助 ControlNet中OpenPose来生成人物四视图,首先我们需要一张人物四视图的骨骼图,这种骨骼图很多(如下图),如果自己找不到,下面的图可以下载下来直接使用。 2. 准备关键词为了让 AI 知道我们生成的图片是同一个人物,需要在提示词前面加上 “character sheet of the sa
Stable Diffusion One Button Prompt 插件项目地址 GitHub仓库
Stable Diffusion Segment anything 插件模型下载 模型下载地址:sam_vit_h_4b8939.pth 插件安装插件安装类似其他插件,使用最新的 index.json 来搜索。 功能说明要配合的是ControlNet或者inpaint,inpaint是Stable Diffusion内置的一个功能,叫做绘制/重绘。 Segment anything 可
yum 升级 nodejs 和 npm突然报错: Cannot find module ‘node:assert/strict’ 需要升级 nodejs 才能解决这个问题 之前是 yum 安装的 nodejs 只能用 yum 卸载旧的再安装新的 通过 yum 命令彻底删除 node.js用自带的包管理先删除一次 1yum remove nodejs npm -y 手动删除残留 1234
PS 上的开源 Stable Diffusion 插件学习资源 百度文章 项目信息 项目链接:GitHub仓库 下载地址:Releases v1.3.0 安装步骤 下载 .zip file 解压到 PS 的插件目录 Adobe Photoshop 2023\Plug-ins 启动 Stable Diffusion WebUI 在命令后加 --api 参数供插件使用 启动 PS 增效工具 - A
Claude2 发布官方地址 Claude.ai 功能特点 逻辑更强大,回答更”无害” 训练数据更新 支持附件上传 支持中文使用 最高支持10万tokens的输入和4000个tokens的输出 注意事项需要注意的是目前Claude Chat仅开放US和UK地区!
PS(beat版本)安装下载地址 百度网盘链接 安装步骤 打开 Adobe Creative Cloud 安装包 科学在登录界面创建账户,不要用QQ邮箱 国家选印度或者美国,然后点完成 一直选跳过问题即可,如出现正版服务(AGS),要取消勾选 侧边栏 选Beta应用程序-然后找到PS (BETA选项点击试用)等下载完成 读条完成后点击开始试用,就可以激活7天 打开PS 激活补丁,关闭
Stable Diffusion ControlNet Pix2Pix 模型(ip2p)对图片进行指令式变换学习资源 百度文章 操作方法方法:通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。 应用模型 应用模型:ip2p 预处理器:none 要点采用指令式提示词(make Y into X),如下图示例中的 make it snow,让非洲草原下雪。
Stable Diffusion ControlNet Depth_leres 模型中的 remove background 背景替换学习资源 百度文章 操作方法方法:在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。 应用模型 应用模型:Depth 预处理器:Dept
表格转换工具 Excel 转换为 Markdown 表格主要功能 Excel 转换为 Markdown 表格 SQL 转换为 Markdown 表格 Markdown 表格 转换为 CSV
Stable Diffusion Multi-ControlNet 联合调节学习资源 B站文章 功能介绍此选项允许在单代中使用多个 ControlNet 输入。要启用此选项,请更改Multi ControlNet: Max models amount (requires restart)设置。请注意,您需要重新启动 WebUI 才能使更改生效。 如果启用了其中任何一个,猜测模式将应用于所有 Co
Stable Diffusion ControlNet Semantic Segmentation(语义分割绘制)模型Semantic Segmentation 语义分割是一种深度学习算法,重点关注 语义 一词,这种算法将一个标签或类别与图像联系起来,被用来识别形成不同类别的像素集合。具体还是看我的操作: 使用步骤 切换预处理器和模型 上传图片,然后点击”预览预处理器结果”。 可以看到,预处理阶
Stable Diffusion ControlNet fake-scribble(伪涂鸦)模型这个是不需要我们绘画的,上传一张图片,它会帮我们生成涂鸦效果。 使用步骤 切换预处理器,模型不用切换。 上传图片,然后点击”预览预处理器结果”。(第一次用这个,控制台会更新一段时间) 关键词输入1Espresso, set in a cozy office space with warm lighti
Stable Diffusion ControlNet Scribble (涂鸦)模型使用 Scribbles 模型,可以根据草图(涂鸦)绘制出精美的图片,对于那些没有接受过美术训练或缺乏绘画天赋的人来说,这是非常棒的。 使用步骤 切换预处理器和模型。(第一次用这个,控制台会更新一段时间) 点击”创建空白画布”。 然后在这里画线稿,这里我画一盏煤油灯,我是用的鼠标绘制的,画的不好,做个演示。有手绘
Stable Diffusion ControlNet OpenPose 姿态检测模型通过姿势识别实现对人体动作的精准控制,不仅可以生成单人的姿势,还可以生成多人的姿势。 此外,由于 AI 生成的手部有问题,OpenPose 还有一个手部检测模型,大大改善了奇奇怪怪的手。 使用步骤 切换预处理器和模型。 上传一张图片,然后点击”预览预处理结果”,注意,第一次选中这个模型开始预处理的时候,会更新一段
Stable Diffusion ControlNet 法线贴图 (Normal map)模型学习资源 百度文章 模型介绍从原图中提取 3D 物体的法线向量,绘制的新图与原图的光影效果完全相同。 使用步骤 切换预处理器和模型 上传一张图片,然后点击”预览预处理结果”,然后就会给你生成一张法线图(懂 3 维的小伙伴应该都知道这个) 继续输入关键词,等待生图…. 1Mercedes-Benz AM
Stable Diffusion ControlNet M-LSD (建筑物绘制)模型学习资源 百度文章 模型介绍通过分析图片中的线条结构和几何形状,可以构建建筑物的外框,适合建筑、室内设计的朋友使用。 使用步骤 切换预处理器和相应模型。 上传一张室内设计的图片,然后点击”预处理结果”,(第一次用这个,控制台会更新一段时间)。 输入关键词: 1pearl white walls, windso
Stable Diffusion ControlNet Canny、SoftEdge、Lineart 边缘检测模型学习资源 百度文章1 百度文章2 Canny 边缘检测Canny 用于识别输入图像的边缘信息。从上传的图片中生成线稿,然后根据关键词来生成与上传图片同样构图的画面。 使用步骤 打开 Controlnet,选择 Canny 边缘检测,模型选择对应的 canny 模型。 上传图片,并勾选
Stable Diffusion ControlNet Tile 模型用法的开发有下面三种: 放大 修复 细节增强 目前大家都喜欢在图生图(img2img)里使用。 随着 Denoising strength 重绘强度的增加,细节更多。