标签:: AI

保姆式LoRA模型训练教程

保姆式LoRA模型训练教程https://www.bilibili.com/video/BV1fs4y1x7p2/?spm_id_from=333.976.0.0&vd_source=5bb1b6d608ac43ae4329df03895a93ec

页面文件太小问题

页面文件太小问题加大虚拟内存 部分人需要加到60G以上。 在设置中打开高级系统设置,在”高级”选项卡下,点击”性能”那一框里面的”设置”,点击这个设置里面的”高级”选项卡,看到虚拟内存那一框里面的”更改”,取消第一个勾勾(那个系统分配)然后按自己喜好设置就行。

清华“智谱清言”大模型 GLM-4

清华”智谱清言”大模型 GLM-4http://chatglm.cn 英文评测有GPT4 九成功力,中文,则超过GPT4 10%! 最牛的是128K上线文,还可以做到100%召回率 召回率,是一个专有术语,简单讲,是指大模型在回答问题时,答案的准确度

AI大模型国内下载

AI大模型国内下载https://modelscope.cn/models/ZhipuAI/chatglm3-6b-32k/summary 魔搭社区下载即可 1git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b-32k.git

Graph | NetworkX 入门

Graph | NetworkX 入门https://zhuanlan.zhihu.com/p/536737592?utm_id=0 安装最新稳定版NetworkX支持 Python 3.8, 3.9, or 3.10 1pip install networkx[default] 创建一个图创建一个没有边(edge)和节点(node)的空图 12import networkx as n

LangChain 聊天模型应用

LangChain 聊天模型应用https://juejin.cn/post/7231172059102052412 LangChain 目前支持的消息类型有 AIMessage(ai生成的)、HumanMessage(人给出的)、SystemMessage(系统的)和 ChatMessage(ChatMessage 接受一个任意的角色参数)。大多数情况下,你会只处理 HumanMessage、A

LangChain 关于代理、记忆、SequentialChain的介绍

LangChain 关于代理和记忆的介绍https://juejin.cn/post/7230791554415116344 如何使用LangChain中的代理(Agents)和记忆(Memory)本例子是在 Langchain-Chatchat 源码目录下实现的测试 123456789101112131415161718192021222324252627282930313233import s

Langchain-Chatchat 介绍

Langchain-Chatchat 介绍https://github.com/chatchat-space/Langchain-Chatchat 安装部署复制模型相关参数配置模板文件 configs/model_config.py.example 存储至项目路径下 ./configs 路径下,并重命名为 model_config.py。 复制服务相关参数配置模板文件 conf

AI 大模型下 ReAct 工程

AI 大模型下 ReAct 工程https://blog.csdn.net/weixin_48534929/article/details/131891342 对使用AI大模型有个形象的认知:它是一个具备操作工具能力的人工智能模型。 比较最常见的使用结构:Agent + Tool “Agent” 是真正会使用工具的行动者,而非工具本身。他们不仅能接受和执行我们的指令,

开源 Lagent 框架助力智能体研发

开源 Lagent 框架助力智能体研发大语言模型能够以”自主”思考方式调用外部工具完成复杂任务时,其可谓经进化成为智能体。 书生·浦语团队同时开源了智能体框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供典型工具为大语言模型赋能。 这套开源框架具备如下特点: 集合了多种类型的智能体能力,包括 ReAct、AutoGPT 和 ReWoo 等,这些智能体能够调用大语言模型进行多轮的推

torch.cuda 详细教程

torch.cuda 详细教程https://zhuanlan.zhihu.com/p/477042485 1234567891011121314151617torch.cuda.current_device()返回当前所选设备的索引。torch.cuda.current_stream()返回一个当前所选的Streamclass torch.cuda.device(idx)上下文管理器,可以更改所

用 LLM 的 prompt 心得

用 LLM 的 prompt 心得https://www.zhihu.com/question/594837899/answer/3020623592?utm_id=0 针对吴恩达《ChatGPT Prompt Engineering for Developers》的学习思考笔记 视频教程:https://www.deeplearning.ai/short-courses/chatgpt

Embedding 的使用

Embedding 的使用https://blog.csdn.net/chenjambo/article/details/130776554 嵌入(Embedding )是一种将高维数据映射到低维空间的方法。嵌入可以将高维数据可视化,也可以用于聚类、分类等任务。嵌入可以是线性的,也可以是非线性的。在深度学习中,我们通常使用非线性嵌入。非线性嵌入通常使用神经网络实现。 在我们将文字转换成向量之后,我

斯坦福智能体小镇分析

斯坦福智能体小镇分析https://github.com/joonspk-research/generative_agents Simulation Server 模拟服游戏入口 reverie.pystart_server 方法12345678Reverie的主要后端服务器。 该函数从前端检索环境文件,以了解世界状态,调用每个人物根据 世界状态做出决策,并在某些步骤间隔保存他们的行动

openai.Completion.create 接口参数说明

openai.Completion.create 接口参数说明https://www.cnblogs.com/ghj1976/p/openaicompletioncreate-jie-kou-can-shu-shuo-ming.html 官方文档:https://platform.openai.com/docs/api-reference/completions 12345678910111213

YAML 概述

YAML 概述YAML(/ˈjæməl/,尾音类似camel骆驼)是一个可读性高,用来表达数据序列化的格式。 YAML使用空白字符和分行来分隔数据,使得它特别适合用grep/Python/Perl/Ruby操作。其让人最容易上手的特色是巧妙避开各种封闭符号,如:引号、各种括号等,这些符号在嵌套结构时会变得复杂而难以辨认。 注意在YAML中,字符串不

Magic123 一张图转 3D

Magic123 一张图转 3D项目资源 GitHub仓库 百度文章 简介只需输入单个图像,不光生成高质量3D网格,连有视觉吸引力的纹理也一起打包生成。

加载并启动 LLM 的 API 接口

加载并启动 LLM 的 API 接口api.py12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576# 从fastapi导入FastAPI和Request类from

配置 conda 创建的环境到 VSCode

配置 conda 创建的环境到 VSCode1. 在环境变量中添加以下路径123D:\Anaconda3D:\Anaconda3\ScriptsD:\Anaconda3\Library\bin 2. 初始化 PowerShellVSCode 会加载 conda 环境,但 VSCode 中默认是 powershell 控制台,因此需要系统cmd中输入命令 1conda init powershel

达摩 text-to-video-ms-1.7b 文本生成视频

达摩 text-to-video-ms-1.7b 文本生成视频安装1234567891011conda create -n videoai python=3.9 -yconda activate videoaipip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118pyth

stable diffusion 原理

stable diffusion 原理Stable Diffusion 的数据会在像素空间(Pixel Space)、潜在空间(Latent Space)、条件(Conditioning)三部分之间流转,其算法逻辑大概分这几步: 图像编码器将图像从像素空间(Pixel Space)压缩到更小维度的潜在空间(Latent Space),捕捉图像更本质的信息 对潜在空间中的图片添加噪声,进行扩散过

Contrastive Language-Image Pre-training(CLIP)

Contrastive Language-Image Pre-training(CLIP)学习资源 CSDN文章 简介一种基于对比文本-图像对的预训练方法或者模型。 CLIP包括两个模型: Text Encoder:用来提取文本的特征,可以采用NLP中常用的text transformer模型 Image Encoder:用来提取图像的特征,可以采用常用CNN模型或者vision transf

潜在扩散模型(LDM / Latent Diffusion Model)

潜在扩散模型(LDM / Latent Diffusion Model)学习资源 知乎文章 简介在计算机眼中,一张 512x512 分辨率的图片,就是一组 512 * 512 * 3 的数字,如果直接对图片进行学习,相当于 AI 要处理 786432 维的数据,这对算力、计算机性能要求很高。 可以将图片映射到潜在空间(Latent Space)后进行扩散和逆扩散学习。如何理解 “潜在空

AudioLDM2 音频生成

AudioLDM2 音频生成安装123456789conda create -n audiocraft python=3.9 -yconda activate audiocraftpip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118python>>>