Mermaid 绘制流程图
Mermaid 绘制流程图.mmd 文件Mermaid 是一个用于画流程图、状态图、时序图、甘特图的库,使用 JS 进行本地渲染,广泛集成于许多 Markdown 编辑器中。 项目资源 官网地址 GitHub项目地址 语法说明Mermaid 支持多种图表的方向,语法如下: 12graph 方向描述 图表中的其他语句... 示例1234567graph TB id1(圆角矩形)--普
Mermaid 绘制流程图.mmd 文件Mermaid 是一个用于画流程图、状态图、时序图、甘特图的库,使用 JS 进行本地渲染,广泛集成于许多 Markdown 编辑器中。 项目资源 官网地址 GitHub项目地址 语法说明Mermaid 支持多种图表的方向,语法如下: 12graph 方向描述 图表中的其他语句... 示例1234567graph TB id1(圆角矩形)--普
Jupyter Notebook学习资源 知乎文章 简介Jupyter Notebook是以网页的形式打开,可以在网页页面中直接编写代码和运行代码,代码的运行结果也会直接在代码块下显示的程序。如在编程过程中需要编写说明文档,可在同一个页面中直接编写,便于作及时的说明和解释。 这些文档是保存为后缀名为.ipynb的JSON格式文件,不仅便于版本控制,也方便与他人共享。 此外,文档还可以导出为:HT
Meta audiocraft 超强文本转音乐学习资源 参考文章 安装步骤123456789conda create -n audiocraft python=3.9 -yconda activate audiocraftpip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu
stable diffusion webui 安装 gfpgan 失败的解决方案学习资源 CSDN解决方案 解决方案步骤 直接到github下载 GFPGAN 代码到本地,并进行本地安装 GitHub镜像地址 下载后,解压(如果用git clone就不需要)到 d:\stable-diffusion-webui\venv\Scripts 目录下 打开cmd,cd 到 d:\stable-
AI 机器学习的专业算法研究网站 Papers with Code 查找论文对应开源代码的神器(Papers with Code) paperswithcode 是一站式的门户网站,可访问包括机器学习模型、数据集、方法、评估表和代码在内的开源资源,了解当下最先进的研究论文,幸运的话会有相应的数据集和代码。 可以通过使用平台上面的代码重现论文的结果,使用模型性能指标检查所有先前的实现,查看研究论文
如何用AI提升自己的业务能力学习资源 参考文章 用AI提升业务能力的三个关键要素用AI解决问题的能力落实到场景中,就是用AI提升业务能力。用AI提升业务能力包括三个关键要素: 第一,要提升核心竞争力职场核心竞争力包括哪些? 市场分析力:要知道市场的外部发生了哪些变化,掌握它的动态,很多做销售的人都缺乏市场分析力,或者有想法难以实践。 用户洞察力:现在的产品,同质化越来越高,实现高转化率和复购
10款最佳人工智能游戏生成器学习资源 参考文章 1. Scenario 官网地址 Scenario 是一款由人工智能驱动的工具,为游戏艺术创作提供了一套全面的功能。它旨在帮助游戏开发者创建符合其风格和艺术方向的独特、高质量的游戏艺术。 Scenario 的突出特点之一是它的微调能力。此功能允许您根据您独特的风格和艺术方向训练人工智能模型。您只需上传训练数据,人工智能就会学习数据中的图案、颜色或
Ludo.ai 官网地址 ludo.ai 人机协作加速游戏创意,游戏概念的生产车间。 主要目的是帮助我们完成一份游戏设计文档。用户可以根据关键词、游戏名称、相似游戏等方式查找灵感。 最大的方便是提供了一个模板,在模板上提供了输入控件,从而联动AI功能。 技术上,是基于100万款游戏的数据集,使用机器学习和自然语言处理进行处理。
模型技术 - GGMLGGML 是一个纯C语言编写的张量库,可帮助开发者在消费级硬件上运行大模型。由于加速效果惊人,一下子收获了不少开发者的支持。 项目资源 GGML官网 GGML AI
模型量化技术 - GPTQ学习资源 原文链接 GPTQ简介GPTQ是一种一次性权重量化方法,专为生成预训练Transformer(GPT)模型设计。该方法基于近似二阶信息,旨在实现高度准确和高效。 关于GPTQ的关键点 GPTQ可以在大约四个GPU小时内量化具有1750亿参数的GPT模型,将位宽减少到每个权重的3或4位,与未压缩的基线相比,准确性降低可以忽略不计 该方法的压缩增益是以前提出的一次
AI 将创造哪些新的游戏玩法学习资源 参考文章 包括生成式智能体、个性化、AI叙事、动态世界和AI副驾驶。 生成式智能体模拟游戏《模拟人生》,玩家在游戏中管理被称为 “模拟人 “的虚拟人,让他们过着自己的日常生活。 生成式AI可以通过大型语言模型(LLM)驱动的新兴社会行为,使得智能体更加逼真,从而大大推动了模拟游戏的发展。 今年早些时候,来自斯坦福大学和谷歌的一个研究团队发表了一篇论文,该研究
Unity 第三方 AI 市场AtlasAtlas是利用生成式3D AI技术快速创作资产和虚拟世界的一系列工具,旨在打造多元化的3D物体。目前推出的第一个工具是语言图片神经网络,可以基于文字指令检索许可授权模型,你只需要简单描述你需要的资产,它就可以帮你导入到场景中。 通过AI技术,开发者还可以用Atlas快速创作游戏内地形。 ConvaiConvai是一款智能NPC工具,它可以用生成式AI技术让
Inworld.aiInworld.ai是一个为虚拟游戏角色赋予智能和个性的AI应用开发平台,它可以让开发者通过自然语言描述和简单的控制,快速创建具有不同性格、情感、记忆和知识的AI角色,并将它们集成到各种实时应用中,如游戏、VR/AR、虚拟世界和元宇宙等。 Inworld.ai的目标是让AI角色能够与用户进行更自然、更有趣和更有意义的交互,提高用户的沉浸感和连接感。 角色引擎Inwor
用 .bat 批处理文件运行 conda 环境下的 Python 程序.bat 文件内容为: 1%windir%\System32\WindowsPowerShell\v1.0\powershell.exe -ExecutionPolicy ByPass -NoExit -Command "& 'C:\ProgramData\anaconda3\shell\condab
huggingface 上模型下载和通用运行方法下载模型1git clone -b int4 https://huggingface.co/THUDM/chatglm-6b.git 命令行 python 运行模型12345678910pythonmypath="F:\GIT_AI/chatglm-6b"# 导入依赖from transformers import AutoTo
CodeGeeX2 更强大的多语言代码生成模型的安装项目地址 GitHub仓库 安装1234567891011121314151617conda create -n CodeGeeX2 python=3.10 -yconda activate CodeGeeX2pip3 install --upgrade pippip uninstall torchpip3 install torch torc
LLM 模型的下载目录windows 下各个模型从 huggingface 下载后都在以下目录中: 1C:\Users\Administrator\.cache\huggingface\hub
Vicuna 模型的安装Vicuna-13B是在LLaMa-13B的基础上使用监督数据微调得到的模型,数据集来自于ShareGPT.com产生的用户对话数据,共70K条。ShareGPT是一个ChatGPT数据共享网站,用户会上传自己觉得有趣的ChatGPT 回答。 使用 GPT-4 作为判断的初步评估表明,Vicuna-13B 达到了 OpenAI ChatGPT 和 Google Bard 9
OpenCompass LLM 评测简介OpenCompass 是一款开源、高效、全面的评测大模型体系及开放平台。提供完整开源可复现的评测框架,支持大语言模型、多模态模型各类模型的一站式评测。 英文评测结果 模型 发布日期 参数量 综合评分(均分) 综合评分(英文) 学科综合能力 语言能力 知识能力 理解能力 推理能力 ChatGPT 2023/3/1 N/
BLOOM 简介BLOOM 系列模型是由BigScience团队训练的大语言模型。训练数据包含了英语、中文、法语、西班牙语、葡萄牙语等共46种语言,另外还包含13种编程语言。 模型结构与GPT相同,BLOOM采用了causal decoder-only的transformer模型结构。 基于BLOOM衍生出来的大模型应用 轩辕: 金融领域大模型,度小满在BLOOM-176B的基础上针对中文通用领域
ChatGLM-6B 简介ChatGLM-6B是清华大学提出的支持中英双语问答的对话语言模型。ChatGLM-6B采用了与GLM-130B相同的模型结构。 模型结构ChatGLM-6B采用了prefix decoder-only的transformer模型框架,在输入上采用双向的注意力机制,在输出上采用单向注意力机制。 基于ChatGLM衍生出来的大模型应用 langchain-ChatGLM:基
fatal unable to access https://huggingface.co/魔法导致的,关闭魔法就好了
InternLM-7B 模型的安装和使用方法学习资源 CSDN部署指南 InternLM 7B下载地址 HuggingFace下载地址 InternLM模型的高性能部署1. InternLM 的一键部署首先安装: 123456789101112conda create -n lmdeploy python=3.10 -yconda activate lmdeploypip uninstall
LLama 简介LLaMA 是Meta提出的大语言模型按照模型参数量,LLaMA模型有7B、13B、33B、65B这四个不同参数规模的模型版本。 虽然LLaMA-13B模型参数量只有GPT3的不到1/10,但在大部分任务上效果都超过了GPT3。证明了在给定训练预算的情况下,即使减少模型参数量,只要增加预训练的数据大小和训练时长(更多的训练tokens数),可以达到甚至超过原始大小模型的效
书生·浦语 InternLM 简介由上海人工智能实验室和商汤科技联合多所高校发布的千亿参数书生·浦语模型(InternLM-104B)。 项目资源 GitHub文档 官方网站 性能表现在大部分主流评测集上领先于Llama-2以及ChatGPT。具体而言,在43个评测集中,InternLM-104B在34个评测集中超越ChatGPT,在41个评测集上超越Llama-2-70B。 中文考试大幅领先
LangChain 一个让你的 LLM 变得更强大的开源框架学习资源 百度文章 一、LangChain介绍LangChain是一个开源的框架,它可以让AI开发人员把像GPT-4这样的大型语言模型(LLM)和外部数据结合起来。它提供了Python或JavaScript(TypeScript)的包。 简单来说,它可以让你的LLM在回答问题时参考整个数据库。所以你现在可以让你的GPT模型访问最新的数据
Chat-GLM 详细部署(GPU显存>=12GB)学习资源 CSDN部署指南 安装配置 ChatGLM1. 克隆项目到本地如果没git需要安装git CD到目标文件夹内执行命令: 1git clone https://github.com/THUDM/ChatGLM2-6B 2. 创建conda工程打开CMD将目录CD到工程内。 123cd ChatGLM2-6Bconda cre
Python 报错 MemoryErrorMemoryError:涉及到了读取、保存、写入,内存不够用了 解决方案:加内存条即可
UnicodeDecodeError ‘gbk’ codec can’t decode byte 0xa6 in position学习资源 CSDN解决方案 原因分析这个错误通常表示在执行解码操作时,使用了错误的编码格式,导致无法正常解码某些字符。例如在这个具体的错误信息中,’gbk’编码器尝试解码一个字节串,但发现该字节串中存在0xa6字节,而该字节不符合 ‘gbk’ 编码格式,因此抛出了 U
pip install 报错 fatal error C1083 无法打开包括文件 “math.h”学习资源 CSDN解决方案 解决方案解决方案。。。现在看来原生不支持windows纯属扯蛋 使用 Visaul Studio Installer 工具安装 Windows 10/11 SDK