Pycharm最常用的版本有**社区版(community)**和 专业版(professional), 其中专业版是需要收费的,相比于社区版,其增加了远程开发等功能。
最新版pycharm专业版(2023.3.4)环境安装以及永久使用方法
Anaconda是Python依赖管理工具,支持Linux,Mac,Windows系统,提供了包管理与环境管理的功能,可以很方便地解决多版本python并存、切换以及各种第三方包安装问题。
大模型 | 厂商名称 | 调用文档 | 支持模型 | 调用示例 | 依赖下载 |
---|---|---|---|---|---|
chatglm | 智谱 | glm4、 | |||
星火大模型 | 科大讯飞 | ||||
通义千问 | 阿里 | ||||
文心一言 | 百度 | ||||
kimi | 月之暗面 | ||||
chatgpt | OpenAI |
- vllm
- ollma
- 量化
-
Lora介绍
-
量化
-
LLaMAFactory能干啥?
用一种极简方式支持数百种大模型训练
-
为什么要用LLaMAFactory?
比如对chatglm3微调,不再需要去chatglm3官网查看微调代码。在LLaMAFactory中,更换一个参数直接搞定。
-
如何使用? 项目地址:LLaMA-Factory
-
只需三个脚本,单机多卡微调BaiChuan2-13B并发布服务
-
只需三个脚本,多机多卡微调BaiChuan2-13B并发布服务
-
只需三个脚本,使用vllm部署BaiChuan2-13B
-
为什么要用检索增强生成?
大模型(LLM)会产生误导性的 “幻觉”,训练数据会过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。
正是在这样的背景下,检索增强生成技术(Retrieval-Augmented Generation,RAG)应时而生,成为大模型时代的一大趋势。
-
检索增强生成是什么?
RAG通过在语言模型生成答案之前,先从广泛的专业文档数据库中检索相关信息,然后利用这些专业信息来引导大模型生成的结果,极大地提升了内容的准确性和相关性。
RAG有效地缓解了幻觉问题,提高了知识更新的速度(大模型+搜索引擎),并增强了内容生成的可追溯性,使得大型语言模型在实际应用中变得更加实用和可信。
RAG整体技术路线可分为3大块8个小点见下图,其中包含知识库构建、知识检索和知识问答。其中核心在于知识库构建
详细介绍见:
-
常规rag存在的问题:
一是如何应对复杂多变的数据,这些数据包含各种格式,更复杂的还包含各类图表、pdf、excel循环嵌套等。如果在没有理解这些数据的基础之上直接简单粗暴地做RAG ,就会导致知识检索失败,从而导致rag失败。
二是如何查询和排序。假设知识库中有10W条数据,你的问题需要和10W数据匹配检索并且找到最适合的几条,无疑于大海捞针。
-
ragflow是如何改善这些问题的?
一是基于深度文档理解deepdoc模块,能够从各类复杂格式的非结构化数据中提取真知灼见。
二是引入多路召回和重排序,才能保证数据检索召回的准确度
项目地址:ragflow
向量数据库 | 数据处理 | 语义召回 | 教程 | 视频地址 |
---|---|---|---|---|
Elasticsearch | deepdoc模块 | 多路召回、融合重排序 | 我用ragflow做了一款初中历史辅导助手 | https://www.bilibili.com/video/BV1yw4m1y7yA/ |
github上的代码封装程度高,不利于小白学习入门。
常规的大模型RAG框架有langchain等,但是langchain等框架源码理解困难,debug源码上手难度大。
因此,我写了一个人人都能看懂、人人都能修改的大模型RAG框架代码。
整体项目结构如下图所示:手把手教你大模型RAG框架架构。
代码与教程如下:
章节 | 教程 | 代码 |
---|---|---|
01.如何调用大模型API | 手把手教你完成大模型RAG知识问答应用构建-01.如何调用大模型API | 配套代码 |
02.RAG介绍 | 手把手教你完成大模型RAG知识问答应用构建-02.RAG介绍 | 配套代码 |
03.部署环境准备 | 手把手教你完成大模型RAG知识问答应用构建-03.项目依赖环境准备 | 配套代码 |
04.知识库构建 | 手把手教你完成大模型RAG知识问答应用构建-04.知识库构建 | 配套代码 |
05.基于知识库的大模型问答 | 手把手教你完成大模型RAG知识问答应用构建-05.基于知识库的大模型问答 | 配套代码 |
06.改进-用自己的embedding模型 | 更新中 | 配套代码 |
07.封装镜像对外提供服务 | 更新中 | 配套代码 |
08.改进-基于Faiss的大模型知识索引构建 | 更新中 | 配套代码 |
09.改进-使用向量数据库 | 更新中 | 配套代码 |
10.前端构建 | 更新中 | 更新中 |
Agent的构成要素包括LLM(Language Model),记忆(Memory),规划技能(Planning skills),工具使用能力(Tool use),使用这些不同的环节,完成构建AGI。
Agent = LLM+Planning+Feedback+Tool use
如下为AI Agent云服务商E2B整理的目前市面上不同领域里知名的 AI Agent 项目,共计81个开源+58个闭源Agent项目
论文:ReAct: Synergizing Reasoning and Acting in Language Models
图片挂掉,可加微信:Code-GUO
图片挂掉,可加微信:Code-GUO
如有疑问请提交issue,有违规侵权,请联系本人 [email protected] ,本人立马删除相应链接,感谢!
本仓库仅作学习交流分享使用,任何子环节不作任何商用。