增强检索 RAG
RAG(Retrieval-Augmented Generation,检索增强生成)是目前 AI 应用最主流的技术之一。
什么是 RAG?
简单说,RAG 就是让 AI 先"查资料",再"回答问题"。
传统 ChatGPT:你问 → AI 凭训练数据回答
RAG:你问 → 系统先检索相关文档 → 把文档给 AI → AI 基于文档回答
为什么需要 RAG?
问题 1:知识过时
ChatGPT 等模型的知识有截止日期。2024 年发生的事它不知道。
问题 2:私有数据
你的公司文档、个人笔记,模型训练时没见过。
问题 3:幻觉
AI 可能一本正经地胡说八道。RAG 强制 AI 基于给定资料回答,减少幻觉。
RAG 的工作流程
用户提问
↓
检索相关文档(向量搜索)
↓
把文档 + 问题一起发给 AI
↓
AI 基于文档生成回答
RAG 的核心组件
1. 文档切片
把长文档切成小块,方便检索。
2. 向量化
把文字转换成向量(数字表示),语义相似的文字向量距离近。
3. 向量数据库
存储和检索向量的数据库,如 Pinecone、Milvus、Chroma。
4. LLM
根据检索到的文档生成回答。
RAG 的应用场景
| 场景 | 说明 |
|---|---|
| 企业知识库 | 问公司制度、产品文档 |
| 客服机器人 | 基于产品手册回答问题 |
| 个人知识管理 | 搜索自己的笔记、文档 |
| 学术研究 | 快速找到相关论文并总结 |
RAG 的局限性
- 检索质量取决于文档质量和切分方式
- 仍可能产生幻觉
- 构建成本不低
tip
RAG 让 AI 从"通用助手"变成"领域专家"。如果你的应用需要大量私有知识,RAG 是必选项。