Skip to main content

增强检索 RAG

RAG(Retrieval-Augmented Generation,检索增强生成)是目前 AI 应用最主流的技术之一。

什么是 RAG?

简单说,RAG 就是让 AI 先"查资料",再"回答问题"。

传统 ChatGPT:你问 → AI 凭训练数据回答

RAG:你问 → 系统先检索相关文档 → 把文档给 AI → AI 基于文档回答

为什么需要 RAG?

问题 1:知识过时

ChatGPT 等模型的知识有截止日期。2024 年发生的事它不知道。

问题 2:私有数据

你的公司文档、个人笔记,模型训练时没见过。

问题 3:幻觉

AI 可能一本正经地胡说八道。RAG 强制 AI 基于给定资料回答,减少幻觉。

RAG 的工作流程

用户提问

检索相关文档(向量搜索)

把文档 + 问题一起发给 AI

AI 基于文档生成回答

RAG 的核心组件

1. 文档切片

把长文档切成小块,方便检索。

2. 向量化

把文字转换成向量(数字表示),语义相似的文字向量距离近。

3. 向量数据库

存储和检索向量的数据库,如 Pinecone、Milvus、Chroma。

4. LLM

根据检索到的文档生成回答。

RAG 的应用场景

场景说明
企业知识库问公司制度、产品文档
客服机器人基于产品手册回答问题
个人知识管理搜索自己的笔记、文档
学术研究快速找到相关论文并总结

RAG 的局限性

  • 检索质量取决于文档质量和切分方式
  • 仍可能产生幻觉
  • 构建成本不低
tip

RAG 让 AI 从"通用助手"变成"领域专家"。如果你的应用需要大量私有知识,RAG 是必选项。