主题
RAG(Retrieval-Augmented Generation)通过检索外部知识库增强大语言模型(LLM)的生成能力,结合检索与生成两阶段,解决LLM的幻觉、知识过时等问题。
好比是为AI模型添加“外接硬盘”,动态扩展知识边界。
LLM的局限性:制造虚假事实、知识范围受限、无法实时更新。
对比微调(Fine-tuning):微调侧重参数更新,RAG依赖动态检索,两者可互补。
离线阶段:知识库预处理(文档分块、向量化、索引构建)。
在线阶段:查询处理→检索→上下文整合→生成。