RAG 知识三层结构(面试视角)

第一层:了解 / 表层

能说清楚”是什么”

  • RAG = 检索 + 生成,解决 LLM 幻觉和知识截止问题
  • 基本流程:文档 → Embedding → 向量库 → 检索 → 拼 Prompt → LLM 生成
  • 知道 Embedding、余弦相似度、Top-K 是什么
  • 能跑通一个最小 Demo(类似 01_v1)

面试官判断:“看过文章,自己跑过 demo”


第二层:熟悉 / 中层

能说清楚”为什么”和”怎么选”

  • Chunk 策略对召回质量的影响(大小、重叠、按句/段切割)
  • 向量检索 vs BM25 vs 混合检索的适用场景
  • 如何评估 RAG 效果(召回率、精确率、端到端 QA 质量)
  • 遇到”检索到了但答错了”/“没检索到”如何排查
  • 用过真实向量数据库(Chroma、Milvus、Weaviate 等)

面试官判断:“在项目里用过,踩过坑”


第三层:精通 / 深层

能说清楚”边界在哪”和”如何突破”

  • Reranker 原理(Bi-encoder vs Cross-encoder 的 trade-off)
  • 多跳推理(Multi-hop)场景下 RAG 的局限与 GraphRAG/迭代检索方案
  • 生产级优化:索引更新策略、冷热分层、延迟 vs 召回的权衡
  • RAG 评估体系搭建(RAGAS、自动化 pipeline)
  • 什么时候该用 RAG,什么时候该用 Fine-tuning,什么时候两者结合

面试官判断:“主导过 RAG 系统设计,有性能数据支撑”


当前位置参考

基于 01_v1 代码:已扎实跨入第一层、触碰到第二层入口(知道 chunk 策略是 V2 要解决的问题)。

第二层关键跨越点:跑完 V2(分块)+ V3(混合检索)+ 做一次真实评估。