适合任务
补齐 embedding、向量、维度和余弦的底层直觉,给后面的代码阅读打基础。
这页不跳过任何关键前因,专门解释“文本为什么能表示成向量”“维度到底是什么”“为什么语义检索常用余弦相似度”。
13812345678。20320,"好"是 229091,"狗"编号为 2,"量子力学"编号为 3——[5, 0][8, 1][1, 9]真实 Embedding 不是 2 维,而是 1024 维(BGE-M3)或 1536 维(text-embedding-3-small)。 道理完全一样,只是维度更多,能捕捉更复杂的语义关系。 下一节专门解释"1024 个维度,每个是什么意思"——这里有一个常见误解需要纠正。
[0.023, -0.018, 0.045, 0.012, ... (共1024个数字)]向量表示语义,不是一个人想到的,是三个时代接力的结果。
那维度能无限加吗?不能。有三堵墙:
| 提供商 | Embedding 模型 | Chat 模型 | 协议 | 费用 | 适用 |
|---|---|---|---|---|---|
| 硅基流动 ★ | BAAI/bge-m3 (1024维) | Qwen2.5-7B | OpenAI兼容 | 有免费额度 | 课程首选 |
| 智谱 AI | embedding-3 (2048维) | GLM-4-Flash | 原生SDK | Flash免费 | 中文强 |
| 通义千问 | text-embedding-v3 | Qwen-Plus | OpenAI兼容 | 按量计费 | 企业稳定 |
| DeepSeek | ❌ 无embedding | DeepSeek-Chat | OpenAI兼容 | 极低价格 | 配合硅基流动 |