Prompt

概述

参考:

Prompt 解决方案

RAG

参考:

Retrieval-augmented generation(检索增强生成,简称 RAG) 是一种使 12.AI 模型能够检索信息的技术。它修改了与 LLM 的交互,使模型能够参考指定的一组文档来响应用户的查询,并使用这些信息来补充其预先存在训练数据中的信息。

用户把资料添加进知识库的时候,程序会先把它们拆分成很多个文本块,然后使用嵌入模型对这些文本块进行向量化(向量化指的是把切拆分后的文本),变成一个超长的数字序列。然后程序把向量以及对应的文本保存在向量数据库里面。

接下来用户开始提问,不过这个提问并非直接送达到大模型那里,而是把其本身也经过向量化处理,先变成一个1024维的向量。然后把用户的提问与向量数据库进行相似度匹配,这个匹配过程是基于向量的纯数学运算,最后知识库选出匹配度最高的几个原文片段,再加上用户的问题发给大模型,大模型进行最后的归纳总结

存在问题:

  • 切片很粗暴
  • 检索不精准 # 搜索知识库时,只能找到切片,无法将搜索内容与全文进行上下文管理,只有部分切片。最后会 AI 拿到的内容是不足的,导致结果不精准。
  • 没有大局观

重排序模型,可以把向量数据库初步检索出来的数据,使用专用的重排序模型进行更深入的语义分析。然后再按照问题的相关性进行重新的排序,把相关性最大的一些数据排到前面并且交付给大模型。这是一种先粗后细的两步检索策略,可以进一步提高检索精度

使用超长上下文,避免切片太碎,但是。。。。资源消耗非常非常高。。。。

Function calling

LangChain

参考:

LangChain 是一个用于开发由语言模型驱动的应用程序的框架。我们相信,最强大和差异化的应用程序不仅会通过 API 调用语言模型,而且还会:

  • 数据感知:将语言模型连接到其他数据源
  • Be agentic:允许语言模型与其环境交互

模块

  • Models(模型)
  • Prompts(提示词)
  • Indexes
  • Memory
  • Chains
  • Agents

最后修改 February 15, 2026: AI Prompt (8b1f8f10)