CrazyAirhead

疯狂的傻瓜,傻瓜也疯狂——傻方能执著,疯狂才专注!

0%

Solon AI —— RAG

说明

当前大模型与外部打交道的方式有两种,一种是 Prompt,一种是 Fuction Call。在 Prompt 方面,应用系统可以通过 Prompt 模版和补充上下文的方式,调整用户输入的提示语,使得大模型生成的回答更加准确。

RAG

RAG (Retrieval-Augmented Generation 检索增强生成)是一种结合了信息检索和大模型生成的技术框架,是通过相似度等算法从外部知识库中检索相关的信息,并将其作为 Prompt 输入大模型,以增强大模型处理知识密集型任务的能力。

系统是传统 RAG 和 智能体 RAG 的一个架构图(图片来源网络)。

img

知识库

FastGPT 的《知识库基础原理的介绍》说明挺好的,https://doc.fastgpt.cn/docs/guide/knowledge_base/rag/

相对于大模型,我们的系统称为应用。对于应用来说,主要做的是检索工作,就是从知识库(提供文档索检服务的对象)中找到相应的知识(文档)。

为了存储和读取文档,需要用到文档加载器和文档分割器。

  • 文档加载器,比如,纯文本,PDF,Word, Markdown, html, excel 等格式的处理与加载。
  • 文档分割器,当文档太大时,可以按文档的字数,段落,章节,主题等来分块。因此也就有了 JSON 格式拆分,正则表达式拆分,大小分割,拆分流水线等等。

为了查询相关文档,就需要检索算法的加持。主要分为向量检索和传统检索。在实际的应用是可以多种方式结合的,只要能检索到尽可能相关的数据即可。

  • 向量检索:如 BERT向量等,它通过将文档和查询转化为向量空间中的表示,并使用相似度计算来进行匹配。向量检索的优势在于能够更好地捕捉语义相似性,而不仅仅是依赖于词汇匹配。
  • 传统检索:如BM25,主要基于词频和逆文档频率(TF-IDF)的加权搜索模型来对文档进行排序和检索。BM25适用于处理较为简单的匹配任务,尤其是当查询和文档中的关键词有直接匹配时。

示例

这里我们继续使用 demo-ai02 中诊断的例子,尝试模拟一次简单的诊断,相对于demo-ai02,增加了获取病人的历史病人和病人自述相关的知识,用于演示知识库增加的例子。注意这里只是示例,并非真正的诊断流程。

依赖

build.gradle

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
dependencies {
implementation platform(project(":demo-parent"))

implementation("org.noear:solon-web")
implementation("org.noear:solon-view-enjoy")
implementation("org.noear:solon-ai")
implementation("org.noear:solon-ai-repo-redis")
implementation("org.noear:solon-logging-logback")
implementation("org.noear:solon-openapi2-knife4j")
implementation("org.noear:solon-web-rx")
implementation("org.noear:solon-web-sse")
implementation("org.noear:solon-flow")
implementation("org.dromara.hutool:hutool-all")


testImplementation("org.noear:solon-test")
}

Redis

这里需要用的redis的向量查询,需要安装 redis-stack 版本。

1
docker run -d --name redis-stack -p 6379:6379 -p 8001:8001 swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/redis/redis-stack:latest

模型

这里需要向量化,需要增加嵌入模型,这些选了nomic-embed-text,自己根据实际情况选项,deepseek-r1:32b,也是一样的,根据需要调整。

1
2
3
ollama run deepseek-r1:32b
ollama run qwen2.5:7b
ollama run nomic-embed-text

配置

app.yml

增加嵌入模型和 reids 知识库的配置,其他的模型配置在流程编排中获取。

1
2
3
4
5
6
7
8
9
10
11
12
13
solon.flow:
- "classpath:flow/*"

demo.llm:
embed:
apiUrl: "http://127.0.0.1:11434/api/embed" # 使用完整地址(而不是 api_base)
provider: "ollama" # 使用 ollama 服务时,需要配置 provider
model: "nomic-embed-text"
repo:
redis:
server: "127.0.0.1:16379" # 改为你的 Redis 地址
db: 0
maxTotal: 200

LlmConfig

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
package com.example.demo.ai.llm.config;

import org.noear.redisx.RedisClient;
import org.noear.solon.ai.embedding.EmbeddingConfig;
import org.noear.solon.ai.embedding.EmbeddingModel;
import org.noear.solon.ai.rag.repository.RedisRepository;
import org.noear.solon.annotation.Bean;
import org.noear.solon.annotation.Configuration;
import org.noear.solon.annotation.Inject;

/**
* @author airhead
*/
@Configuration
public class LlmConfig {
@Bean
public EmbeddingModel embeddingModel(@Inject("${demo.llm.embed}") EmbeddingConfig config) {
return EmbeddingModel.of(config).build();
}

@Bean
public RedisRepository repository(
EmbeddingModel embeddingModel, @Inject("${solon.llm.repo.redis}") RedisClient client) {
return new RedisRepository(embeddingModel, client.openSession().jedis());
}
}

流程

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
id: "ai-flow-01"
layout:
- id: "开始"
type: "start"
- id: "病史"
type: "execute"
task: "@searchTask"
- id: "诊断"
type: "execute"
meta.model: "deepseek-r1:32b"
meta.apiUrl: "http://127.0.0.1:11434/api/chat"
meta.provider: "ollama"
meta.input: "prompt"
meta.output: "intention"
meta.systemTpl: "## 上下文\n\n#(ctx)\n\n## 任务\n\n根据用户的描述,判断用户最可能的三个健康问题,只要诊断名称,不需要其他解释,用 Markdown 的列表格式返回。\n\n"
meta.userTpl: "## 病人自述\n\n#(prompt)\n\n## 历史病情\n\n#(history)\n\n"
task: "@intentionTask"
- id: "治疗建议"
type: "execute"
meta.model: "qwen2.5:7b"
meta.apiUrl: "http://127.0.0.1:11434/api/chat"
meta.provider: "ollama"
meta.input: "intention"
meta.output: "suggestion"
meta.system: "## 角色\n\n你是一个经验丰富的医生\n\n## 任务\n根据用户提供的诊断信息,提供治疗建议"
task: "@suggestionTask"
- type: "end"

知识库管理

RepositoryController

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
package com.example.demo.ai.llm.controller;

import com.example.demo.ai.llm.service.RepositoryService;
import io.swagger.annotations.Api;
import io.swagger.annotations.ApiOperation;
import java.util.List;
import org.noear.solon.annotation.*;

/**
* @author airhead
*/
@Controller
@Mapping("/repository")
@Api("知识库")
public class RepositoryController {
@Inject private RepositoryService service;

@ApiOperation("addDoc")
@Post
@Mapping("addDoc")
public Boolean addDoc(String content) {
return service.addDoc(content);
}

@ApiOperation("search")
@Post
@Mapping("search")
public List<String> search(String query) {
return service.search(query);
}
}

RepositoryService

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
package com.example.demo.ai.llm.service;

import java.io.IOException;
import java.util.Collections;
import java.util.List;
import org.noear.solon.ai.rag.Document;
import org.noear.solon.ai.rag.repository.RedisRepository;
import org.noear.solon.annotation.Component;
import org.noear.solon.annotation.Inject;

/**
* @author airhead
*/
@Component
public class RepositoryService {
@Inject RedisRepository repository;

public Boolean addDoc(String content) {
try {
Document document = new Document(content);
repository.insert(Collections.singletonList(document));
return true;
} catch (IOException e) {
throw new RuntimeException(e);
}
}

public List<String> search(String query) {
try {
List<Document> list = repository.search(query);
return list.stream().map(Document::getContent).toList();
} catch (IOException e) {
throw new RuntimeException(e);
}
}

public String history() {
return "无其他慢性病";
}
}

诊断

LlmDiagController

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
package com.example.demo.ai.llm.controller;

import com.example.demo.ai.llm.service.LlmService;
import com.jfinal.kit.Kv;
import io.swagger.annotations.Api;
import io.swagger.annotations.ApiOperation;
import org.noear.solon.annotation.*;

/**
* @author airhead
*/
@Controller
@Mapping("/llm")
@Api("聊天")
public class LlmDiagController {
@Inject private LlmService service;

@ApiOperation("diag")
@Post
@Mapping("diag")
public Kv diag(String prompt) {
return service.diag(prompt);
}
}

LlmDiagService

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
package com.example.demo.ai.llm.service;

import com.jfinal.kit.Kv;
import org.noear.solon.annotation.Component;
import org.noear.solon.annotation.Inject;
import org.noear.solon.flow.ChainContext;
import org.noear.solon.flow.FlowEngine;

/**
* @author airhead
*/
@Component
public class LlmDiagService {
@Inject private FlowEngine flowEngine;

public Kv diag(String prompt) {
try {
ChainContext chainContext = new ChainContext();
chainContext.put("prompt", prompt);
Kv kv = Kv.create();
chainContext.put("result", kv);
flowEngine.eval("ai-flow-01", chainContext);

return kv;
} catch (Throwable e) {
throw new RuntimeException(e);
}
}
}

验证

知识管理

通过接口写入一些文档,这里是一些睡眠的方法。

img

知识查询

通过查询水名

img

诊断服务

img

中间的调试信息,我们可以看到我们添加的知识库的信息被追加到提示信息中,提交给大模型。

img

小结

示例中没有对文档的拆分和文档不同文档类型的加载,但我们可以看到 Solon-ai 结合 solon-flow 已经能完整的支持 RAG 的知识库的开发了。当然如果要做一个完整的知识库系统还需要很多工作要做。

欢迎关注我的其它发布渠道