How far is forever
三种RAG方案实测:自建知识库 vs 腾讯IMA vs Google的AI笔记本
三种RAG方案实测:自建知识库 vs 腾讯IMA vs Google的AI笔记本

三种RAG方案实测:自建知识库 vs 腾讯IMA vs Google的AI笔记本

内容目录

前言
Deepseek-R1推出有一段时间了,其通过在线搜索回答问题的能力,在保证推理水平的同时提高了其实时性和可信度。但有些行业内的知识比较冷门,在搜索中无法找到,因此使用RAG技术的知识库,是对模型能力的一种补足。通过将检索和生成相结合,既保留了传统检索问答的可靠性,又获得了 LLM 的灵活性和自然表达能力。它能让 AI 始终基于最新的、可信的知识来回答问题,同时保持对话的流畅自然。

而腾讯ima最近更新了deepseek-R1的支持,笔者进行了测试,感觉还是挺好用的,顺便和其他几种知识库功能软件比较测试了一下。

什么是RAG
RAG(Retrieval-Augmented Generation,检索增强生成) 是一种结合了信息检索(Retrieval)与生成模型(Generation)的人工智能技术。它的核心思想是在生成文本(如回答问题、创作内容)时,先通过检索外部知识库或文档,获取与任务相关的内容,再利用这些检索到的信息辅助生成更准确、更可信的响应。

RAG 的典型应用场景
企业知识库问答

法律法规、规章制度

RAG 的基本工作原理
检索(Retrieval):当用户提出问题时,RAG 系统会先从大规模知识库或文档集合中检索出与问题最相关的片段或数据(如相关文章、段落、结构化数据等)。

增强(Augmented Generation):将检索到的信息与用户输入的问题结合,输入到生成模型(如GPT、T5等),生成自然语言的答案。生成模型会根据检索结果和自身预训练的知识综合输出回答。

这种方案既能让模型基于最新的知识作答,又可以提供可溯源的参考依据,有效解决了大语言模型的知识时效性和事实准确性问题。

下面这张图展示了 RAG 在对话过程中的工作流程:

RAG 的典型工作流
用户输入问题。

将问题向量化,然后检索最相似的文档切片。

将检索到的上下文与问题拼接后输入 LLM。

LLM 输出带引用信息的回答。

前端渲染回答、可选地在可视化界面中展示引用详情。

几种知识库的方案
目前有几种知识库实现方式。

  1. 自建知识库,采用开源项目CherryStudio方式
    https://github.com/CherryHQ/cherry-studio

项目定位:CherryStudio是一款支持多模型服务的跨平台(Windows/macOS/Linux)桌面客户端,专注于本地知识库搭建与AI工具集成,内置30+行业的智能助手,覆盖文档处理、翻译、图像生成等场景37。

核心功能与RAG实现:

本地知识库构建:用户可通过自行配置配置嵌入式模型(如BAAI/bge-m3),支持多种数据源导入,包括文件(PDF、DOCX、TXT等)、文件夹、URL链接、站点地图及纯文本。系统自动完成向量化处理,形成结构化知识库。

优势:

本地化部署,数据隐私性高;

支持免费模型(如BAAI/bge-m3)与付费模型的灵活选择。

不足:

ORC和embedding性能不足,导致知识库可用性欠佳。

  1. 腾讯IMA
    https://ima.qq.com/

腾讯的ima.copilot于2024年10月正式推出,最初由腾讯自研的混元大模型提供技术支持,主打“会思考的知识库”概念。2025年2月,ima进一步接入DeepSeek-R1模型,用户可在最新版本中根据需求选择混元大模型或DeepSeek-R1模型,以优化搜索、阅读、写作及知识库功能的表现。

项目定位:腾讯IMA是基于混元大模型的AI智能工作台,定位于“第二大脑”,聚焦知识管理、智能写作与信息整合,通过RAG架构实现高效内容创作与个性化问答。

此外其最新支持了DeepSeek R1满血版。

优势:

小程序/WIN/Mac多端可用,界面友好

支持DeepSeek R1满血版

不足:

最大1G容量的知识库

云端,数据隐私性

  1. Google NotebookLM
    https://notebooklm.google.com/

项目定位:Google NotebookLM原本爆火是因为其从文档生成播客的能力,其实他也有十分优秀的知识库功能,通过RAG技术实现文档驱动的智能问答。

优势:

性能优秀

可生成播客

劣势:

云端,数据隐私性

对比测试
测试方案
导入《DL_T 657-2015火力发电厂模拟量控制系统验收测试规程》

查询炉膛压力的控制指标要求

文中表格中有一张明确的显示了正确结果。以此作为测试目标,看几种RAG方式的回答正确率。

自建知识库,采用CherryStudio方式
选择知识库,新建数据库,并将规程导入。

选择Pro/BAAI/bge-m3作为嵌入模型。

聊天窗口中选择刚才的知识库

从回答内容来看,找到了内容但是回答错误。

腾讯IMA
腾讯IMA可以支持多平台,在微信中可以通过小程序进入,非常方便

导入文件,上传到云端,不需要选择嵌入模型。(目前最大支持1GB)

腾讯的IMA接入了DeepSeek,我们先用混元模型来回答

模型没有胡说,稳定指标准确,动态指标未列明。

在追问以后依然未回答正确

换用DeepSeek以后很快回答正确

Google NotebookLM
导入文件,不需要选择嵌入模型

第一次回答只回答了稳态指标,追问后补充了动态指标

总结
1、本地知识库的优势在于保密性和隐私性。由于本身采用的推理模型也是DeepSeekR1,能力不差,但RAG能力不如其他两个商用的,看起来差别在于ORC识别以及嵌入模型。

2、Google NotebookLM确实强

3、采用Deepseek R1的腾讯IMA不错,但就是目前容量限制1G,有点不够用,希望腾讯早点放开容量限制。

不同RAG方案对比测试总结表
方案名称 核心特点 优势 劣势
自建知识库(CherryStudio) – 基于开源本地部署 – 支持多格式数据源 – 灵活选择免费/付费嵌入模型 – 数据隐私性高(本地存储) – 可定制化扩展性强 – OCR及嵌入模型性能不足,响应较慢 – RAG回答准确率较低
腾讯IMA(DeepSeek R1版) – 多平台云端知识库(Windows/macOS/小程序) – 支持中文大模型DeepSeek R1 – 界面友好,集成度高 – 回答准确率优 – 知识库最大容量仅1GB – 云端存储数据隐私风险
Google NotebookLM – 多语言支持强(原生英文优势) – 支持文档生成播客/问答 – RAG响应速度最快 – 检索增强生成性能最佳 – 无中文专属优化 – 完全云端存储无本地部署选项

典型测试表现(基于DL_T 657-2015技术文档)
功能场景 自建知识库 腾讯IMA Google NotebookLM
首次提问准确性 索引正确,回答错误 仅部分漏检 基础指标完整
指标溯源能力 ✓有引用标注 ✓ 文档页码标注 ✓ 时间戳定位
动态参数识别 × 完全失效

原文地址