Ollama + Page Assist 搭建本地 RAG 知识库
时间: 2025-04-12 14:51:52
(部分内容来自网络,其真实性存疑,为了避免对您造成误导,请谨慎甄别。)
Ollama + Page Assist 搭建本地 RAG 知识库——纯步骤拆解
1. 安装必备工具
✅ Ollama(本地模型运行)
- 下载安装:[Ollama 官网](https://ollama.com/)
- 终端运行:
bash # 拉取嵌入模型(处理文本检索)
ollama pull nomic-embed-text
# 拉取生成模型(DeepSeek-R1 或日语专用模型)
ollama pull deepseek-r1
# 或日语优化模型(可选)
ollama pull japanese-stablelm-instruct
✅ Page Assist 插件(浏览器知识库管理)
- Chrome/Firefox 安装:[Page Assist 插件](https://pageassist.io/)
- 安装后,在浏览器右上角找到插件图标,点击打开。
2. 建立知识库(存储文档)
目标:让 Page Assist 用 nomic-embed-text
分析你的文档。
- 操作步骤:
1. 打开网页或本地文件(支持 PDF/TXT/Markdown)。
2. 点击 Page Assist 插件图标 → 选择 「Save to Knowledge Base」(保存到知识库)。
3. 等待嵌入完成:Page Assist 会自动调用 nomic-embed-text
处理文本,无需手动操作。
3. 提问并检索相关内容
目标:从知识库中查找与问题相关的段落。
- 操作步骤:
1. 在 Page Assist 插件输入框 输入问题(如 「日本の人口は?」
)。
2. 插件会自动检索并显示 最相关的 3 段文本(基于 nomic-embed-text
的语义搜索)。
4. 调用 DeepSeek-R1 生成回答
目标:让 Ollama 的生成模型基于检索结果回答问题。
- 操作步骤:
1. 在 Page Assist 勾选 检索到的相关文本(可多选)。
2. 点击 「Generate Answer」(生成回答)。
3. Page Assist 会自动:
- 拼接提示词(如 “参考以下内容回答问题:[检索到的文本]”
)。
- 调用 ollama run deepseek-r1
生成回答。
4. 显示结果:生成的答案会直接出现在插件界面。
5. 高级设置(可选)
# ① 修改提示词模板(优化回答格式)
- 进入 Page Assist 设置 → Prompt Template,修改为:
text 参考資料:
{context}
問題: {query}
日本語で簡潔に答えてください:
# ② 切换生成模型(如日语专用模型)
- 如果 deepseek-r1
日语支持不好,在 Ollama 中运行:
bash ollama pull japanese-stablelm-instruct
- 在 Page Assist 设置中,将 生成模型名称 改为 japanese-stablelm-instruct
。
完整流程示例(终端版,验证 RAG 是否生效)
如果 Page Assist 不可用,可直接用 Ollama 手动测试:
# 1. 检索(模拟 Page Assist 返回相似文本) ollama run nomic-embed-text "日本の人口は?" --verbose # 查看嵌入向量
# 2. 生成(手动拼接提示词) ollama run deepseek-r1 "参考:日本の人口は約1億2500万人です。質問:日本の人口は?回答:"
输出:日本の人口は約1億2500万人です。
问题排查
❌ Page Assist 找不到 Ollama?
- 确保终端已运行:
bash ollama serve
❌ 生成的日语不流畅?
- 换模型:
bash ollama pull japanese-stablelm-instruct
- 在提示词结尾加 「日本語で答えてください」
总结
1. 安装 Ollama + Page Assist
2. 用 Page Assist 保存文档 → 自动生成嵌入
3. 提问 → 插件检索相关内容
4. 勾选文本 + 点击生成 → 调用 DeepSeek-R1 输出答案
无需代码,全程点击操作!