如何用DeepSeek在本地构建个人知识库?
作为开发者,我们往往需要管理大量的知识和信息,拥有一个智能化的个人知识库尤为重要。为了满足开发者建立快速响应、智能化知识库系统的需求,本书在最后两章教开发者借助DeepSeek和Cherry Studio等工具,结合RAG技术,快速搭建一个便捷高效的知识库系统。
这就涉及本地化安装部署的问题了。因为在线使用DeepSeek时,可能会遇到各种问题,如网络延迟、数据隐私不安全等。为了解决这些问题,我们可以将DeepSeek部署到本地计算机中,以获得更加便捷、高效且安全的使用体验。
第5章介绍如何将DeepSeek-R1部署到本地计算机中。首先,介绍如何安装专为在本地便捷部署和运行大语言模型而设计的开源框架Ollama;其次,为了达到较好的演示效果,本书选用DeepSeek-R1-7B,7B表示其参数规模为7billion(70亿)。最后,介绍如何使用AI交互界面工具Chatbox AI。
到目前为止,我们已掌握在本地部署DeepSeek大模型的核心技术,但实际应用中发现其对于专业领域的回答存在偏差。如何实现模型定制化?第6章详解了如何在本地把DeepSeek和个人知识库结合起来使用,显著提升专业场景下的准确性和问题解决能力。
怎么操作呢?我们需要先安装Cherry Studio。Cherry Studio的功能非常多,其中很重要的一项就是构建本地个人知识库。用户可以通过Cherry Studio实现个人知识库的构建和管理,它支持多种方式添加数据,如添加文件、文件夹目录、网址链接等。
为了构建个人知识库以使用本地化服务,还需要在Ollama中安装一个嵌入模型,用于将文本数据转换为向量表示。这里我们选择安装BGE-M3嵌入模型,在命令行中输入命令“ollama pull bge--m3”。
BGE-M3嵌入模型是一种强大的文本向量表示模型,广泛应用于自然语言处理等多个领域,能够将文本转换为高维向量,通过计算向量之间的相似度来实现高效的文本检索。
本书内容的安排特别合理,为了让开发者更好地理解构建个人知识库的步骤和实例,穿插讲解了构建个人知识库所需技术的基础知识和概念,包括:向量数据是什么、为什么要进行数据向量化,以及RAG的概念和应用等。
● 数据向量化,即将数据转换为机器学习和深度学习算法能够处理的向量的形式。个人知识库能够整合多种类型的数据源,方便用户根据需求灵活构建和管理知识库。
●检索增强生成(Retrieval--Augmented Generation,RAG)是一种在大模型中提升回答质量和准确度的技术方法。RAG技术可以使大模型在回答问题时参考外部知识库。
● 如何在Cherry Studio中为RAG做数据准备?
在设置好智能客服后,我们通过3个问答示例展示利用RAG技术实现一个智能客服系统的应用效果。
示例一:我怎么联系客服人员?
示例二:我想退货,怎么处理?
示例三:回收旧手机吗?