春节前夕,整个 AI 圈宛如平静湖面被投入一颗巨石,激起千层浪。杭州的一家极具创新力的公司,以一种震撼的方式登上舞台,发布并开源了 DeepSeek-R1 模型。消息一经传出,迅速在全球 AI 领域引发热议,各大专业论坛、技术交流群瞬间被这个话题霸屏,科研人员、AI 从业者以及科技爱好者们纷纷就此展开热烈讨论。
从技术层面来看,DeepSeek-R1 模型堪称惊艳。它突破了以往模型的局限,实现了更高等级的推理能力。在面对复杂的逻辑推理、知识问答以及多轮对话场景时,都能展现出优异的表现,给出精准且富有逻辑的回答,还展现了它的思考过程。更为关键的是,它在成本控制方面取得了巨大突破,成本低廉到令人惊叹。在如今 AI 模型训练成本高昂的大环境下,DeepSeek-R1 模型为众多企业和研究机构提供了新的可能性。并且其性能十分强悍,在多项权威评测中,展现出了媲美 OpenAI 的实力,在语言理解、生成以及复杂任务处理等方面,都能与国际顶尖模型一较高下。
这一模型的发布,对中国 AI 发展而言,无疑是一针强有力的催化剂。它极大地推动了中国 AI 技术的进步,为国内相关企业和研究机构提供了宝贵的技术参考和借鉴,激励着更多的创新与突破。同时,也将中国的人工智能推向了世界顶端,让全球看到了中国在 AI 领域的深厚技术积累和强大创新能力。它吸引了国际上众多科技巨头的目光,促进了国际间的技术交流与合作,为中国 AI 产业在全球市场赢得了更多的话语权和发展机遇。
这么好的模型,关注AI的我当然不能错过,今天就用这个目前世界顶级的推理模型搭建下我们本地的知识库,也许有人要说,DeepSeek人家是免费使用的,直接在线使用不就好了,当然没问题,没有本地部署需求的,直接到DeepSeek | 度求索官网,使用在线的DeepSeek即可。
但是使用在线的免不了你的一些信息会被deepseek的服务器所记录,可能会用于优化模型,也可能会用来做个性化推广,如果你有一些私人信息,不想被他人记录或不能网络传播,但还需要让AI助理帮你处理时,就不太适合用在线模型了。
本篇文章就教会大家如何搭建本地的deepseek模型,并关联自己的知识库,打造专属于自己的AI知识库。
安装Ollama
想要本地运行模型,现在有很多工具可用,如ollama、LM Studio、GPT4ALL等等,这些软件都直接提供模型的下载。我这里选择ollama,因为它提供的模型多,不需要科学上网即可下载,而且支持多种UI界面,ollama只提供后端的模型运行。
打开Ollama官网,点击“Download”进入下载页面,选择自己的系统下载ollama,如果是windows和macOS会提供安装包的下载,如果是Linux会提供安装命令。
我这里是windows,因此