暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

告别云端!用Ollama+Cherry Studio在Windows本地部署DeepSeek全攻略

山佳数峰寻道 2025-07-08
1817

01

前言

    随着人工智能技术的快速发展,大型语言模型(LLM)已经不再是云端专属服务。现在,通过一些工具组合,我们可以在个人Windows电脑上部署和运行像DeepSeek这样的强大语言模型。本文将介绍如何使用Ollama和Cherry Studio在Windows环境下搭建本地DeepSeek大模型服务。

02

准备工作

在开始之前,请确保你的Windows电脑满足以下要求:

操作系统:Windows 10/11 64位

硬件配置:

至少16GB RAM(推荐32GB或以上)

支持CUDA的NVIDIA显卡(如RTX 3060或更高,可选但推荐)

至少50GB可用存储空间

已安装最新版显卡驱动(如使用GPU加速)


03

安装Ollama

    Ollama是一款优秀的开源工具,让您可以在本地轻松运行和管理各种大型语言模型(LLMs)。Cherry Studio 现已支持 Ollama 集成,让您可以在熟悉的界面中,直接与本地部署的 LLM 进行交互,无需依赖云端服务!

什么是 Ollama

Ollama 是一个简化大型语言模型(LLM)部署和使用的工具。它具有以下特点:

  • 本地运行:
          模型完全在您的本地计算机上运行,无需联网,保护您的隐私和数据安全。
  • 简单易用:
          通过简单的命令行指令,即可下载、运行和管理各种 LLM
  • 模型丰富:
          支持 Llama 2DeepseekMistralGemma 等多种流行的开源模型。
  • 跨平台:
          支持 macOSWindows  Linux 系统。
  • 开放API
    :支持与OpenAI兼容的接口,可以和其他工具集成。


为什么要在 Cherry Studio 中使用 Ollama

  • 无需云服务:
          不再受限于云端 API 的配额和费用,尽情体验本地 LLM 的强大功能。
  • 数据隐私:
          您的所有对话数据都保留在本地,无需担心隐私泄露。
  • 离线可用:
          即使在没有网络连接的情况下,也能继续与 LLM 进行交互。
  • 定制化:
          可以根据您的需求,选择和配置最适合您的 LLM

1、访问Ollama官网(https://ollama.ai/)下载Windows版本

选择Windows版本进行下载安装即可。(同时可以看到也支持MacOS和Linux),本次只选择安装Windows版本

2、运行安装程序,按照提示完成安装。

3、安装完成后,打开命令提示符(CMD)或PowerShell,测试是否安装成功

可以看到可以成功了。

其中Ollama程序默认安装在:

C:\Users\你的用户名\AppData\Local\Programs\Ollama

Ollama模型默认安装在:

C:\Users\你的用户名\.ollama\models

4、进行调整ollama安装路径以及模型下载路径

因此为了方便后续管理进行Ollama路径调整以及模型路径修改(前面是修改后的路径),下面是如何进行修改:

Win+R

进行环境变量修改:
新建用户环境变量和系统变量:
这一步设置的时候,OLLAMA下载的模型路径。
迁移ollama路径:将C:\Users\你的用户名\AppData\Local\Programs\Ollama 文件目录拷贝至D:\Ollama_Soft路径下
然后点击确定,重启ollama就可以进行生效,也可以正常启动。

04

下载DeepSeek模型

Ollama支持多种模型,我们需要下载DeepSeek模型:

打开命令提示符,运行以下命令下载模型:

    ##Pull是拉取模型
    ollama pull deepseek-r1:7b  
    ##run 是启动模型
    ollama run deepseek-r1:7b

    (注意:模型名称可能有多个版本,请查看Ollama官方文档获取最新模型名称)

    等待下载完成,这可能需要较长时间,取决于你的网络速度。

    下载之后查看:

    说明已经正常获取了。

    这是我安装的有些模型,也一起放一下。

    相关命令进行参考,本文不做过多描述。


    04

    安装Cherry Studio

        Cherry Studio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。 Cherry Studio 高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 Cherry Studio中找到适合自己的 AI 功能,提升工作效率和创造力。

    1、下载安装Cherry Studio

    通过官网地址进行下载:https://www.cherry-ai.com/download

    2、运行安装程序,按照提示完成安装

        安装选择路径 下一步就可以了,本次不做展示了。

    3、启动Cherry Studio

    接下来进行配置:

    前文下载的大模型,就可以看到了,然后点击右边的加好就可以了。

    05

    使用Deepseek

    点击创建智能体,然后进行体验使用
    先生成一个Linux服务器巡检脚本:
    脚本篇幅太长,文中不做展示了,下边这个是脚本解释和介绍:

    总体来说,效率还算不错,后边可以使用自己本地的大模型了,还有很多的功能等待发掘。

    06

    总结

        通过Ollama和Cherry Studio的组合,我们在Windows电脑上成功部署了本地DeepSeek大模型。这种方法不仅提供了隐私保护(数据不上传云端),还能根据个人需求灵活调整模型配置。随着硬件性能的提升和模型优化技术的进步,本地运行大语言模型将变得越来越可行。

    文章转载自山佳数峰寻道,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

    评论