暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

DeepSeek 提示服务器繁忙.....

呆呆的私房菜 2025-02-13
57
    Whoami:5年+金融、政府、医疗领域工作经验的DBA
    Certificate:PGCM、OCP、YCP
    Skill:Oracle、Mysql、PostgreSQL、国产数据库
    Platform:CSDN、墨天轮、公众号(呆呆的私房菜)

    最近DeepSeek爆火,凭借其先进的算法和卓越的能力,表现非常出众,凭借一己之力就推动了国内AI大模型跨越式的发展。
    But,当我们在使用在线的DeepSeek时,经常会出现服务器繁忙问题,如果将DeepSeek部署在本地就会方便很多。

    01

    安装Ollama
    • Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。
    • 地址:https://ollama.com/
    • 简化部署:Ollama 通过 Docker 容器简化了大型语言模型的部署过程,即使是非专业用户也能轻松上手;
    • 支持多种模型:它支持多种流行的大型语言模型,如 LLaMA 2、Mistral、Gemma 等;
    • 跨平台支持:Ollama 支持 Windows、macOS 和 Linux 等多个操作系统;
    • 资源占用低:Ollama 优化了资源使用,使得在普通硬件上也能高效运行。

    02

    模型下载

    • 地址:https://ollama.com/search
    • 选择 deepseek-r1 对应的模型进行下载,目前有 1.5b、7b、8b、14b、32b、70b和671b 共7个版本可以选择。
    • 以下是 DeepSeek-R1 不同模型对电脑配置的要求,整理成表格如下:
      # 以安装deepseek-r1 70b模型为例:
      # 打开cmd终端,执行如下命令,然后等待下载完成即可:


      ollama run deepseek-r1:14b

      03

      开始对话
        # 查看已下载的模型
        ollama list


        # 运行模型
        ollama run deepseek-r1:14b
        ps:如果觉得cmd命令行操作不方便,可以下载chatbox客户端工具,实现网页化访问。下载地址:https://chatboxai.app/zh


        本文内容就到这啦,阅读完本篇,相信你也了解如何本地化部署deepseek模型啦!赶紧本地部署一个试试吧!


        点击上方公众号,关注我吧!


        文章转载自呆呆的私房菜,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

        评论