暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

遇到deepseek服务器繁忙?教你轻松解决!

中启乘数 2025-02-17
189


引言


随着deepseek的爆火,deepseek的访问量剧增,经常出现服务器繁忙的情况,受不了怎么办,小编给大家分享在本地部署deepseek的方法,告别服务器繁忙的问题。过程简单,点点鼠标就部署好了,快来试试吧!




1.安装Ollama


在Ollama官方网站(https://ollama.com/)下载并安装ollama工具,这是一个为快速部署和运行大型语言模型而设计的免费的工具。


根据不同的操作系统,下载Ollama安装包。


下载下来的安装包打开并安装,安装界面很简单,安装完成后,接下来我们就可以通过Ollama来安装Deepseek了。


2.安装Deepseek


再次进入Ollama官网,点击左上角的Models,然后选择deepseek-r1



可以看到deepseek-r1的模型大小提供了7个选择,小编这里选择的是1.5b大小的模型,大家可以根据自己硬件情况来选择合适大小的模型,模型越大,模型的理解和生成能力越强。


选择模型大小后,可复制生成的命令到命令行界面执行,小编安装1.5b大小的模型的命令如下:


    ollama run deepseek-r1:1.5b

    安装后即可在命令行界面和deepseek-r1对话了。



    3.安装chatbox


    虽然已经可以和deepseek在命令行中对话了,但这个页面显然不够友好,我们需要一个美观的聊天窗口,这里我们使用chatbox来与本地的deepseek对话。


    访问chatbox官网:https://chatboxai.app/zh,

    下载对应操作系统的chatbox安装包,进行安装。


    安装后打开chatbox,会提示选择AI模型提供方,我们这里选择“使用自己的API Key或本地模型”


    然后选择Ollama API,在模型处选择我们刚才下载的deepseek-r1:1.5b


    设置好后点击保存,就可以在chatbox上与本地部署的deepseek大模型对话了。





    END

    点击关注乘数科技

    扫码添加乘数小助手微信号

    邀您进入《PostgreSQL修炼之道:从小工到专家》

    读者技术交流群




    加入我们







    文章转载自中启乘数,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

    评论