以下是基于Ollama部署DeepSeek模型并使用Chatbox作为交互端的详细步骤:
一、部署Ollama
下载安装
访问Ollama官网(https://ollama.com ),根据操作系统下载对应安装包(Windows需10及以上版本)。
双击安装程序(如OllamaSetup.exe),默认安装路径为C盘,无法修改。安装完成后无提示,需通过开始菜单搜索或命令行验证。
验证安装
打开终端(CMD/PowerShell),输入命令 ollama -v 或 ollama -h,若显示版本号或帮助信息则安装成功。
二、下载并运行DeepSeek模型
选择模型版本
根据硬件配置选择合适版本(如显存≤6GB可选deepseek-r1:1.5b,显存≥16GB可选deepseek-r1:14b)。
在终端输入命令下载模型:
ollama run deepseek-r1:1.5b # 以1.5b版本为例
首次运行会自动下载模型文件,需等待完成。
手动下载(可选)
若下载速度慢,可先执行 ollama pull deepseek-r1:1.5b 单独下载模型,再运行 ollama run。
测试模型
下载完成后,直接在终端输入问题(如“你好”),模型会实时回复。输入 /exit 退出。
三、配置Chatbox可视化交互
安装Chatbox
访问Chatbox官网(https://chatboxai.app/zh ),下载对应系统的安装包,按默认步骤完成安装。
设置界面语言
打开Chatbox,点击左下角 设置(Settings) → 显示(DISPLAY) → 语言改为中文 → 保存。
配置Ollama API连接
进入 设置 → 模型,按以下步骤操作:
API类型:选择“Ollama API”。
接口地址:填写 [http://localhost:11434 ](http://localhost:11434 )(默认端口)。
模型名称:输入已下载的模型名称(如deepseek-r1:1.5b),需与Ollama中的名称完全一致。
点击 保存 完成配置。
环境变量设置(可选)
若连接失败,需配置系统环境变量:
新增 OLLAMA_HOST=0.0.0.0 和 OLLAMA_ORIGINS=*,允许所有来源访问。
重启Ollama服务(任务栏右键图标选择退出后重新运行)。
四、使用Chatbox交互
启动对话
返回Chatbox主界面,输入问题(如“写一首诗”),模型会生成回复。
支持调整参数(如“温度值”控制随机性,“TopP”控制多样性)。
常见问题解决
端口冲突:确保Ollama默认端口11434未被占用,或通过 ollama serve 指定其他端口。
防火墙拦截:在防火墙中允许Ollama的入站连接。
模型加载失败:检查模型名称拼写,或通过 ollama list 确认已安装模型。
注意事项
硬件要求:建议使用NVIDIA显卡(显存≥6GB),CPU需支持AVX指令集。模型版本越高(如70B),对显存和内存的需求越大。
网络问题:需要自行解决了。
数据安全:本地部署无需联网,适合敏感数据处理,但需避免将Ollama服务暴露至公网。
通过以上步骤,可在本地高效部署DeepSeek模型,并通过Chatbox实现友好的图形化交互。