Appearance
AI 工具与模型安装指南
1 整体说明
1.1 注意事项:
- window server 服务器不能正常使用 docker,不能安装 dify 和 Xinference
- Xinference 要求 cuda 版本不能低于 12.4
- 配置要求
模型名称 开发级 生产级 deepseek-r1:1.5B 普通 CPU 即可 - deepseek-r1:14B 4070ti-x1,显存 16G 4070ti-x2,显存 16G deepseek-r1:32B 不建议部署 A100-x2/H100-x2,显存 40Gx2 deepseek-r1:70B 不建议部署 A100-x2/H100-X2 显存 80Gx2
2.1 简介
Docker 是一个开源的应用容器引擎,允许开发者将应用及其依赖打包成轻量级的容器。
2.2 下载路径
\\\\10.10.1.30\\ftp\\AI\\soft\\Docker Desktop Installer.exe
2 Docker 安装指南
2.1 简介
Docker 是一个开源的应用容器引擎,允许开发者将应用及其依赖打包成轻量级的容器。
2.2 下载路径
\\\\10.10.1.30\\ftp\\AI\\soft\\Docker Desktop Installer.exe
2.3 设置 docker 加速地址
bash
"registry-mirrors": [
"https://docker.1panelproxy.com",
"https://docker.mirrors.ustc.edu.cn",
"https://docker.1panel.live",
"https://docker.nju.edu.cn",
"https://docker.m.daocloud.io",
"https://dockerproxy.com",
"https://hub-mirror.c.163.com",
"https://docker.mirrors.ustc.edu.cn",
"https://registry.docker-cn.com",
"https://registry.cn-hangzhou.aliyuncs.com",
"https://dockerhub.icu",
"https://hub.rat.dev",
"https://docker.wanpeng.top",
"https://doublezonline.cloud",
"https://docker.1ms.run",
"https://docker.xuanyuan.me",
"https://cr.laoyou.ip-ddns.com",
"https://docker-0.unsee.tech",
"https://dockerpull.cn",
"https://hub.fast360.xyz"
]
3 Ollama 安装与使用
3.1 简介
Ollama 是一个开源的大型语言模型(LLM)平台,让用户能够轻松地在本地运行、管理和与大型语言模型交互。
3.2 下载路径
\\\\10.10.1.30\\ftp\\AI\\soft\\OllamaSetup.exe
3.3 常用命令
- 查看已安装的模型:
ollama list
- 查看当前模型状态:
ollama ps
- 删除已安装的模型:
ollama rm
- 全部模型查看:https://ollama.com/library/deepseek-r1
3.4 在线安装
无需额外配置,直接通过命令行运行即可ollama run deepseek-r1:1.5b
。
模型名称 | 下载命令 |
---|---|
deepseek-r1:1.5B | ollama run deepseek-r1:1.5b |
deepseek-r1:14B | ollama run deepseek-r1:14b |
deepseek-r1:32B | ollama run deepseek-r1:32b |
deepseek-r1:70B | ollama run deepseek-r1:70b |
3.5 离线安装
- 下载路径:
\\\\10.10.1.30\\ftp\\AI\\models
- 将对应模型文件复制到服务器。
- 可选指定量化参数:
-q Q4_K_M
- 可选指定量化参数:
- 安装部署
文件名称 | 运行命令 |
---|---|
DeepSeek-R1-Distill-Qwen-1.5B | ollama create deepseek-r1:1.5b |
DeepSeek-R1-Distill-Qwen-14B.zip | ollama create deepseek-r1:14b |
DeepSeek-R1-Distill-Qwen-32B.zip | ollama create deepseek-r1:32b |
DeepSeek-R1-Distill-Qwen-70B.zip | ollama create deepseek-r1:70b |
3.6 增加鉴权
4 Xinference 安装与使用
4.1 简介
XInference 是一个性能强大且功能全面的分布式推理框架,支持大语言模型(LLM)、语音识别模型、多模态模型等多种模型的推理。
4.2 在线安装
bash
docker run -d --name xinference --gpus all -v d:/xinference/models:/root/models -v d:/xinference/.xinference:/root/.xinference -v d:/xinference/.cache/huggingface:/root/.cache/huggingface -e XINFERENCE_HOME=/root/models -p 9997:9997 xprobe/xinference:latest xinference-local -H 0.0.0.0
4.3 校验
通过以下地址访问:http://localhost:9777
5 Dify 安装与使用
5.1 下载路径
\\\\10.10.1.30\\ftp\\AI\\soft\\dify
5.2 在线安装
- 将 dify 的 zip 文件复制到服务器的文件夹中。
- 解压 dify.zip。
- 进入
cd dify/docker
目录。 - 启动命令:
docker compose up -d
- 关闭命令:
docker compose up down
- 使用以下地址访问:
http://localhost