Skip to content

AI 工具与模型安装指南

1 整体说明

1.1 注意事项:

  • 推荐使用常见 linux 系统比如 centos,Ubuntu
  • Xinference 要求 cuda 版本不能低于 12.4
  • 配置要求
    模型名称开发级生产级
    deepseek-r1:1.5B普通 CPU 即可-
    deepseek-r1:14B4070ti-x1,显存 16G4070ti-x2,显存 16G
    deepseek-r1:32B不建议部署A100-x2/H100-x2,显存 40Gx2

2 gpu 驱动安装

以使用 Ubuntu 系统为例

  1. 卸载原驱动sudo apt purge "_nvidia_"
  2. 下载安装驱动 sudo ubuntu-drivers install
  3. 验证是否成功 nvidia-smi
  4. 安装 cuda sudo apt install nvidia-cuda-toolkit,确认是否安装成功 nvcc --version
  5. 配置环境变量 sudo vim ~/.bashrc
  6. 在文件末尾添加以下内容并保存,版本以 nvcc --version 命令查看的版本为准,我这看到安装的是 12.0:
bash
export PATH=/usr/local/cuda-12.0/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-12.0/lib64:$LD_LIBRARY_PATH

3 1panel 安装指南

3.1 简介

1panel 是一个开源的应用容器管理平台,允许开发者将应用及其依赖打包成轻量级的容器并管理。 此应用在安装时会自带 docker 和 docker compse。

3.2 在线安装

  • 执行命令
bash
curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sudo bash quick_start.sh
  • 按照操作步骤输入对应的端口和用户名密码

4 Ollama 安装与使用

4.1 简介

Ollama 是一个开源的大型语言模型(LLM)平台,让用户能够轻松地在本地运行、管理和与大型语言模型交互。

4.2 安装

  • 进入 1panle 面板
  • [AI-模型]下手动安装 ollama
  • 无法正常安装时,修改容器的镜像加速地址
bash
    "https://docker.1panelproxy.com",
    "https://docker.mirrors.ustc.edu.cn",
    "https://docker.1panel.live",
    "https://docker.nju.edu.cn",
    "https://docker.m.daocloud.io",
    "https://dockerproxy.com",
    "https://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn",
    "https://registry.docker-cn.com",
    "https://registry.cn-hangzhou.aliyuncs.com",
    "https://dockerhub.icu",
    "https://hub.rat.dev",
    "https://docker.wanpeng.top",
    "https://doublezonline.cloud",
    "https://docker.1ms.run",
    "https://docker.xuanyuan.me",
    "https://cr.laoyou.ip-ddns.com",
    "https://docker-0.unsee.tech",
    "https://dockerpull.cn",
    "https://hub.fast360.xyz"

4.3 常用命令

4.4 在线安装

  • 打开 1panel 的 [AI-模型]菜单
  • 点击添加模型,手动输入对应的模型名称:
bash
deepseek-r1:1.5b
deepseek-r1:14b
deepseek-r1:32b
deepseek-r1:70b

5 Xinference 安装与使用

5.1 简介

XInference 是一个性能强大且功能全面的分布式推理框架,支持大语言模型(LLM)、语音识别模型、多模态模型等多种模型的推理。

5.2 在线安装

bash
docker run  -d  --name xinference --gpus all  -v /opt/xinference/models:/root/models  -v /opt/xinference/.xinference:/root/.xinference -v /opt/xinference/.cache/huggingface:/root/.cache/huggingface -e XINFERENCE_HOME=/root/models  -p 9997:9997 xprobe/xinference:latest  xinference-local -H 0.0.0.0

5.3 校验

通过以下地址访问:http://localhost:9777

6 Dify 安装与使用

6.1 下载路径

\\\\10.10.1.30\\ftp\\AI\\soft\\dify

6.2 在线安装

  1. 将 dify 的 zip 文件复制到服务器的文件夹中。
  2. 使用unzip dify.zip解压 dify.zip。
  3. 进入 cd dify/docker 目录。
  4. 启动命令:docker compose up -d
  5. 关闭命令:docker compose down
  6. 使用以下地址访问:http://localhost