【VLLM】open-webui部署模型全流程

发布于:2025-07-27 ⋅ 阅读:(20) ⋅ 点赞:(0)

目录

前言

  一、租用服务器到服务器连接VScode全流程(可选)

二、下载模型到本地服务器

2.1 进入魔塔社区官网

2.2 选择下载模型

2.3 执行下载

三、部署VLLM

3.1 参考vllm官网文档

3.2 查看硬件要求

3.3 安装vLLM框架

3.4 启动模型服务

方法1:直接启动下载的本地模型

方法2:启动微调后的模型

3.5 调用模型进行对话(可选)

四、安装open-webui流程

4.1 创建虚拟环境

 4.2 安装并运行open-webui

4.3 启动后效果

五、总结


前言

本章主要讲述的是VLLM的部署在open-webui上部署模型的全流程,效果如下:


  一、租用服务器到服务器连接VScode全流程(可选)

AutoDL连接VSCode运行深度学习项目的全流程教程:
【云端深度学习训练与部署平台】AutoDL连接VSCode运行深度学习项目的全流程-CSDN博客

AutoDL官网地址:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL

这里介绍了 AutoDL 平台的使用方法,从平台简介、服务器租用、VSCode远程连接,到高级GPU监控工具的安装,适合中文开发者快速上手深度学习任务。

▲如果说电脑硬件配置太低(如:显存低于24GB),请根据【AutoDL连接VSCode运行深度学习项目的全流程教程】,通过云服务器来进行部署运行;

▲如果说电脑硬件配置足够高(如:显存24GB及以上),或者说有自己的服务器,可以直接跳过这一步;


二、下载模型到本地服务器

说明:如果本地已经下载了模型,可以直接到【三、部署VLLM

2.1 进入魔塔社区官网

魔塔社区官网地址:ModelScope 魔搭社区


2.2 选择下载模型

这里根据业务场景选择合适的模型类型和模型参数大小即可。

这里用SDK的下载方式下载模型:将代码复制到服务器中


2.3 执行下载

▲在服务器的数据盘中(autodl-tmp下 )创建一个.py文件(如download_model.py);

▲将复制的SDK下载代码复制到【download_model.py】 ;

▲修改存放路径为数据盘:cache_dir="/root/autodl-tmp"

#模型下载
from modelscope import snapshot_download
model_dir = snapshot_download('Qwen/Qwen3-0.6B',cache_dir="/root/autodl-tmp")

cache_dir="/root/autodl-tmp"表示存放的路径,/root/autodl-tmp为数据盘路径;

#出发路径:服务器根目录

#查看当前位置
ls

#进入到数据盘路径
cd autodl-tmp/

#运行下载脚本download.py
python download.py

【注意】

▲下载完后,提示成功的信息可能会夹在进度条的中间,按下【回车】即可继续操作


▲验证模型文件是否下载完整?

这种情况主要出现在下载大参数模型时(如7B及以上参数模型),下载中途可能会因为网络问题导致文件下载失败从而终止。这种情况只需再次执行下载命令(如:python download.py),即可继续下载,中断反复执行即可,直到出现下载成功的提示信息即可。


▲模型资源重复

在下载模型时,有的模型文件可能会出现2个模型资源文件夹,不过这都不影响,不管用哪一份都可以;


三、部署VLLM

3.1 参考vllm官网文档

VllM文档参考地址:vLLM - vLLM 文档

因为VLLM的更新快,所以在部署过程中以官方文档为准

3.2 查看硬件要求

确保自己电脑硬件要求是否符合


网站公告

今日签到

点亮在社区的每一天
去签到