【Ubuntu】【QWen】【Ollama】在Ubuntu用ollama安装qwen的全部步骤

发布于:2025-07-08 ⋅ 阅读:(37) ⋅ 点赞:(0)

【Ubuntu】【QWen】【Ollama】在Ubuntu用ollama安装qwen的全部步骤

在 Ubuntu 上,

使用 Python3 venv 创建虚拟环境,

并安装 Ollama 和 Qwen 模型的步骤:

1. 创建 Python3 虚拟环境

  1. 安装 Python3 和 venv
    确保系统已安装 Python3 和 venv 模块。
    运行以下命令安装:

    sudo apt update
    sudo apt install python3 python3-venv
  2. 创建虚拟环境
    在终端中,
    进入你希望创建虚拟环境的目录(我把虚拟环境,都放在Document中,方便管理)
    然后,运行以下命令,创建虚拟环境(假设虚拟环境名为 qwen_env

    python3 -m venv qwen_env
  3. 激活虚拟环境: 激活虚拟环境

    source qwen_env/bin/activate
  4. 安装 requests: 在激活的虚拟环境中,安装 requests 库:

    pip install requests

2. 安装 Ollama

  1. 安装 Ollama: 在终端中运行以下命令安装 Ollama

    curl -fsSL https://ollama.com/install.sh | sh
  2. 启动 Ollama 服务: 安装完成后,启动 Ollama 服务

    ollama serve

3. 安装并运行 Qwen 模型

  1. 拉取并运行 Qwen 模型: 在终端中,运行以下命令,拉取并运行 Qwen2.5-1.5B 模型
    也可以直接安装最新版,不带版本号即可。

  2. ollama run qwen2.5:1.5b

        

4. 编写 Python 脚本与 Qwen 模型交互

    在虚拟环境中,
    创建一个 Python 脚本(例如 test_qwen.py),
    并使用以下代码与 Qwen 模型交互:

import requests

OLLAMA_URL = "http://127.0.0.1:11434"

response = requests.post(
    f"{OLLAMA_URL}/api/generate",
    json={
        "model": "qwen2.5:1.5b",
        "prompt": "你的问题或提示",
        "max_tokens": 100
    }
)

# 打印原始响应内容
print("原始响应内容:")
print(response.text)

# 尝试解析 JSON
try:
    data = response.json()
    print("解析后的 JSON 数据:")
    print(data["response"])
except json.JSONDecodeError as e:
    print(f"JSON 解析错误: {e}")

5. 运行脚本

在激活的虚拟环境中,运行脚本:

python3 test_qwen.py

注意事项

  • 确保 Ollama 服务已启动并运行正常。

  • 如果在运行脚本时遇到问题,可以先检查 Ollama 的响应内容是否符合预期。

  • 如果需要安装其他 Python 库,可以在激活虚拟环境后,使用 pip install <库名> 命令。

通过以上步骤,
可以在 Ubuntu 上,
使用 Python3 venv 创建虚拟环境,
并安装 Ollama 和 Qwen 模型,
进而通过 Python 脚本与模型进行交互。


网站公告

今日签到

点亮在社区的每一天
去签到