华为云Flexus+DeepSeek征文|华为云ModelArts Studio实战指南:搭建n8n自动化工作流平台

发布于:2025-07-02 ⋅ 阅读:(22) ⋅ 点赞:(0)

前言


随着人工智能技术的快速发展,自动化工作流已成为提升企业效率的重要手段。华为云 ModelArts Studio 凭借其强大的 AI 开发能力与一站式服务体验,为构建智能流程提供了坚实基础。本文将手把手带您在华为云平台上部署 n8n 自动化工作流系统,助力实现高效、灵活的业务自动化。


一、华为云ModelArts Studio平台介绍

1.1 ModelArts Studio介绍

🌟 平台介绍

ModelArts Studio是华为云提供的一个大模型即服务平台(MaaS服务),旨在简化模型开发流程,支持定制化大模型的开发,并使这些模型能够无缝集成到业务系统中。通过降低企业AI应用的成本和难度,ModelArts Studio助力企业快速实现AI技术落地。

👉 立即体验:通过ModelArts Studio,让大模型成为企业数字化转型的核心驱动力,解锁智能未来!

在这里插入图片描述

1.2 ModelArts Studio主要特点

  1. 全栈模型生态,性能卓越
    主流模型全覆盖:集成Llama、Baichuan、Yi、Qwen、DeepSeek等99%业界SOTA开源模型,预适配昇腾算力底座,精度与推理性能显著提升。
    零代码自动化开发:沉淀100+行业调优经验,提供一键训练、自动超参优化、标准化流水线,无需手动调参,开发周期缩短50%+。
    昇腾深度优化:基于昇腾算子与显存优化技术,训练/推理效率大幅提升,预置最优超参配置,开箱即用。

  2. 资源灵活可控,成本优化
    💡 按需付费,弹性扩缩:分钟级获取算力资源,按实际使用收费,避免闲置浪费,降低AI入门门槛。
    💡 高可用性保障:多数据中心部署,支持故障快速恢复(快恢)断点续训,确保训练任务不中断,保护项目连续性。

  3. 智能应用快速构建
    🤖 Agent开发加速器:提供优质Prompt模板与智能Agent沉淀,支持复杂任务拆解(如多系统协同决策),快速生成业务专属智能体。
    🤝 组件化生态集成:即插即用MCP Server、LangChain、RAG、Guard等工具,一站式构建智能问答、知识管理、流程自动化等应用。

  4. 一站式全生命周期服务
    📦 全流程工具链:覆盖模型调优、压缩、部署、评测等环节,支持「即开即用」,无需跨平台切换。
    ⚙️ 标准化流水线:内置性能与精度评价体系,自动化完成模型优化,确保全场景高性能表现。

1.3 ModelArts Studio使用场景

  1. 行业大模型定制开发
    🔹 金融/医疗/制造:基于开源模型微调,快速构建风控分析、智能诊断、供应链优化等垂直领域大模型。
    🔹 优势:无需从头训练,依托昇腾优化提升行业数据适配性,降低定制成本。

  2. 复杂业务流程自动化
    🔹 企业级决策支持:拆解项目级任务(如跨部门协作、多系统调用),通过智能Agent实现自动化决策与执行。
    🔹 典型场景:智能客服(多轮对话+知识库检索)、工单自动化处理、数据分析报告生成。

  3. 低成本AI创新探索
    🔹 中小企业/初创团队:通过按需付费模式,零门槛试用大模型能力,快速验证业务场景(如营销文案生成、智能质检)。
    🔹 优势:分钟级启动开发,无需预置算力资源,试错成本降低80%。

  4. 高性能实时推理场景
    🔹 实时交互应用:智能问答、推荐系统、工业实时监控等,依托昇腾优化保障低延迟、高并发推理。
    🔹 技术支撑:多数据中心容灾架构,确保7×24小时稳定服务。

  5. 多模态应用集成
    🔹 智能内容生成:结合RAG(检索增强生成)与Guard(安全防护),构建企业级知识中台、数字人交互等多模态应用。
    🔹 组件化优势:快速集成LangChain等工具,实现「数据-模型-应用」闭环。

1.4 ModelArts Studio产品架构

华为云ModelArts Studio产品架构集成了模型服务、应用服务和资源管理等多个模块,支持从模型调优、压缩到部署的全生命周期管理,并提供丰富的插件和应用体验。其底层依托于ModelArts Standard平台,涵盖模型开发、数据工程、训练和推理等核心功能,确保高效灵活的AI开发流程。通过统一资源调度和AI专属资源池,ModelArts Studio实现了资源的按需使用和快速扩展,助力企业轻松应对复杂多变的业务需求。

在这里插入图片描述

二、n8n介绍

2.1 n8n 简介

n8n 是一个开源的工作流自动化平台,具备原生 AI 能力,支持通过可视化界面与代码结合的方式构建自动化流程。无论是开发者还是业务人员,都可以灵活使用其强大的节点系统实现任务编排、数据处理和集成联动,适用于从个人项目到企业级应用的各类场景。

2.2 n8n核心特点

  • 按需编码:支持 JavaScript/Python 编写自定义逻辑,可灵活添加 npm 包扩展功能。
  • 原生AI平台:基于 LangChain 构建 AI 代理工作流,轻松集成自有模型与私有数据。
  • 完全控制:提供公平代码许可(Fair Code License),支持自托管部署或使用云端服务。
  • 企业就绪:内置高级权限管理、单点登录(SSO)支持,满足企业安全与合规需求。
  • 活跃社区:拥有超过 400+ 官方及第三方集成节点,以及 900+ 可复用流程模板。
  • 多部署方式:支持本地部署、Docker 容器化部署,也可无缝对接云平台。

三、本次实践介绍

3.1 本次实践介绍

  1. 本次实践基于个人测试环境,依托华为云 Flexus X 实例与 ModelArts Studio 平台开展;
  2. 实践内容为将n8n平台接入 ModelArts Studio 提供的 DeepSeek 商用大模型服务,并完成n8n的部署与配置。

3.2 环境规划

云厂商 服务器 云服务 部署项目 IP地址 操作系统版本 内核版本 Docker版本 大模型 备注
华为云 本地服务器 MaaS平台提供的DeepSeek商用服务 n8n 192.168.3.88 Ubuntu 22.04.1 LTS 5.15.0-142-generic 28.1.1 华为云DeepSeek-V3-32K等 ——

四、环境准备工作

4.1 检查系统版本

本次实践在本地测试服务器进行,使用操作系统版本22.04.1 LTS,需要提前安装Docker环境。建议使用华为云Flexus X实例,环境部署更加方便快捷。

root@jeven01:~#  cat /etc/os-release
PRETTY_NAME="Ubuntu 22.04.1 LTS"
NAME="Ubuntu"
VERSION_ID="22.04"
VERSION="22.04.1 LTS (Jammy Jellyfish)"
VERSION_CODENAME=jammy
ID=ubuntu
ID_LIKE=debian
HOME_URL="https://www.ubuntu.com/"
SUPPORT_URL="https://help.ubuntu.com/"
BUG_REPORT_URL="https://bugs.launchpad.net/ubuntu/"
PRIVACY_POLICY_URL="https://www.ubuntu.com/legal/terms-and-policies/privacy-policy"
UBUNTU_CODENAME=jammy

4.2 检查Docker环境

检查Docker版本,当前安装版本为28.1.1

root@jeven01:~# docker -v
Docker version 28.1.1, build 4eba377

检查Docker Compose版本,当前安装版本为:v2.35.1

root@jeven01:~# docker compose version
Docker Compose version v2.35.1

4.3 安装基础软件包

如果是初始环境,可以安装以下基础软件

apt install -y build-essential cmake curl wget gnupg unzip vim git net-tools iputils-ping software-properties-common

在这里插入图片描述

五、开通DeepSeek商用服务

5.1 进入ModelArts Studio控制台

ModelArts Studio是华为云提供的一个大模型即服务平台(MaaS服务),旨在简化模型开发流程,支持定制化大模型的开发,并使这些模型能够无缝集成到业务系统中。通过降低企业AI应用的成本和难度,ModelArts Studio助力企业快速实现AI技术落地。我们登录华为云官网后,进入ModelArts Studio大模型即服务平台的介绍页。官网地址:https://www.huaweicloud.com/product/modelarts/studio.html。点击“ModelArts Studio控制台”,即可进入maas服务控制台内。

在这里插入图片描述

5.2 开通商业服务

访问 ModelArts Studio 大模型即服务平台后,ModelArts Studio 控制台,登录后进入 模型推理 页面,选择 在线推理 > 预置服务 > 商用服务,在模型列表中找到 DeepSeek-R1-32K,点击“开通服务”以启用该模型,具体操作如下所示:

在这里插入图片描述

同样的方法,我们可以开通DeepSeek-V3-32K和DeepSeek-R1-32K-0528商用服务,如下所示已正常开通。

在这里插入图片描述

5.3 复制OpenAI SDK信息

您可以选择某个已开通的商用服务(例如 DeepSeek-V3-32K),点击其右侧的 “调用说明” 选项,即可查看与该模型兼容的 OpenAI SDK 调用信息。请在此页面复制所需的 模型名称API 地址,并保存至本地,以便后续配置和使用。

在这里插入图片描述

5.4 创建API key

我们在ModelArts Studio控制台左侧菜单栏中,单击“API Key管理”,开始创建API key。

在这里插入图片描述

填写API key的标签和描述,填写完毕后,确认创建。

在这里插入图片描述

复制我们刚才生成的密钥,如下所示:

在这里插入图片描述

可以在本地建一个临时文本文件,将以上关键信息保存下来。

在这里插入图片描述

六、部署n8n系统

6.1 拉取n8n容器镜像

执行以下命令,拉取的n8n容器镜像名称为docker.n8n.io/n8nio/n8n

 docker pull docker.n8n.io/n8nio/n8n

如果拉取失败或者拉取缓慢,可以使用以下命令 swr.cn-north-4.myhuaweicloud.com/jeven/n8n

docker pull  swr.cn-north-4.myhuaweicloud.com/jeven/n8n

在这里插入图片描述

6.2 创建n8n容器

如果使用docker命令行方式创建n8n容器,可参考以下示例命令:

docker run -d  --name n8n --restart always -p 5678:5678 -v n8n_data:/home/node/.n8n swr.cn-north-4.myhuaweicloud.com/jeven/n8n:latest

本次实践基于 Docker Compose 方式进行容器创建与配置,推荐使用该方式以提升部署效率并统一服务管理。

vim docker-compose.yaml
version: '3.9'
services:
    jeven:
        image: 'swr.cn-north-4.myhuaweicloud.com/jeven/n8n:latest'
        volumes:
            - 'n8n_data:/home/node/.n8n'
        ports:
            - '5678:5678'
        restart: always
        container_name: n8n

volumes:
  n8n_data:

执行以下命令,创建n8n容器,如下所示:

docker compose up -d

在这里插入图片描述

6.3 检查n8n容器状态

执行以下命令,查看n8n容器的运行状态,确保其已正常启动:

root@jeven01:/data/n8n# docker ps
CONTAINER ID   IMAGE                                               COMMAND                  CREATED          STATUS          PORTS                                   NAMES
5f958dcf4698   swr.cn-north-4.myhuaweicloud.com/jeven/n8n:latest   "tini -- /docker-ent…"   18 minutes ago   Up 18 minutes   0.0.0.0:5678->5678/tcp, [::]:5678->5678/tcp              n8n

6.4 检查容器日志

检查n8n容器日志,可以看到n8n服务正常运行。

docker compose logs 

在这里插入图片描述

七、配置https访问

7.1 配置说明

为确保安全访问,n8n 需要通过 HTTPS 协议进行访问。请按照以下步骤配置 HTTPS 证书及相关参数,以启用加密连接并避免访问报错。

7.2 安装Nginx软件

执行以下命令,更新软件源并安装Nginx软件。

apt update
apt install nginx  -y

在这里插入图片描述

7.3 配置SSL证书

执行以下命令,创建证书存放目录。

mkdir -p /etc/nginx/ssl

为了使用HTTPS,我们需要一个SSL证书。由于当前为测试环境,我们可以使用自签名证书。要生成自签名证书,可使用执行以下操作。

 openssl req -x509 -nodes -days 365 -newkey rsa:2048 -keyout /etc/nginx/ssl/nginx-selfsigned.key -out /etc/nginx/ssl/nginx-selfsigned.crt

在这里插入图片描述

7.4 配置Nginx服务

编辑或创建一个新的Nginx配置文件(例如 /etc/nginx/sites-available/reverse-proxy),如下所示:

vim /etc/nginx/sites-available/reverse-proxy

请根据实际环境配置反向代理文件。示例中 server_name 请替换为您的服务器内网 IP 地址,反向代理监听端口为 9700,后端服务地址为 http://127.0.0.1:5678。配置完成后重启 Nginx 或相应代理服务以生效。

server {
    listen 9700 ssl;
    server_name 192.168.3.88;

    ssl_certificate /etc/nginx/ssl/nginx-selfsigned.crt;
    ssl_certificate_key /etc/nginx/ssl/nginx-selfsigned.key;

    location / {
#        auth_basic "Restricted Content";
#        auth_basic_user_file /etc/nginx/.htpasswd;

        proxy_pass http://127.0.0.1:5678;

        proxy_set_header Host 192.168.3.88;               # 固定 Host,不要用 $host
        proxy_set_header Origin https://192.168.3.88;     # 固定 Origin,不能带端口
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Forwarded-Proto $scheme;
        proxy_set_header X-Real-IP $remote_addr;

        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade";
    }
}
  • 启用该配置文件:
 ln -s /etc/nginx/sites-available/reverse-proxy /etc/nginx/sites-enabled/
  • 检查Nginx配置是否正确:
root@jeven01:/data/n8n# nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful

7.5 启动Nginx服务

启动Nginx服务,并设置开机自启。

systemctl enable nginx
systemctl restart nginx

为了检查Nginx服务运行正常,使用以下命令进行检查确认。

systemctl status nginx

在这里插入图片描述

八、访问n8n自动化工作流平台

8.1 访问n8n初始页

浏览器访问https://<服务器IP地址>:9700,将IP替换为自己服务器IP地址,访问n8n的初始登录页。如果无法访问到该页面,需要检查操作系统的防火墙是否关闭或放行相关服务端口。

在这里插入图片描述

8.2 注册账号

在n8n注册页,自定义填写账号信息,完成账号注册流程。

在这里插入图片描述

由于是测试环境,这里直接跳过验证。如果想要免费获得付费功能,可以按照提示使用邮箱验证进行注册激活。

在这里插入图片描述
在这里插入图片描述

九、n8n的配置和基本使用

9.1 配置基本聊天工作流

点击 n8n 左侧菜单中的“+”按钮,选择“Workflow”选项,进入工作流管理页面。

在这里插入图片描述

在工作流画布上,节点添加界面的搜索框中输入“chat”,选择“消息触发器”节点,然后将其拖拽至工作区画布中。

在这里插入图片描述
在这里插入图片描述

同样方法,将AI Agent节点拖拽到画布中,如下所示:

在这里插入图片描述

将Chat Trigger节点和AI Agent连接起来,如下所示:

在这里插入图片描述

添加模型节点,将OpenAI Chat Model节点拖拽到画布中,并且连接到AI Agent节点,如下所示:

在这里插入图片描述

9.2 OpenAI Chat Model节点配置

此时一个基础的聊天工作流配置完成,我们需要配置OpenAI Chat Model节点,添加AI模型。双击OpenAI Chat Model节点,进入其配置页,选择创建凭据。

在这里插入图片描述

OpenAI 凭据配置,可参考如下配置:

  • API Key: 华为云创建的maas的API key填写即可 ;
  • Organization ID (optional):DeepSeek-V3
  • Base URL:https://api.modelarts-maas.com/v1
  • 填写完毕后,点击“save”保存。

在这里插入图片描述

在这里插入图片描述

回到OpenAI Chat Model节点配置页面,在模型列表选择【DeepSeek-V3】。

在这里插入图片描述

9.3 对话测试

回到聊天工作流界面,在对话框中输入问题后,可以看到 AI Agent 成功回应了提问,表明整个工作流配置已成功运行。n8n 凭借其强大的自动化能力和灵活的扩展性,为各类业务场景带来无限可能。结合华为云 ModelArts Studio 提供的 DeepSeek 大模型,进一步释放了智能化流程的潜力,开启 AI 自动化应用的新篇章。

在这里插入图片描述

十、实践体验与总结


在本次基于 华为云 ModelArts Studio 搭建 n8n 自动化工作流平台 的实践中,整体流程顺畅高效,充分体现了华为云平台的强大能力与易用性。通过 ModelArts Studio 提供的一站式 AI 开发环境,我们快速完成了从镜像部署到服务配置的全过程,极大地降低了搭建门槛,提升了开发效率。特别是在集成 DeepSeek 商用大模型后,n8n 展现出强大的自动化流程处理能力,为智能化业务流程提供了坚实支撑。

华为云 ModelArts Studio 凭借其高可用架构、灵活资源配置和完善的生态支持,成为我们实现 AI 工作流自动化的理想选择。无论是企业级用户还是开发者,都能从中获得稳定、安全、高效的云上 AI 开发体验。此次实践不仅验证了 n8n 在自动化流程中的灵活性与扩展性,也进一步彰显了华为云在 AI 领域的技术领先性和服务优势。

📢 选择华为云 ModelArts Studio,让 AI 工作流自动化更简单、更强大!



网站公告

今日签到

点亮在社区的每一天
去签到