华为云Flexus+DeepSeek征文|华为云ModelArts Studio实战指南:搭建n8n自动化工作流平台
前言
随着人工智能技术的快速发展,自动化工作流已成为提升企业效率的重要手段。华为云 ModelArts Studio
凭借其强大的 AI 开发能力与一站式服务体验,为构建智能流程提供了坚实基础。本文将手把手带您在华为云平台上部署 n8n 自动化工作流系统,助力实现高效、灵活的业务自动化。
一、华为云ModelArts Studio平台介绍
1.1 ModelArts Studio介绍
🌟 平台介绍
ModelArts Studio
是华为云提供的一个大模型即服务平台(MaaS服务),旨在简化模型开发流程,支持定制化大模型的开发,并使这些模型能够无缝集成到业务系统中。通过降低企业AI应用的成本和难度,ModelArts Studio助力企业快速实现AI技术落地。
👉 立即体验:通过ModelArts Studio,让大模型成为企业数字化转型的核心驱动力,解锁智能未来!
1.2 ModelArts Studio主要特点
全栈模型生态,性能卓越
✅ 主流模型全覆盖:集成Llama、Baichuan、Yi、Qwen、DeepSeek等99%业界SOTA开源模型,预适配昇腾算力底座,精度与推理性能显著提升。
✅ 零代码自动化开发:沉淀100+行业调优经验,提供一键训练、自动超参优化、标准化流水线,无需手动调参,开发周期缩短50%+。
✅ 昇腾深度优化:基于昇腾算子与显存优化技术,训练/推理效率大幅提升,预置最优超参配置,开箱即用。资源灵活可控,成本优化
💡 按需付费,弹性扩缩:分钟级获取算力资源,按实际使用收费,避免闲置浪费,降低AI入门门槛。
💡 高可用性保障:多数据中心部署,支持故障快速恢复(快恢)与断点续训,确保训练任务不中断,保护项目连续性。智能应用快速构建
🤖 Agent开发加速器:提供优质Prompt模板与智能Agent沉淀,支持复杂任务拆解(如多系统协同决策),快速生成业务专属智能体。
🤝 组件化生态集成:即插即用MCP Server、LangChain、RAG、Guard等工具,一站式构建智能问答、知识管理、流程自动化等应用。一站式全生命周期服务
📦 全流程工具链:覆盖模型调优、压缩、部署、评测等环节,支持「即开即用」,无需跨平台切换。
⚙️ 标准化流水线:内置性能与精度评价体系,自动化完成模型优化,确保全场景高性能表现。
1.3 ModelArts Studio使用场景
行业大模型定制开发
🔹 金融/医疗/制造:基于开源模型微调,快速构建风控分析、智能诊断、供应链优化等垂直领域大模型。
🔹 优势:无需从头训练,依托昇腾优化提升行业数据适配性,降低定制成本。复杂业务流程自动化
🔹 企业级决策支持:拆解项目级任务(如跨部门协作、多系统调用),通过智能Agent实现自动化决策与执行。
🔹 典型场景:智能客服(多轮对话+知识库检索)、工单自动化处理、数据分析报告生成。低成本AI创新探索
🔹 中小企业/初创团队:通过按需付费模式,零门槛试用大模型能力,快速验证业务场景(如营销文案生成、智能质检)。
🔹 优势:分钟级启动开发,无需预置算力资源,试错成本降低80%。高性能实时推理场景
🔹 实时交互应用:智能问答、推荐系统、工业实时监控等,依托昇腾优化保障低延迟、高并发推理。
🔹 技术支撑:多数据中心容灾架构,确保7×24小时稳定服务。多模态应用集成
🔹 智能内容生成:结合RAG(检索增强生成)与Guard(安全防护),构建企业级知识中台、数字人交互等多模态应用。
🔹 组件化优势:快速集成LangChain等工具,实现「数据-模型-应用」闭环。
1.4 ModelArts Studio产品架构
华为云
ModelArts Studio
产品架构集成了模型服务、应用服务和资源管理等多个模块,支持从模型调优、压缩到部署的全生命周期管理,并提供丰富的插件和应用体验。其底层依托于ModelArts Standard平台,涵盖模型开发、数据工程、训练和推理等核心功能,确保高效灵活的AI开发流程。通过统一资源调度和AI专属资源池,ModelArts Studio实现了资源的按需使用和快速扩展,助力企业轻松应对复杂多变的业务需求。
二、n8n介绍
2.1 n8n 简介
n8n
是一个开源的工作流自动化平台,具备原生 AI 能力,支持通过可视化界面与代码结合的方式构建自动化流程。无论是开发者还是业务人员,都可以灵活使用其强大的节点系统实现任务编排、数据处理和集成联动,适用于从个人项目到企业级应用的各类场景。
2.2 n8n核心特点
- 按需编码:支持 JavaScript/Python 编写自定义逻辑,可灵活添加 npm 包扩展功能。
- 原生AI平台:基于 LangChain 构建 AI 代理工作流,轻松集成自有模型与私有数据。
- 完全控制:提供公平代码许可(Fair Code License),支持自托管部署或使用云端服务。
- 企业就绪:内置高级权限管理、单点登录(SSO)支持,满足企业安全与合规需求。
- 活跃社区:拥有超过 400+ 官方及第三方集成节点,以及 900+ 可复用流程模板。
- 多部署方式:支持本地部署、Docker 容器化部署,也可无缝对接云平台。
三、本次实践介绍
3.1 本次实践介绍
- 本次实践基于个人测试环境,依托华为云 Flexus X 实例与 ModelArts Studio 平台开展;
- 实践内容为将n8n平台接入 ModelArts Studio 提供的 DeepSeek 商用大模型服务,并完成n8n的部署与配置。
3.2 环境规划
云厂商 | 服务器 | 云服务 | 部署项目 | IP地址 | 操作系统版本 | 内核版本 | Docker版本 | 大模型 | 备注 |
---|---|---|---|---|---|---|---|---|---|
华为云 | 本地服务器 | MaaS平台提供的DeepSeek商用服务 | n8n | 192.168.3.88 | Ubuntu 22.04.1 LTS | 5.15.0-142-generic | 28.1.1 | 华为云DeepSeek-V3-32K等 | —— |
四、环境准备工作
4.1 检查系统版本
本次实践在本地测试服务器进行,使用操作系统版本22.04.1 LTS,需要提前安装Docker环境。建议使用华为云Flexus X实例,环境部署更加方便快捷。
root@jeven01:~# cat /etc/os-release
PRETTY_NAME="Ubuntu 22.04.1 LTS"
NAME="Ubuntu"
VERSION_ID="22.04"
VERSION="22.04.1 LTS (Jammy Jellyfish)"
VERSION_CODENAME=jammy
ID=ubuntu
ID_LIKE=debian
HOME_URL="https://www.ubuntu.com/"
SUPPORT_URL="https://help.ubuntu.com/"
BUG_REPORT_URL="https://bugs.launchpad.net/ubuntu/"
PRIVACY_POLICY_URL="https://www.ubuntu.com/legal/terms-and-policies/privacy-policy"
UBUNTU_CODENAME=jammy
4.2 检查Docker环境
检查Docker版本,当前安装版本为
28.1.1
。
root@jeven01:~# docker -v
Docker version 28.1.1, build 4eba377
检查Docker Compose版本,当前安装版本为:
v2.35.1
。
root@jeven01:~# docker compose version
Docker Compose version v2.35.1
4.3 安装基础软件包
如果是初始环境,可以安装以下基础软件
apt install -y build-essential cmake curl wget gnupg unzip vim git net-tools iputils-ping software-properties-common
五、开通DeepSeek商用服务
5.1 进入ModelArts Studio控制台
ModelArts Studio
是华为云提供的一个大模型即服务平台(MaaS服务),旨在简化模型开发流程,支持定制化大模型的开发,并使这些模型能够无缝集成到业务系统中。通过降低企业AI应用的成本和难度,ModelArts Studio助力企业快速实现AI技术落地。我们登录华为云官网后,进入ModelArts Studio
大模型即服务平台的介绍页。官网地址:https://www.huaweicloud.com/product/modelarts/studio.html。点击“ModelArts Studio控制台”,即可进入maas服务控制台内。
5.2 开通商业服务
访问 ModelArts Studio 大模型即服务平台后,ModelArts Studio 控制台,登录后进入 模型推理 页面,选择 在线推理 > 预置服务 > 商用服务,在模型列表中找到 DeepSeek-R1-32K,点击“开通服务”以启用该模型,具体操作如下所示:
同样的方法,我们可以开通DeepSeek-V3-32K和DeepSeek-R1-32K-0528商用服务,如下所示已正常开通。
5.3 复制OpenAI SDK信息
您可以选择某个已开通的商用服务(例如 DeepSeek-V3-32K),点击其右侧的 “调用说明” 选项,即可查看与该模型兼容的 OpenAI SDK 调用信息。请在此页面复制所需的 模型名称 和 API 地址,并保存至本地,以便后续配置和使用。
5.4 创建API key
我们在ModelArts Studio控制台左侧菜单栏中,单击“API Key管理”,开始创建API key。
填写API key的标签和描述,填写完毕后,确认创建。
复制我们刚才生成的密钥,如下所示:
可以在本地建一个临时文本文件,将以上关键信息保存下来。
六、部署n8n系统
6.1 拉取n8n容器镜像
执行以下命令,拉取的n8n容器镜像名称为
docker.n8n.io/n8nio/n8n
。
docker pull docker.n8n.io/n8nio/n8n
如果拉取失败或者拉取缓慢,可以使用以下命令
swr.cn-north-4.myhuaweicloud.com/jeven/n8n
。
docker pull swr.cn-north-4.myhuaweicloud.com/jeven/n8n
6.2 创建n8n容器
如果使用docker命令行方式创建
n8n
容器,可参考以下示例命令:
docker run -d --name n8n --restart always -p 5678:5678 -v n8n_data:/home/node/.n8n swr.cn-north-4.myhuaweicloud.com/jeven/n8n:latest
本次实践基于 Docker Compose 方式进行容器创建与配置,推荐使用该方式以提升部署效率并统一服务管理。
vim docker-compose.yaml
version: '3.9'
services:
jeven:
image: 'swr.cn-north-4.myhuaweicloud.com/jeven/n8n:latest'
volumes:
- 'n8n_data:/home/node/.n8n'
ports:
- '5678:5678'
restart: always
container_name: n8n
volumes:
n8n_data:
执行以下命令,创建n8n容器,如下所示:
docker compose up -d
6.3 检查n8n容器状态
执行以下命令,查看n8n容器的运行状态,确保其已正常启动:
root@jeven01:/data/n8n# docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
5f958dcf4698 swr.cn-north-4.myhuaweicloud.com/jeven/n8n:latest "tini -- /docker-ent…" 18 minutes ago Up 18 minutes 0.0.0.0:5678->5678/tcp, [::]:5678->5678/tcp n8n
6.4 检查容器日志
检查n8n容器日志,可以看到n8n服务正常运行。
docker compose logs
七、配置https访问
7.1 配置说明
为确保安全访问,n8n 需要通过 HTTPS 协议进行访问。请按照以下步骤配置 HTTPS 证书及相关参数,以启用加密连接并避免访问报错。
7.2 安装Nginx软件
执行以下命令,更新软件源并安装Nginx软件。
apt update
apt install nginx -y
7.3 配置SSL证书
执行以下命令,创建证书存放目录。
mkdir -p /etc/nginx/ssl
为了使用HTTPS,我们需要一个SSL证书。由于当前为测试环境,我们可以使用自签名证书。要生成自签名证书,可使用执行以下操作。
openssl req -x509 -nodes -days 365 -newkey rsa:2048 -keyout /etc/nginx/ssl/nginx-selfsigned.key -out /etc/nginx/ssl/nginx-selfsigned.crt
7.4 配置Nginx服务
编辑或创建一个新的Nginx配置文件(例如
/etc/nginx/sites-available/reverse-proxy
),如下所示:
vim /etc/nginx/sites-available/reverse-proxy
请根据实际环境配置反向代理文件。示例中
server_name
请替换为您的服务器内网 IP 地址,反向代理监听端口为9700
,后端服务地址为http://127.0.0.1:5678
。配置完成后重启 Nginx 或相应代理服务以生效。
server {
listen 9700 ssl;
server_name 192.168.3.88;
ssl_certificate /etc/nginx/ssl/nginx-selfsigned.crt;
ssl_certificate_key /etc/nginx/ssl/nginx-selfsigned.key;
location / {
# auth_basic "Restricted Content";
# auth_basic_user_file /etc/nginx/.htpasswd;
proxy_pass http://127.0.0.1:5678;
proxy_set_header Host 192.168.3.88; # 固定 Host,不要用 $host
proxy_set_header Origin https://192.168.3.88; # 固定 Origin,不能带端口
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Real-IP $remote_addr;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
}
}
- 启用该配置文件:
ln -s /etc/nginx/sites-available/reverse-proxy /etc/nginx/sites-enabled/
- 检查Nginx配置是否正确:
root@jeven01:/data/n8n# nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
7.5 启动Nginx服务
启动Nginx服务,并设置开机自启。
systemctl enable nginx
systemctl restart nginx
为了检查Nginx服务运行正常,使用以下命令进行检查确认。
systemctl status nginx
八、访问n8n自动化工作流平台
8.1 访问n8n初始页
浏览器访问https://<服务器IP地址>:9700,将IP替换为自己服务器IP地址,访问n8n的初始登录页。如果无法访问到该页面,需要检查操作系统的防火墙是否关闭或放行相关服务端口。
8.2 注册账号
在n8n注册页,自定义填写账号信息,完成账号注册流程。
由于是测试环境,这里直接跳过验证。如果想要免费获得付费功能,可以按照提示使用邮箱验证进行注册激活。
九、n8n的配置和基本使用
9.1 配置基本聊天工作流
点击 n8n 左侧菜单中的“+”按钮,选择“Workflow”选项,进入工作流管理页面。
在工作流画布上,节点添加界面的搜索框中输入“chat”,选择“消息触发器”节点,然后将其拖拽至工作区画布中。
同样方法,将AI Agent节点拖拽到画布中,如下所示:
将Chat Trigger节点和AI Agent连接起来,如下所示:
添加模型节点,将OpenAI Chat Model节点拖拽到画布中,并且连接到AI Agent节点,如下所示:
9.2 OpenAI Chat Model节点配置
此时一个基础的聊天工作流配置完成,我们需要配置OpenAI Chat Model节点,添加AI模型。双击OpenAI Chat Model节点,进入其配置页,选择创建凭据。
OpenAI 凭据配置,可参考如下配置:
- API Key: 华为云创建的maas的API key填写即可 ;
- Organization ID (optional):DeepSeek-V3
- Base URL:https://api.modelarts-maas.com/v1
- 填写完毕后,点击“save”保存。
回到OpenAI Chat Model节点配置页面,在模型列表选择【DeepSeek-V3】。
9.3 对话测试
回到聊天工作流界面,在对话框中输入问题后,可以看到 AI Agent 成功回应了提问,表明整个工作流配置已成功运行。n8n 凭借其强大的自动化能力和灵活的扩展性,为各类业务场景带来无限可能。结合华为云 ModelArts Studio 提供的 DeepSeek 大模型,进一步释放了智能化流程的潜力,开启 AI 自动化应用的新篇章。
十、实践体验与总结
在本次基于 华为云 ModelArts Studio 搭建 n8n 自动化工作流平台 的实践中,整体流程顺畅高效,充分体现了华为云平台的强大能力与易用性。通过 ModelArts Studio 提供的一站式 AI 开发环境,我们快速完成了从镜像部署到服务配置的全过程,极大地降低了搭建门槛,提升了开发效率。特别是在集成 DeepSeek 商用大模型后,n8n 展现出强大的自动化流程处理能力,为智能化业务流程提供了坚实支撑。
华为云 ModelArts Studio 凭借其高可用架构、灵活资源配置和完善的生态支持,成为我们实现 AI 工作流自动化的理想选择。无论是企业级用户还是开发者,都能从中获得稳定、安全、高效的云上 AI 开发体验。此次实践不仅验证了 n8n 在自动化流程中的灵活性与扩展性,也进一步彰显了华为云在 AI 领域的技术领先性和服务优势。
📢 选择华为云 ModelArts Studio,让 AI 工作流自动化更简单、更强大!