一、依赖环境
1、python解释器版本:python3.7.5
2、稳定依赖包
# Celery 核心
celery==5.2.7
kombu==5.2.4
billiard==3.6.4.0
vine==5.0.0
# Redis broker backend
redis==4.3.6
# eventlet (如果用 -P eventlet)【windows系统可以使用】
eventlet==0.33.3
greenlet==1.1.3
# 避免 importlib_metadata API 冲突
importlib_metadata<5
# Django相关
Django==3.2.25
django-celery-beat==2.3.0
django-celery-results==2.4.0
# 数据库客户端
PyMySQL==1.1.1
# 日志包
concurrent-log-handler==0.9.28
# 数据库连接池包
django-db-connection-pool==1.0.7
# 启动django项目
uwsgi==2.0.22
二、项目结构
- simple_system
- settings.py # django 配置文件
- celery_app
- config
- config.py # 主要配置
- logger_config.py # 日志配置
- scheduler_config.py # 定时任务配置
- runs
- celery_beat.service # 使用systemctl启动定时进程
- celery_worker.service # 使用systemctl启动异步进程
- tasks
- task_async.py # 存放异步任务
- task_scheduler.py # 存放定时任务
- celery.py # celery 项目启动入口
- config
gitee上项目源码
https://gitee.com/liuhaizhang/simple_systemhttps://gitee.com/liuhaizhang/simple_system
三、django相关配置
settings.py
# 使用pymysql代替mysqlclient
import pymysql
pymysql.install_as_MySQLdb()
# 禁用debug模式
DEBUG = False
ALLOWED_HOSTS = ["*"]
# mysql配置连接池
DATABASES = {
"default": {
"ENGINE": "dj_db_conn_pool.backends.mysql",
"NAME": 'simple_system',
"USER": 'root',
"PASSWORD": 'gs-root',
"HOST": '127.0.0.1',
"PORT": 3306,
"ATOMIC_REQUESTS": True,
"CHARSET": "utf8",
"COLLATION": "utf8_bin",
# django-db-connection-pool 配置参数
"POOL_OPTIONS": {
"POOL_SIZE": 10, # 基础连接量
"MAX_OVERFLOW": 15, # 最大允许溢出
"RECYCLE": 1 * 60 * 60, # 闲置的连接回收时间
"TIMEOUT": 30, # 获取连接超时时间
"PRE_PING": True, # 启用连接前检查(关键配置)
},
}
}
# 时间本地化
LANGUAGE_CODE = "zh-hans" # 改为简体中文(可选)
TIME_ZONE = "Asia/Shanghai" # 关键修改:设置为上海时区(北京时间)
USE_I18N = True # 禁用国际化,不然时间就是utc时间
USE_TZ = False # 设置True的化,存到数据库的时间都是utc时间,False就是存本地时间
# Redis broker,密码是gs-Admin1,去掉 :gs-Admin1@ 就是没有配置密码
REDIS_BROKER_URL = 'redis://:gs-Admin1@127.0.0.1:6379/0'
REDIS_RESULT_BACKEND = 'redis://:gs-Admin1@127.0.0.1:6379/1'
四、celery配置
4.1、配置文件
celery_app/config/config.py
# 导入 Django 的环境
import os
import django
import sys
# 导入django项目的根目录,可以随意导入模块
django_root_path = os.path.dirname(os.path.dirname(os.path.realpath(__file__)))
sys.path.insert(0, django_root_path)
# django配置文件
os.environ.setdefault("DJANGO_SETTINGS_MODULE", "simple_system.settings")
# 导入django环境,异步/定时任务中,就可以随意调用django中的orm,cache等服务了
django.setup()
from django.conf import settings
from celery_app.config.scheduler_config import beat_schedule
# 显示指明异步/定时任务所在的py文件路径
tasks_module = ["celery_app.tasks.task_scheduler", "celery_app.tasks.task_async"]
# celery的配置
config_dict = {
"broker_url": settings.REDIS_BROKER_URL, # 'redis://:123456@127.0.0.1:6379/1' 有密码时,123456是密码
"result_backend": settings.REDIS_RESULT_BACKEND,
"task_serializer": "json",
"result_serializer": "json",
"accept_content": ["json"],
"timezone": "Asia/Shanghai",
"enable_utc": False,
"result_expires": 1 * 60 * 60,
"beat_schedule": beat_schedule,
}
"""
参数解析:
accept_content:允许的内容类型/序列化程序的白名单,如果收到不在此列表中的消息,则该消息将被丢弃并出现错误,默认只为json;
task_serializer:标识要使用的默认序列化方法的字符串,默认值为json;
result_serializer:结果序列化格式,默认值为json;
timezone:配置Celery以使用自定义时区;
enable_utc:启用消息中的日期和时间,将转换为使用 UTC 时区,与timezone连用,当设置为 false 时,将使用系统本地时区。
result_expires: 异步任务结果存活时长
beat_schedule:设置定时任务
"""
celery_app/config/config_logger.py
import os
from pathlib import Path
import logging
from logging.handlers import RotatingFileHandler
# 项目根目录的绝对路径
BASE_DIR = Path(__file__).resolve().parent.parent.parent
# celery日志的绝对路径
LOGS_PATH = os.path.join(BASE_DIR, "logs")
if not os.path.exists(LOGS_PATH):
os.makedirs(LOGS_PATH)
# 日志配置(集成ConcurrentRotatingFileHandler)
LOGGING_CONFIG = {
"version": 1,
"disable_existing_loggers": False,
"formatters": {
"verbose": {
"format": "[{asctime}][{levelname}][{filename}:{module}:{lineno:d}:{funcName}]:{message}",
"datefmt": "%Y-%m-%d %H:%M:%S",
"style": "{",
},
},
"handlers": {
# 使用第三方的ConcurrentRotatingFileHandler
"concurrent_file": {
"level": "INFO",
# 第三方处理器的类路径(固定写法)
"class": "concurrent_log_handler.ConcurrentRotatingFileHandler",
# 日志文件路径
"filename": os.path.join(LOGS_PATH, "celery.log"),
# 单个文件最大大小(5MB)
"maxBytes": 10 * 1024 * 1024,
# 保留备份文件数量
"backupCount": 15,
# 编码格式
"encoding": "utf-8",
# 日志格式
"formatter": "verbose",
# 可选:多进程安全的额外参数(如锁定超时) 版本≥ 0.9.19才能使用(linux/unix系统才能使用)
# "lockTimeout": 5, # 等待日志锁的超时时间(秒)
},
},
"loggers": {
# Celery相关日志会使用上述处理器
"celery.worker": {
"handlers": ["concurrent_file"],
"level": "INFO",
"propagate": True,
},
# 任务模块的日志也会被捕获
"celery_app.tasks": {
"handlers": ["concurrent_file"],
"level": "INFO",
"propagate": False, # 避免重复日志
},
},
}
celery_app/config/config_scheduler.py
from celery.schedules import crontab
from datetime import timedelta
# 定时任务
beat_schedule = { # 定时任务配置
# 名字随意命名
"add-func-3-seconds": {
# 执行add_task下的addy函数
"task": "celery_app.tasks.task_scheduler.add_func", # 任务函数的导入路径
# 每3秒执行一次
"schedule": timedelta(minutes=30),
# add函数传递的参数
"args": (10, 21),
},
# 名字随意起
"add-func-5-minutes": {
"task": "celery_app.tasks.task_scheduler.add_func", # 任务函数的导入路径
# crontab不传的参数默认就是每的意思,比如这里是每年每月每日每天每小时的5分执行该任务
"schedule": crontab(
minute="5"
), # 之前时间点执行,每小时的第5分钟执行任务, 改成小时,分钟,秒 就是每天的哪个小时哪分钟哪秒钟执行
"args": (19, 22), # 定时任务需要的参数
},
# 查询orm表
"task-ope_model-3-seconds":{
# 执行add_task下的addy函数
"task": "celery_app.tasks.task_scheduler.ope_model", # 任务函数的导入路径
# 每3秒执行一次
"schedule": timedelta(minutes=30),
},
"task-rename_uwsgi_backup_log":{
# 执行add_task下的addy函数
"task": "celery_app.tasks.task_scheduler.rename_uwsgi_backup_log", # 任务函数的导入路径
# 每天凌晨零点执行一次
"schedule": crontab(hour=0,minute=0),
}
}
4.2、systemctl文件
celery_app/runs/celery_beat.service
[Unit]
Description=Celery Beat Service
[Service]
# 运行用户(替换为你的用户名和组)
User=root
Group=root
# 项目根目录ls,看到celery_app包
WorkingDirectory=/home/lhz/simple_system
# 启动命令(使用虚拟环境中 celery 的绝对路径)
ExecStart=/home/lhz/venv/simple_system/bin/celery -A celery_app.celery beat -l info
# 进程退出后自动重启
Restart=always
RestartSec=5
# 环境变量(确保虚拟环境和项目依赖正常加载)
Environment="PATH=/home/lhz/venv/simple_system/bin"
Environment="PYTHONPATH=/home/lhz/simple_system" # 确保项目能被导入
[Install]
WantedBy=multi-user.target
celery_app/runs/celery_worker.service
[Unit]
Description=Celery Worker Service
[Service]
# 运行用户和组
User=root
Group=root
# 项目根目录,里面能看到 celery_app 包
WorkingDirectory=/home/lhz/simple_system
# 启动命令(使用虚拟环境中的 celery)
ExecStart=/home/lhz/venv/simple_system/bin/celery -A celery_app.celery worker --loglevel=INFO
# 进程退出后自动重启
Restart=always
RestartSec=5
# 环境变量(确保虚拟环境和项目依赖正常加载)
Environment="PATH=/home/lhz/venv/simple_system/bin"
Environment="PYTHONPATH=/home/lhz/simple_system"
[Install]
WantedBy=multi-user.target
4.3、任务模块
celery/tasks/task_async.py
from celery import shared_task
from celery_app.celery import logger
@shared_task(bind=True)
def push_template_message(self):
for i in range(10):
logger.info(f"定时任务开始执行(任务ID:{self.request.id}),i={i}")
celery/tasks/task_scheduler.py
import os.path
from celery import shared_task
from home.models import UserModel
from celery_app.celery import logger
from celery_app.config.logger_config import LOGS_PATH
from datetime import datetime
@shared_task(bind=True)
def add_func(self,a,b):
for i in range(10):
logger.info(f"定时任务开始执行(任务ID:{self.request.id}),a+b+i={a+b+i}")
@shared_task(bind=True)
def ope_model(self):
objs = UserModel.objects.all()
for obj in objs:
logger.info(f"异步任务开始执行(任务ID:{self.request.id}),{obj.account}")
@shared_task(bind=True)
def rename_uwsgi_backup_log(self):
# 将 根目录/logs中uwsgi.log.172384中的时间戳转成日期
name_list = os.listdir(LOGS_PATH)
name_pref = 'uwsgi.log.'
task_id = f"任务ID={self.request.id}"
for name in name_list:
if name.startswith(name_pref):
_,time_str = name.rsplit('.',1)
try:
time_int = int(time_str)
date_str = datetime.fromtimestamp(int(time_int)).strftime("%Y-%m-%d_%H-%M-%S")
new_name = f'{name_pref}{date_str}'
old_path = os.path.join(LOGS_PATH,name)
new_path = os.path.join(LOGS_PATH,new_name)
if not os.path.exists(new_path):
os.rename(old_path,new_path)
logger.info(f'{task_id},{name} 重命名成{new_name}')
else:
for i in range(10):
new_name += f'-{i+1}'
new_path = os.path.join(LOGS_PATH,new_name)
if not os.path.exists(new_path):
os.rename(old_path, new_path)
logger.info(f'{task_id},{name} 重命名成{new_name}')
break
else:
logger.info(f"{task_id},{name}进行10次重命名都失败了")
except Exception as e:
logger.error(f"{task_id},{name}重命名失败")
4.4、celery主模块
celery_app/celery.py
from datetime import datetime
import logging.config
from celery import Celery
from celery_app.config.config import config_dict,tasks_module
from celery_app.config.logger_config import LOGGING_CONFIG
# 实例化celery对象,传递一个名字
celery_app = Celery("celery_app")
# 显式指定 任务函数所在的模块
celery_app.autodiscover_tasks(tasks_module)
# 通过dictConfig加载日志配置
logging.config.dictConfig(LOGGING_CONFIG)
# 导入配置消息
celery_app.conf.update(**config_dict)
# 日志记录器,给任务使用
logger = logging.getLogger("celery_app.tasks")
五、测试使用
5.1、基本准备
1、安装好mysql、redis等
2、给user表创建3条记录
get请求:/home/user/
3、在视图中调用异步任务
get请求:/home/test/
5.2、启动命令
异步任务启动
1、windows系统 (在django项目根目录下执行)
celery -A celery_app.celery worker --loglevel=info -P eventlet
2、linux系统(在django项目根目录下执行)
celery -A celery_app.celery worker --loglevel=info
启动成功:
定时任务启动
windows/linux系统(在项目根目录下执行)
celery -A celery_app.celery beat -l info
启动成功:
推送了定时任务:
六、迁移到自己项目
只需要将celery_app整个包都迁移即可
1、修改celery_app/config.py
# simple_system 改成 自己的项目名
os.environ.setdefault("DJANGO_SETTINGS_MODULE", "simple_system.settings")
2、修改自己项目的settings.py
# Redis broker,密码是gs-Admin1,去掉 :gs-Admin1@ 就是没有配置密码
REDIS_BROKER_URL = 'redis://:gs-Admin1@127.0.0.1:6379/0'
REDIS_RESULT_BACKEND = 'redis://:gs-Admin1@127.0.0.1:6379/1'
3、celery_app/tasks/task_scheduler.py
# 如果没有UserModel ,就不引入和删除此方法
@shared_task(bind=True)
def ope_model(self):
objs = UserModel.objects.all()
for obj in objs:
logger.info(f"异步任务开始执行(任务ID:{self.request.id}),{obj.account}")
4、celery_app/runs 中两个配置,根据实际情况修改