标签:parent gre 丢失 django stat 还需 实现 task 文件名
Celery是一个“自带电池”的任务队列。易于使用,可以轻易入门,它遵照最佳实践设计,使产品可以扩展,或与其他语言集成,并且它自带了在生产环境中运行这样一个系统所需的工具和支持。本文介绍基础部分:
Celery需要一个发送和接收消息的解决方案,其通常以独立服务形式出现,称为消息中间人。
可行的选择包括:
RabbitMQ
RabbitMQ功能完备、稳定、耐用,并且安装简便,是生产环境的绝佳选择。
Redis
Redis也是功能完备的,但更容易受濡染终端或断电地阿莱数据丢失的影响。
使用数据库
不推荐把数据库用于消息队列,但对于很小的项目可能是合适的。
其他中间人
还有其他实验性传输实现:AmazonSQS、MongoDB和IronMQ。
Celery提交到Python Package Index上,可以使用Python标准工具pip进行安装:
$ pip install celery
首先需要一个Celery实例:这个实例用于你想在celery中做一切事,它必须可以被其他模块导入。
我们简单的放在一个模块中,对于比较大的项目,可以创建一个独立模块。
创建tasks.py:
from celery import Celery
app = Celery(‘tasks‘, broker=‘redis://127.0.0.1:6379/3‘)
@app.task
def add(x, y):
return x + y
创建APP的时候,Celery方法的第一个参数是我们当前py文件的名字。broker是我们选择的中间人。上面的代码使用的是redis。
接下来我们可以先运行我们的工作任务。
$ celery -A tasks worker --loglevel=info
使用celery命令,第二个参数‘tasks‘还是我们的py文件名字,后面是指定日志级别。这条命令必须能找到我们的tasks文件才能运行起来。
接下来调用我们的任务:
>>> from tasks import add >>> add.delay(1, 3) <AsyncResult: 7217dee2-3869-4f5e-8ccc-3a3b3dd6a9d7> # 这里返回的是任务ID,而不是结果。
这样我们就实现了一个最简单的celery应用。
其他更多的参数命令,你可以通过下面的方式了解:
$ celery worker --help $ celery help
关于调用我们的任务方式:
# delay()这个方法使用起来更方便一些,它能像调用普通函数一样调用我们的任务
task.delay(arg1, arg2, kwarg1=‘x‘, kwarg2=‘y‘)
# 使用apply_async你还需要将参数进行整合
task.apply_async(args=[arg1, arg2], kwargs={‘kwarg1‘: ‘x‘, ‘kwarg2‘: ‘y‘})
接下来说一下,在我们的应用中如何使用celery
项目布局:
proj/__init__.py
/celery.py
/tasks.py
项目中的celery.py
celery.py
from __future__ import absolute_import
from celery import Celery
app = Celery(‘mysite‘, # 项目名称
broker=‘redis://127.0.0.1:6379/3‘, # 制定我们用的中间人
backend=‘redis://127.0.0.1:6379/5‘, # 定义回调中间人
include=[‘proj.tasks‘],)
app.conf.update(
result_expires=3600 # 设置过期时间
)
if __name__ == ‘__main__‘:
app.start()
task.py
from __future__ import absolute_import
from .celery import app
import time
@app.task(bind=True) # 指定bind=True,当前task函数第一个参数为task本身。
def add(self, x, y):
time.sleep(1)
self.update_state(state="PROGRESS", meta={‘progress‘: 50})
# task使用update_state修改当前状态可以触发on_message回调函数
time.sleep(3)
self.update_state(state="PROGRESS", meta={‘progress‘: 90})
time.sleep(1)
print(self.request.chain)
print(123456)
self.request.chain = None # 当使用chain同时调用多个task函数的时候,如果中间需要停止,可以使用self.request.chain = None
self.update_state(state="PROGRESS", meta={‘result‘: x + y})
return x + y
@app.task(bind=True)
def mul(self, x, y):
return x * y
@app.task
def div(x, y):
return x / y
mysite/views.py
from celery import chain
from django.shortcuts import render, HttpResponse
from celery_work.tasks import add
from celery_work.tasks import mul
from celery_work.tasks import div
from celery_work.tasks import error_handler
# from celery_work.tasks import error_handler
def test(request):
def on_raw_message(body):
print(body)
res = add.apply_async((1, 2))
print(res.get(on_message=on_raw_message, propagate=False))
# 注意这里使用了res.get(),所以并不是异步返回的,而是等拿到结果之后返回的
return HttpResponse(‘ok‘)
# 异步方式处理函数,在add这个task函数中是有睡眠时间的,但是我们在发布任务之后就立即将任务ID返回给客户端了
def test0(request):
res = add.apply_async((1, 2))
return HttpResponse(‘async: %s‘ % res)
# 没有中断的chain任务
def test1(request):
res = (mul.s(1, 2) | mul.s(3) | mul.s(3))()
# 另一种写法 chain(mul.s(1, 2), mul.s(3), mul.s(3))()
return HttpResponse(res.get())
# 有中断的chain任务,这里需要注意一下,我们在add这个函数中将chain终止了,res永远无法get到返回值
# 因为res是要取chain任务最后一个task函数的返回值,这样就要使用parent从最后一个task函数往前找,
# 直到找到终止chain任务的那个task函数,进行get
def test2(request):
res = (add.s(1, 2) | mul.s(3) | mul.s(3))()
print(res.parent.parent.get())
print(res.parent.parent.successful())
return HttpResponse(‘mul‘)
标签:parent gre 丢失 django stat 还需 实现 task 文件名
原文地址:http://www.cnblogs.com/sxzwj/p/6568960.html