标签:sla admin 传递 kerberos erb base dem you filter
现在是9102年,8月中旬。airflow当前版本是1.10.4.
随着公司调度任务增大,原有的,基于crontab和mysql的任务调度方案已经不太合适了,需要寻找一个可以支持分布式扩容的调度系统解决方案。
最初瞄准azkaban来着,想着基于这个的二次开发。对比功能和社区热度之后,Airflow比较符合我们寻找的调度系统。
Airflow是一个以编程方式创作,安排和监控工作流程的平台。对比crontab来看,它是一个可以定时调度任务的系统,只不过,airflow的调度更容易管理。
Airflow 于 2014 年 10 月由 Airbnb 的 Maxime Beauchemin 开始。它是第一次提交的开源,并在 2015 年 6 月宣布正式加入 Airbnb Github。
该项目于 2016 年 3 月加入了 Apache Software Foundation 的孵化计划。
关于airflow具体使用细节,后面再详细介绍,这里就是一些在调度系统选型过程中查找的资料。
阿里基于airflow二次开发了调度平台Maat:
有赞基于airflow二次开发了大数据任务调度平台:
Google cloud提供了基于airflow的数据分析产品:
微软Azure支持airflow的运行:
当然,这些云厂商很可能是为了让你使用他们的数据产品,比如对象存储,lambda等。
社区异常活跃,star破万,更新频繁, Apache背书。据说作者早期在Facebook搞过一套调度系统,到airbnb就开源了airflow。大公司背书。
slack群组也很活跃
虽然是Python开发的,我也没玩过Python web, 但调研结果就是: 用Airflow吧。
官方文档有非常详细的安装教程。这里不再赘述。
想要记录的是基于docker安装airflow,以及做了一些特定的修改。
最终docker镜像为: https://github.com/Ryan-Miao/docker-airflow
使用方式很简单:
make build
docker-compose -f docker-compose-CeleryExecutor.yml up -d
扩容3个worker
docker-compose -f docker-compose-CeleryExecutor.yml scale worker=3
Docker容器的时区
ENV LANGUAGE zh_CN.UTF-8
ENV LANG zh_CN.UTF-8
ENV LC_ALL zh_CN.UTF-8
ENV LC_CTYPE zh_CN.UTF-8
ENV LC_MESSAGES zh_CN.UTF-8
sed -i 's/^# zh_CN.UTF-8 UTF-8$/zh_CN.UTF-8 UTF-8/g' /etc/locale.gen && locale-gen
/bin/cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime && echo 'Asia/Shanghai' >/etc/timezone
web server ui显示的时区,以及任务运行时的ds等时区:
参考https://blog.csdn.net/Crazy__Hope/article/details/83688986,
airflow.cfg
default_timezone = Asia/Shanghai
/usr/local/lib/python3.7/site-packages/airflow/utils/timezone.py
在 utc = pendulum.timezone(‘UTC’) 这行(第27行)代码下添加,
from airflow import configuration as conf
try:
tz = conf.get("core", "default_timezone")
if tz == "system":
utc = pendulum.local_timezone()
else:
utc = pendulum.timezone(tz)
except Exception:
pass
修改utcnow()函数 (在第69行)
原代码 d = dt.datetime.utcnow()
修改为 d = dt.datetime.now()
/usr/local/lib/python3.7/site-packages/airflow/utils/sqlalchemy.py
在utc = pendulum.timezone(‘UTC’) 这行(第37行)代码下添加
from airflow import configuration as conf
try:
tz = conf.get("core", "default_timezone")
if tz == "system":
utc = pendulum.local_timezone()
else:
utc = pendulum.timezone(tz)
except Exception:
pass
/usr/local/lib/python3.7/site-packages/airflow/www/templates/admin/master.html
把代码 var UTCseconds = (x.getTime() + x.getTimezoneOffset()*60*1000);
改为 var UTCseconds = x.getTime();
把代码 "timeFormat":"H:i:s %UTC%",
改为 "timeFormat":"H:i:s",
容器编码设置没问题,进去看日志文件也没问题,但是webserver查看的时候日志中文乱码。原因是http请求的mime
没设置编码。
/usr/local/lib/python3.7/site-packages/airflow/bin/cli.py
修改mime
mimetype="application/json;charset=utf-8",
airflow支持beeline, 在connection里填写beeline的配置后,使用HiveOperator进行hive操作。我们的hive
没有使用kerberos, 而是ldap的账号密码认证。需要对后台的hvie任务做认证的修改。
修改hive_hooks.py的认证部分即可。Dockerfile注释掉的部分就是。
github的airflow docker没有hive相关的lib。我在Dockerfile里添加了hive的环境,这个后面再做优化,针对
不同的pool,安装不同的依赖。
参见https://www.cnblogs.com/woshimrf/p/ldap.html 配置我们的ldap服务。
然后修改airflow.cfg. 找到263行
authenticate = False
# 设置为True并打开ldap即可使用ldap配置
# auth_backend = airflow.contrib.auth.backends.ldap_auth
以及518行
[ldap]
# set this to ldaps://<your.ldap.server>:<port>
uri = ldap://192.168.2.2:389
user_filter = objectClass=inetOrgPerson
user_name_attr = sn
group_member_attr = memberOf
superuser_filter = memberOf=cn=g-admin,ou=group,dc=demo,dc=com
data_profiler_filter = memberOf=cn=g-users,ou=group,dc=demo,dc=com
bind_user = cn=admin,dc=demo,dc=com
bind_password = admin
basedn = dc=demo,dc=com
cacert =
search_scope = SUBTREE
调度系统Airflow1.10.4调研与介绍和docker安装
标签:sla admin 传递 kerberos erb base dem you filter
原文地址:https://www.cnblogs.com/woshimrf/p/airflow-install-with-docker.html