码迷,mamicode.com
首页 > 其他好文 > 详细

flink系列-11、PyFlink 核心功能介绍(整理自 Flink 中文社区)

时间:2020-05-18 00:29:25      阅读:398      评论:0      收藏:0      [点我收藏+]

标签:记录   扩展   结果   tar   也会   初步   依赖   包含   cache   

视频地址

PyFlink 核心功能介绍

  • 文章概述:PyFlink 的核心功能原理介绍及相关 demo 演示。
  • 作者:程鹤群(军长)(Apache Flink Committer,阿里巴巴技术专家),是 Flink 社区的一名 PMC ,现在在阿里巴巴的实时计算团队。2015年加入阿里巴巴搜索事业部,从事主搜离线相关开发。2017年开始参与 Flink SQL 相关的开发,2019年开始深入参与 PyFlink 相关的开发。
  • 整理:谢县东
  • 校对:***

课程概要

今天的分享主要包含以下几个部分:

  1. PyFlink 的发展史。
  2. 介绍 PyFlink 的核心功能以及其背后的一些原理。
  3. PyFlink 的 demo 演示。
  4. PyFlink 社区扶持计划。

1.PyFlink 的发展史

技术图片

1.1、v1.8.x

  1. Flink 在1.8版本的时候就已经提供 Python API,只在Datase/Stream 上提供支持。
  2. 存在一些问题,比如:
    2.1 Table API 不支持 Python。
    2.2 两套各自独立实现的一个Python API。
    2.3 底层实现是JPython,JPython 无法支持 Python3.x。

1.2、v1.9.x

  1. 2019年8月发布。
  2. 支持 Python Table API。

1.3、v1.10.x

  1. 2020年2月发布。
  2. 提供了 Python、UDF 的支持。
  3. 提供 UDF 的依赖管理。

1.4、未来发展

  1. 提供 Pandas UDF的支持。
  2. 提供用户自定义的一些UDF Metrics。
  3. ML API。
  4. 在应用性方面,提供 SQL DDL 支持 Python UDF。

2.PyFlink 核心功能及原理介绍

1.Python Table API

技术图片
如上图所示,Table 接口主要包括一些 和 Table 相关的算子,这些算子可以分为两类:

  • 1.跟 sql 相关的算子。比如 select、filter、join、window 等;
  • 2.在 sql 的基础上扩展的一些算子。比如 drop_columns(..),可以用来提升 sql 的便利性,比如当有一个很大的表并且这时候想去删除某一列的时候,可以用 drop_columns 来删除某一列。

2.WordCount

技术图片

3.Table API 架构

技术图片

  • Python Table API 是建立在 Java Table API的基础上的。
  • 这两层 API 可以相互调用。
  • client 端的时候,会起一个 Python VM 和一个 Java VM 然后两个 VM 进行通信(一一对应)。
    技术图片

1.Python UDF 架构

技术图片

  • Remote 端的架构图大概可以分为两个部分,左边部分是 Java 的 Operator,右边是 Python Operator。
  • 大体流程:
    • 1.在 open 方法里进行 Java Operator 和 Python Operator 的初始化。
    • 2.数据处理。当 Java Operator 收到数据之后,先把数据放到一个input buffer 缓冲区中,达到一定的阈值后,才会 flash 到 Python 这边。Python 这边在处理完之后,也会先将数据放到一个结果的缓冲区中,当达到一定阈值,比如达到一定的记录的行数,或者是达到一定的时间的位置,才会把结果 flash 到这边。
    • 3.state 访问的链路。
    • 4.logging 访问的链路。
    • 5.metrics 汇报的链路。

2.Python UDF 的使用

1.Pyflink-1.9 版本中,Python API 中支持注册使用 java UDF,使用方法如下:

table_env.register_java_function("func1", "java.user.defined.function.class.name")

技术图片

2.Python UDF 的使用:

table_env.register_function("func1", python_udf)

技术图片

3.Python UDF 的定义方式

技术图片

4.依赖管理

  1. 依赖文件
table_env.add_python_file(file_path)
  1. 依赖存档(打包)文件
table_env.add_python_archive("py_env.zip", "myenv") 
# the files contained in the archive file can be accessed in UDF 
def my_udf(): 
       with open("myenv/py_env/data/data.txt") as f: 
  1. 依赖第三方项目
# commands executed in shell 
echo numpy==1.16.5 > requirements.txt 
pip download -d cached_dir -r requirements.txt --no-binary :all: 
# python code 
table_env.set_python_requirements("requirements.txt", "cached_dir")
  1. 指定Python Interpreter路径
table_env.get_config().set_python_executable("py_env.zip/py_env/bin/python")

1.Pandas UDF – 功能

技术图片

2.Pandas UDF - 性能

技术图片

3.User-defined Metrics

  1. Metric 注册
    技术图片
  2. Metric Scope
    技术图片
  3. Metric 类型
    • Counter
      技术图片
    • Gauge
      技术图片
    • Meter
      技术图片
    • Distribution (sum/count/min/max/mean)
      技术图片

3. PyFlink 的 demo 演示

核心功能 demo 的演示:
https://github.com/pyflink/playgrounds

4.PyFlink 社区扶持计划

  • 为什么要发起 PyFlink 社区扶持计划?
    用户逐渐变多、有经验用户少
  • 社区目标:并肩作战,营造双赢
  • 如何参与 PyFlink 计划?
    https://survey.aliyun.com/apps/zhiliao/B5JOoruzY
    初步审核符合条件后我们会在收到问卷的 10 个工作日内与您联系。
  • 扶持目标
    面向所有 PyFlink 社区公司客户
  • PyFlink 问题支持&共享
    技术图片

flink系列-11、PyFlink 核心功能介绍(整理自 Flink 中文社区)

标签:记录   扩展   结果   tar   也会   初步   依赖   包含   cache   

原文地址:https://www.cnblogs.com/xiexiandong/p/12878642.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!