Flink的DataSource三部曲之三:自定義

本文是《Flink的DataSource三部曲》的終篇,前面都是在學習Flink已有的數據源功能,但如果這些不能滿足需要,就要自定義數據源(例如從數據庫獲取數據),也就是今天實戰的內容,如下圖紅框所示:

Flink的DataSource三部曲之三:自定義

往期回顧

  1. 《 》;
  2. 《 》;

環境和版本

本次實戰的環境和版本如下:

  1. JDK:1.8.0_211
  2. Flink:1.9.2
  3. Maven:3.6.0
  4. 操作系統:macOS Catalina 10.15.3 (MacBook Pro 13-inch, 2018)
  5. IDEA:2018.3.5 (Ultimate Edition)

在服務器上搭建Flink服務

  • 前面兩章的程序都是在IDEA上運行的,本章需要通過Flink的web ui觀察運行結果,因此要單獨部署Flink服務,我這裡是在CentOS環境通過docker-compose部署的,以下是docker-compose.yml的內容,用於參考:
<code>version: "2.1"
services:
jobmanager:
image: flink:1.9.2-scala_2.12
expose:
- "6123"
ports:

- "8081:8081"
command: jobmanager
environment:
- JOB_MANAGER_RPC_ADDRESS=jobmanager
taskmanager1:
image: flink:1.9.2-scala_2.12
expose:
- "6121"
- "6122"
depends_on:
- jobmanager
command: taskmanager
links:
- "jobmanager:jobmanager"
environment:
- JOB_MANAGER_RPC_ADDRESS=jobmanager
taskmanager2:
image: flink:1.9.2-scala_2.12
expose:
- "6121"
- "6122"
depends_on:
- jobmanager
command: taskmanager
links:
- "jobmanager:jobmanager"
environment:
- JOB_MANAGER_RPC_ADDRESS=jobmanager/<code>
  • 下圖是我的Flink情況,有兩個Task Maganer,共八個Slot全部可用:
Flink的DataSource三部曲之三:自定義

源碼下載

  • 如果您不想寫代碼,整個系列的源碼可在GitHub下載到,地址和鏈接信息如下表所示:
Flink的DataSource三部曲之三:自定義

  • 這個git項目中有多個文件夾,本章的應用在flinkdatasourcedemo文件夾下,如下圖紅框所示:
Flink的DataSource三部曲之三:自定義

  • 準備完畢,開始開發;

實現SourceFunctionDemo接口的DataSource

  • 從最簡單的開始,開發一個不可並行的數據源並驗證;
  • 實現SourceFunction接口,在工程flinkdatasourcedemo中增加SourceFunctionDemo.java:
<code>package com.bolingcavalry.customize;

import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.SourceFunction;
import org.apache.flink.streaming.api.windowing.time.Time;

public class SourceFunctionDemo {
public static void main(String[] args) throws Exception {
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
//並行度為2
env.setParallelism(2);

DataStream<tuple2>> dataStream = env.addSource(new SourceFunction<tuple2>>() {

private volatile boolean isRunning = true;

@Override
public void run(SourceContext<tuple2>> ctx) throws Exception {
int i = 0;
while (isRunning) {
ctx.collect(new Tuple2<>(i++ % 5, 1));
Thread.sleep(1000);
if(i>9){
break;
}
}
}

@Override

public void cancel() {
isRunning = false;
}
});

dataStream
.keyBy(0)
.timeWindow(Time.seconds(2))
.sum(1)
.print();

env.execute("Customize DataSource demo : SourceFunction");
}
}/<tuple2>/<tuple2>/<tuple2>/<code>
  • 從上述代碼可見,給addSource方法傳入一個匿名類實例,該匿名類實現了SourceFunction接口;
  • 實現SourceFunction接口只需實現run和cancel方法;
  • run方法產生數據,這裡為了簡答操作,每隔一秒產生一個Tuple2實例,由於接下來的算子中有keyBy操作,因此Tuple2的第一個字段始終保持著5的餘數,這樣可以多幾個key,以便分散到不同的slot中;
  • 為了核對數據是否準確,這裡並沒有無限發送數據,而是僅發送了10個Tuple2實例;
  • cancel是job被取消時執行的方法;
  • 整體並行度顯式設置為2;
  • 編碼完成後,執行mvn clean package -U -DskipTests構建,在target目錄得到文件flinkdatasourcedemo-1.0-SNAPSHOT.jar
  • 在Flink的web UI上傳flinkdatasourcedemo-1.0-SNAPSHOT.jar,並指定執行類,如下圖紅框所示:
Flink的DataSource三部曲之三:自定義

  • 任務執行完成後,在Completed Jobs頁面可以看到,DataSource的並行度是1(紅框),對應的SubTask一共發送了10條記錄(藍框),這和我們的代碼是一致的;
Flink的DataSource三部曲之三:自定義

  • 再來看消費的子任務,如下圖,紅框顯示並行度是2,這和前面代碼中的設置是一致的,藍框顯示兩個子任務一共收到10條數據記錄,和上游發出的數量一致:
Flink的DataSource三部曲之三:自定義

  • 接下來嘗試多並行度的DataSource;

實現ParallelSourceFunction接口的DataSource

  • 如果自定義DataSource中有複雜的或者耗時的操作,那麼增加DataSource的並行度,讓多個SubTask同時進行這些操作,可以有效提升整體吞吐量(前提是硬件資源充裕);
  • 接下來實戰可以並行執行的DataSource,原理是DataSoure實現ParallelSourceFunction接口,代碼如下,可見和SourceFunctionDemo幾乎一樣,只是addSource方發入參不同,該入參依然是匿名類,不過實現的的接口變成了ParallelSourceFunction:
<code>package com.bolingcavalry.customize;

import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.source.ParallelSourceFunction;
import org.apache.flink.streaming.api.windowing.time.Time;

public class ParrelSourceFunctionDemo {
public static void main(String[] args) throws Exception {
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
//並行度為2
env.setParallelism(2);

DataStream<tuple2>> dataStream = env.addSource(new ParallelSourceFunction<tuple2>>() {

private volatile boolean isRunning = true;

@Override
public void run(SourceContext<tuple2>> ctx) throws Exception {
int i = 0;
while (isRunning) {

ctx.collect(new Tuple2<>(i++ % 5, 1));
Thread.sleep(1000);
if(i>9){
break;
}
}
}

@Override
public void cancel() {
isRunning = false;
}
});

dataStream
.keyBy(0)
.timeWindow(Time.seconds(2))
.sum(1)
.print();

env.execute("Customize DataSource demo : ParallelSourceFunction");
}
}/<tuple2>/<tuple2>/<tuple2>/<code>
  • 編碼完成後,執行mvn clean package -U -DskipTests構建,在target目錄得到文件flinkdatasourcedemo-1.0-SNAPSHOT.jar
  • 在Flink的web UI上傳flinkdatasourcedemo-1.0-SNAPSHOT.jar,並指定執行類,如下圖紅框所示:
Flink的DataSource三部曲之三:自定義

  • 任務執行完成後,在Completed Jobs頁面可以看到,如今DataSource的並行度是2(紅框),對應的SubTask一共發送了20條記錄(藍框),這和我們的代碼是一致的,綠框顯示兩個SubTask的Task Manager是同一個;
Flink的DataSource三部曲之三:自定義

  • 為什麼DataSource一共發送了20條記錄?因為每個SubTask中都有一份ParallelSourceFunction匿名類的實例,對應的run方法分別被執行,因此每個SubTask都發送了10條;
  • 再來看消費數據的子任務,如下圖,紅框顯示並行度與代碼中設置的數量是一致的,藍框顯示兩個SubTask一共消費了20條記錄,和數據源發出的記錄數一致,另外綠框顯示兩個SubTask的Task Manager是同一個,而且和DataSource的TaskManager是同一個,因此整個job都是在同一個TaskManager進行的,沒有跨機器帶來的額外代價:
Flink的DataSource三部曲之三:自定義

  • 接下來要實踐的內容,和另一個重要的抽象類有關:

繼承抽象類RichSourceFunction的DataSource

  • 對RichSourceFunction的理解是從繼承關係開始的,如下圖,SourceFunction和RichFunction的特性最終都體現在RichSourceFunction上,SourceFunction的特性是數據的生成(run方法),RichFunction的特性是對資源的連接和釋放(open和close方法):
Flink的DataSource三部曲之三:自定義

  • 接下來開始實戰,目標是從MySQL獲取數據作為DataSource,然後消費這些數據;
  • 請提前準備好可用的MySql數據庫,然後執行以下SQL,創建庫、表、記錄:
<code>DROP DATABASE IF EXISTS flinkdemo;
CREATE DATABASE IF NOT EXISTS flinkdemo;
USE flinkdemo;

SELECT 'CREATING DATABASE STRUCTURE' as 'INFO';

DROP TABLE IF EXISTS `student`;
CREATE TABLE `student` (
`id` int(11) unsigned NOT NULL AUTO_INCREMENT,
`name` varchar(25) COLLATE utf8_bin DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=5 DEFAULT CHARSET=utf8 COLLATE=utf8_bin;

INSERT INTO `student` VALUES ('1', 'student01'), ('2', 'student02'), ('3', 'student03'), ('4', 'student04'), ('5', 'student05'), ('6', 'student06');
COMMIT;/<code>
  • 在pom.xml中增加mysql依賴:
<code><dependency>
\t\t\t<groupid>mysql/<groupid>
\t\t\t<artifactid>mysql-connector-java/<artifactid>
\t\t\t<version>5.1.34/<version>
/<dependency>/<code>
  • 新增MySQLDataSource.java,內容如下:
<code>package com.bolingcavalry.customize;

import com.bolingcavalry.Student;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.functions.source.RichSourceFunction;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;

public class MySQLDataSource extends RichSourceFunction<student> {

private Connection connection = null;

private PreparedStatement preparedStatement = null;

private volatile boolean isRunning = true;

@Override
public void open(Configuration parameters) throws Exception {
super.open(parameters);

if(null==connection) {
Class.forName("com.mysql.jdbc.Driver");
connection = DriverManager.getConnection("jdbc:mysql://192.168.50.43:3306/flinkdemo?useUnicode=true&characterEncoding=UTF-8", "root", "123456");
}

if(null==preparedStatement) {
preparedStatement = connection.prepareStatement("select id, name from student");
}
}

/**
* 釋放資源
* @throws Exception
*/
@Override
public void close() throws Exception {
super.close();

if(null!=preparedStatement) {
try {
preparedStatement.close();
} catch (Exception exception) {
exception.printStackTrace();
}
}

if(null==connection) {
connection.close();
}
}

@Override
public void run(SourceContext<student> ctx) throws Exception {
ResultSet resultSet = preparedStatement.executeQuery();
while (resultSet.next() && isRunning) {
Student student = new Student();
student.setId(resultSet.getInt("id"));
student.setName(resultSet.getString("name"));
ctx.collect(student);
}

}

@Override
public void cancel() {
isRunning = false;
}
}/<student>/<student>/<code>
  • 上面的代碼中,MySQLDataSource繼承了RichSourceFunction,作為一個DataSource,可以作為addSource方法的入參;
  • open和close方法都會被數據源的SubTask調用,open負責創建數據庫連接對象,close負責釋放資源;
  • open方法中直接寫死了數據庫相關的配置(不可取);
  • run方法在open之後被調用,作用和之前的DataSource例子一樣,負責生產數據,這裡是用前面準備好的preparedStatement對象直接去數據庫取數據;
  • 接下來寫個Demo類使用MySQLDataSource:
<code>package com.bolingcavalry.customize;

import com.bolingcavalry.Student;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;

public class RichSourceFunctionDemo {

public static void main(String[] args) throws Exception {
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
//並行度為2
env.setParallelism(2);

DataStream<student> dataStream = env.addSource(new MySQLDataSource());
dataStream.print();

env.execute("Customize DataSource demo : RichSourceFunction");
}
}/<student>/<code>
  • 從上述代碼可見,MySQLDataSource實例傳入addSource方法即可創建數據集;
  • 像之前那樣,編譯構建、提交到Flink、指定任務類,即可開始執行此任務;
  • 執行結果如下圖,DataSource的並行度是1,一共發送六條記錄,即student表的所有記錄:
Flink的DataSource三部曲之三:自定義

  • 處理數據的SubTask一共兩個,各處理三條消息:
Flink的DataSource三部曲之三:自定義

  • 由於代碼中對數據集執行了print(),因此在TaskManager控制檯看到數據輸出如下圖紅框所示:
Flink的DataSource三部曲之三:自定義

關於RichParallelSourceFunction

  • 實戰到了這裡,還剩RichParallelSourceFunction這個抽象類我們還沒有嘗試過,但我覺得這個類可以不用在文中多說了,咱們把RichlSourceFunction和RichParallelSourceFunction的類圖放在一起看看:
Flink的DataSource三部曲之三:自定義

  • 從上圖可見,在RichFunction繼承關係上,兩者一致,在SourceFunction的繼承關係上,RichlSourceFunction和RichParallelSourceFunction略有不同,RichParallelSourceFunction走的是ParallelSourceFunction這條線,而SourceFunction和ParallelSourceFunction的區別,前面已經講過了,因此,結果不言而喻:
    繼承RichParallelSourceFunction的DataSource的並行度是可以大於1的;
  • 讀者您如果有興趣,可以將前面的MySQLDataSource改成繼承RichParallelSourceFunction再試試,DataSource的並行度會超過1,但是絕不是隻有這一點變化,DAG圖顯示Flink還會做一些Operator Chain處理,但這不是本章要關注的內容,只能說結果是正確的(兩個DataSource的SubTask,一共發送12條記錄),建議您試試;
  • 至此,《Flink的DataSource三部曲》系列就全部完成了,好的開始是成功的一半,在拿到數據後,後面還有很多知識點要學習和掌握,接下來的文章會繼續深入Flink的奇妙之旅;
Flink的DataSource三部曲之三:自定義


分享到:


相關文章: