您的位置:首頁 >資訊 > 正文

    環球速遞!大數據NiFi(十八):離線同步MySQL數據到HDFS

    來源:騰訊云2023-02-21 20:16:57

    ?離線同步MySQL數據到HDFS

    案例:使用NiFi將MySQL中數據導入到HDFS中。


    【資料圖】

    以上案例用到的處理器有“QueryDatabaseTable”、“ConvertAvroToJSON”、“SplitJson”、“PutHDFS”四個處理器。

    一、配置“QueryDatabaseTable”處理器

    該處理器主要使用提供的SQL語句或者生成SQL語句來查詢MySQL中的數據,查詢結果轉換成Avro格式。該處理器只能運行在主節點上。

    關于“QueryDatabaseTable”處理器的“Properties”配置的說明如下:

    配置項

    默認值

    允許值

    描述

    Database Connection Pooling Service(數據庫連接池服務)

    用于獲得與數據庫的連接的Controller Service。

    Database Type(數據庫類型)

    Generic

    選擇數據庫類型。Generic 通用類型OracleOracle 12+MS SQL 2012+MS SQL 2008MySQLPostgreSQL

    Table Name(表名)

    查詢數據庫的表名,當使用“Custom Query”時,此為查詢結果的別名,并作為FlowFile中的屬性。

    Columns to Return(返回的列)

    查詢返回的列,多個列使用逗號分隔。如果列中有特殊名稱需要加引號,則所有列都需要加引號處理。

    Additional WHERE clause(where條件)

    在構建SQL查詢時添加到WHERE條件中的自定義子句。

    Custom Query(自定義SQL查詢)

    自定義的SQL語句。該查詢被構建成子查詢,設置后不會從其他屬性構建SQL查詢。自定義SQL不支持Order by查詢。

    Maximum-value Columns(最大值列)

    指定增量查詢獲取最大值的列,多列使用逗號分開。指定后,這個處理器只能檢索到添加/更新的行。不能設置無法比較大小的列,例如:boolean/bit。如果不指定,則參照表中所有的列來查詢全量數據,這會對性能產生影響。

    Max Wait Time(最大超時時間)

    0 seconds

    SQL查詢最大時長,默認為0沒有限制,設置小于0的時間默認為0。

    Fetch Size(拉取數據量)

    0

    每次從查詢結果中拉取的數據量。

    Max Rows Per Flow File(每個FlowFile行數)

    0

    在一個FlowFile文件中的數據行數。通過這個參數可以將很大的結果集分到多個FlowFile中。默認設置為0,所有結果存入一個FlowFile。

    Output Batch Size(數據輸出批次量)

    0

    輸出的FlowFile批次數據大小,當設置為0代表所有數據輸出到下游關系。如果數據量很大,則有可能下游很久沒有收到數據,如果設置了,則每次達到該數據量就釋放數據,傳輸到下游。

    Maximum Number of Fragments(最大片段數)

    0

    設置返回的最大數據片段數,設置0默認將所有數據片段返回,如果表非常大,設置后可以防止OOM錯誤。

    Normalize Table/Column Names(標準表/列名)

    false

    truefalse

    是否將列名中不兼容avro的字符修改為兼容avro的字符。例如,冒號和句點將被更改為下劃線,以構建有效的Avro記錄。

    Transaction Isolation Level

    設置事務隔離級別。

    Use Avro Logical Types(使用Avro邏輯類型)

    false

    truefalse

    是否對DECIMAL/NUMBER, DATE, TIME 和 TIMESTAMP 列使用Avro邏輯類型。

    Default Decimal Precision(Decimal數據類型位數)

    10

    當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的數據位數。

    Default Decimal Scale(Decimal 數據類型小數位數)

    0

    當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的小數點后的位數。

    Generic 通用類型OracleOracle 12+MS SQL 2012+MS SQL 2008MySQLPostgreSQL

    Table Name(表名)查詢數據庫的表名,當使用“Custom Query”時,此為查詢結果的別名,并作為FlowFile中的屬性。 Columns to Return (返回的列) 查詢返回的列,多個列使用逗號分隔。如果列中有特殊名稱需要加引號,則所有列都需要加引號處理。 Additional WHERE clause (where條件) 在構建SQL查詢時添加到WHERE條件中的自定義子句。 Custom Query (自定義SQL查詢) 自定義的SQL語句。該查詢被構建成子查詢,設置后不會從其他屬性構建SQL查詢。自定義SQL不支持Order by查詢。 Maximum-value Columns (最大值列) 指定增量查詢獲取最大值的列,多列使用逗號分開。指定后,這個處理器只能檢索到添加/更新的行。不能設置無法比較大小的列,例如:boolean/bit。如果不指定,則參照表中所有的列來查詢全量數據,這會對性能產生影響。 Max Wait Time(最大超時時間)0 seconds SQL查詢最大時長,默認為0沒有限制,設置小于0的時間默認為0。 Fetch Size(拉取數據量)0 每次從查詢結果中拉取的數據量。 Max Rows Per Flow File(每個FlowFile行數)0 在一個FlowFile文件中的數據行數。通過這個參數可以將很大的結果集分到多個FlowFile中。默認設置為0,所有結果存入一個FlowFile。 Output Batch Size(數據輸出批次量)0 輸出的FlowFile批次數據大小,當設置為0代表所有數據輸出到下游關系。如果數據量很大,則有可能下游很久沒有收到數據,如果設置了,則每次達到該數據量就釋放數據,傳輸到下游。 Maximum Number of Fragments(最大片段數)0 設置返回的最大數據片段數,設置0默認將所有數據片段返回,如果表非常大,設置后可以防止OOM錯誤。 Normalize Table/Column Names(標準表/列名)false true false 是否將列名中不兼容avro的字符修改為兼容avro的字符。例如,冒號和句點將被更改為下劃線,以構建有效的Avro記錄。 Transaction Isolation Level 設置事務隔離級別。 Use Avro Logical Types(使用Avro邏輯類型)false true false 是否對DECIMAL/NUMBER, DATE, TIME 和 TIMESTAMP 列使用Avro邏輯類型。 Default Decimal Precision(Decimal數據類型位數)10 當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的數據位數。 Default Decimal Scale(Decimal 數據類型小數位數)0 當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的小數點后的位數。

    配置步驟如下:

    1、新建“QueryDatabaseTable”處理器

    2、配置“SCHEDULING”調度時間

    這里調度時間配置為99999s,讀取數據庫,這里讀取一次即可,默認0會不間斷讀取數據庫會對服務器造成非常大壓力。執行僅支持“Primary”主節點運行。

    3、配置“PROPERTIES”

    配置“Database Connection Pooling Service”選擇創建,在彈出頁面中可以按照默認選擇直接點擊“Create”。

    點擊“->”繼續配置MySQL連接:

    在彈出的頁面中填入:

    連接MysqlURL:

    jdbc:mysql://192.168.179.5:3306/mynifi?characterEncoding=UTF-8&useSSL=false

    MySQL驅動類:com.mysql.jdbc.DriverMySQL jar包路徑:需要提前在NiFI集群各個節點上創建對應目錄并上傳jar包。連接mysql的用戶名和密碼。

    通過以上配置好連接mysql如下:

    配置其他屬性如下:

    二、???????配置“ConvertAvroToJSON”處理器

    此處理器是將二進制Avro記錄轉換為JSON對象,提供了一個從Avro字段到JSON字段的直接映射,這樣得到的JSON將具有與Avro文檔相同的層次結構。輸出的JSON編碼為UTF-8編碼,如果傳入的FlowFile包含多個Avro記錄,則轉換后的FlowFile是一個含有所有Avro記錄的JSON數組或一個JSON對象序列(每個Json對象單獨成行)。如果傳入的FlowFile不包含任何記錄,則輸出一個空JSON對象。

    關于“ConvertAvroToJSON”處理器的“Properties”配置的說明如下:

    配置項

    默認值

    允許值

    描述

    JSON container options(Json選擇)

    array

    nonearray

    如何解析Json對象,none:解析Json將每個Json對象寫入新行。array:解析到的json存入JsonArray一個對象

    Wrap Single Record(數據庫類型)

    false

    truefalse

    指定解析到的空記錄或者單條記錄是否按照“JSON container options”配置包裝對象。

    Avro schema(表名)

    如果Avro數據沒有Schema信息,需要配置。

    配置步驟如下:

    1、創建“ConvertAvroToJSON”處理器

    2、配置“PROPERTIES”

    3、連接“QueryDatabaseTable”處理器和“CovertAvroToJSON”處理器

    連接好兩個處理器后,可以配置“Connection”為負載均衡方式傳遞數據:

    三、???????配置“SplitJson”處理器

    該處理器使用JsonPath表達式指定需要的Json數組元素,將Json數組中的多個Json對象切分出來,形成多個FlowFile。每個生成的FlowFile都由指定數組中的一個元素組成,并傳輸到關系"split",原始文件傳輸到關系"original"。如果沒有找到指定的JsonPath,或者沒有對數組元素求值,則將原始文件路由到"failure",不會生成任何文件。

    關于“SplitJson”處理器的“Properties”配置的說明如下:

    配置項

    默認值

    允許值

    描述

    JsonPath Expression(Json表達式)

    一個JsonPath表達式,它指定用以分割的數組元素。

    Null Value Representation(Null值表示)

    empty string

    empty stringthe string "null"

    指定結果為空值時的表示形式。

    配置步驟如下:

    1、創建“SplitJson”處理器

    2、配置“PROPERTIES”

    3、連接“ConvertAvroToJSON”處理器和“SplitJson”處理器

    連接后,連接關系選擇“success”:

    同時配置“ConverAvroToJSON”處理失敗的數據自動終止:

    四、配置“PutHDFS”處理器

    該處理器是將FlowFile數據寫入到HDFS分布式文件系統中。關于“PutHDFS”處理器的“Properties”主要配置的說明如下:

    配置項

    默認值

    允許值

    描述

    Hadoop Configuration Resources(Hadoop配置)

    nonearray

    HDFS配置文件,一個文件或者由逗號分隔的多個文件。不配置將在ClassPath中尋找‘core-site.xml’或者‘hdfs-site.xml’文件。

    Directory(目錄)

    需要寫入文件的HDFS父目錄。如果目錄不存在,將創建該目錄。

    Conflict Resolution Strategy(沖突解決)

    fail

    replaceignorefailappend

    指示當輸出目錄中已經存在同名文件時如何處理。

    配置步驟如下:

    1、創建“PutHDFS”處理器

    2、配置“PROPERTIES”

    注意:以上需要在各個NiFi集群節點上創建“/root/test”目錄,并且在該目錄下上傳hdfs-site.xml和core-site.xml文件。

    3、連接“SplitJson”處理器和“PutHDFS”處理器

    同時設置“SplitJson”處理器中“failure”和“original”數據關系自動終止。

    設置“PutHDFS”處理器“success”和“failure”數據關系自動終止:

    配置好的連接關系如下:

    五、??????????????運行測試

    1、在MySQL創建庫“mynifi”,并且創建表“test1”,向表中插入10條數據

    mysql> create database mynifi;Query OK, 1 row affected (0.02 sec)mysql> use mynifi;Database changedmysql> create table test1(id int,name varchar(255),age int );Query OK, 0 rows affected (0.07 sec)mysql> insert into test1 values (1,"zs",18),(2,"ls",19),(3,"ww",20),(4,"ml",21),(5,"tt",22)

    2、首先啟動“QueryDatabaseTable”處理器觀察隊列數據

    3、單獨啟動“ConvertAvroToJson”處理器觀察隊列數據

    4、單獨啟動“SplitJson”處理器觀察隊列數據

    5、單獨啟動“PutHDFS”處理器觀察HDFS對應目錄數據

    查看數據:

    注意:

    如果在“QueryDatabaseTable”處理器中設置增屬性“Maximum-value Columns”為id,那么每次查詢都是大于id的增量數據。如果想要存入HDFS文件為多行而不是一行,可以將“CovertAvroToJson”處理器屬性“JSON container options”設置為none,直接解析Avro文件得到一個個json數據,然后直接連接“PutHDFS”處理器即可。

    最近更新

    久久精品国产99国产精品亚洲| 免费观看亚洲人成网站| 亚洲欧洲∨国产一区二区三区| jizzjizz亚洲日本少妇| 色婷五月综激情亚洲综合| 亚洲国产成人资源在线软件| 亚洲视频在线观看不卡| 亚洲黄色免费观看| 亚洲AV日韩AV永久无码绿巨人 | 亚洲大成色www永久网址| 亚洲AV无码乱码在线观看代蜜桃 | 国产亚洲精品精品精品| 久久亚洲精品无码gv| 国产精品无码亚洲精品2021| 综合偷自拍亚洲乱中文字幕| 国产精品亚洲专区无码不卡| 亚洲av第一网站久章草| 精品国产亚洲一区二区三区在线观看| 亚洲.国产.欧美一区二区三区| 亚洲av无码专区首页| 国产亚洲欧美在线观看| 亚洲AV永久无码精品一区二区国产| 国内成人精品亚洲日本语音| 亚洲高清无码综合性爱视频| 亚洲人AV永久一区二区三区久久| 精品亚洲成α人无码成α在线观看| 国产日产亚洲系列最新| 久久精品九九亚洲精品天堂 | 亚洲国产精品自在自线观看| 国产精品日本亚洲777| 亚洲高清国产拍精品青青草原| 亚洲av无码成人精品区在线播放| 亚洲精品无码久久久久AV麻豆| 最新亚洲成av人免费看| 亚洲AV无码一区二区乱子伦 | 亚洲国产成人精品无码久久久久久综合 | 国产成人亚洲精品无码AV大片| 亚洲国产黄在线观看| 亚洲无码在线播放| 久久亚洲精品AB无码播放| 亚洲男人天堂影院|