原创 roma鏡像構建

FROM          centos:7.6.1810 #安裝一些中文包。保重中文不亂碼 RUN  yum -y install kde-l10n-Chinese telnet && \               yum clean

原创 flink-sql kafka-》hbase

flink-sql從kafka讀取數據寫入mysql 1.導入依賴 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4

原创 flink-sql kafka-》mysql

flink-sql 從kafka讀取數據寫入mysql   1.依賴 <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/

原创 flink介紹

  1.初識Flink 1.1flink是什麼 Flink是分佈式、高性能的處理引擎,用於對無界和有界數據流進行有狀態的計算。 1.2爲什麼要選擇flink 流數據更加真實的反應了我們的生活方式,傳統的數據架構都是基於有限數據集的。fli

原创 Flink如何讓task不共享插槽,算子拒絕合併Operator Chains

package com.lw.wc import java.util.Properties import org.apache.flink.api.common.serialization.SimpleStringSchema im

原创 DbUtils框架

DbUtils框架。簡化代碼操作。QueryRunner 類    構造器    此類可實現數據庫更新,查詢等操作    1 數據庫的更新    調用QueryRunner下的 update方法可實現數據庫的更新操作。    /**

原创 超詳細html知識

1.HTML 超文本標記語言。2014年發佈html5,用於靜態網頁的開發.2.一個完整的html頁面    應該包括 html標籤 , head標籤,body標籤(後面會有代碼闡述)3.html常用標籤    1.<html> </ht

原创 css選擇器& 選擇器的優先級

一、選擇器1.元素選擇器 語法,作用給元素名爲你設置的那個元素的元素名設置樣式        元素名 {                         樣式列表                      }    2.id選擇器。通過元

原创 使用JdbcUtils框架實現Dao 詳解~

Dao包含 5個方法interface Dao<F>(){}1.更新數據庫 Connection 爲數據庫鏈接對象,sql爲數據庫執行語句,args爲 填充參數void update(Connection connection ,Stri

原创 設計模式--單一職責原則

設計模式之七種原則 單一設計原則 1單一設計原則介紹 單一設計原則既一個類只負責一件事情。假如一個類負責兩件A,B兩件事情,假如A的需求需要變更,此時導致B功能也無法使用。這時候我們應將其分爲兩個類,這樣就可以做到修改一個類的,不影響

原创 通過java 客戶端 操作k8s集羣

1.在diea中新建一個maven工程然後倒入一下依賴 <dependency> <groupId>io.kubernetes</groupId> <artifactId>clien

原创 Hbase-region遷移

HbaseRegin遷移 1爲什麼要做region遷移 在生產上遇到有比較大的Region都是運行在同一個RegionSever上,有些RegionSever上的Requests比較少,明顯的出現讀請求不均衡;這個時候我們可以手動的移動R

原创 Datax 二次開發插件詳細過程

目錄   1.背景 2.需求 3.開發步驟   3.1 去github上下載datax的代碼  3.2 本地解壓,並導入idea 3.3創建一個模塊kafkareader 3.4將任意一個模塊的以下兩個文件考入到resource目錄下 3

原创 spark 解決提交任務是 第三方依賴的問題

1解決我們自己模塊的依賴   在提交spark任務的時候用 –jars參數加上jar路徑。路徑用逗號隔開。 2解決第三方依賴(保證每一個節點都有這個目錄) 步驟 創建一個目錄存放第三方依賴       [root@master spar

原创 採集kafka數據以orc格式寫往hdfs

1.需求,從kafka採集數據然後以orc格式的文件寫往hdfs。然後hdfs上的表以orc格式存儲,然後綁定分區可以查詢出數據。   2.解決需求     1) 使用flume 採集。寫完hdfs。但是無法寫orc格式。     2 )