原创 flink on yarn

在flink on yarn模式中 flink yarn-session的兩種提交方式 1.公用一個yarn-session 在yarn中初始化一個flink集羣,開闢指定的資源,以後提交任務都向這裏提交。這個flink集羣會常駐在ya

原创 flink-sql報錯POJO does not define field name: EXPR$1

代碼如下   import org.apache.flink.api.java.DataSet; import org.apache.flink.api.java.ExecutionEnvironment; import org.apac

原创 mac 安裝es+kibana

mac 單機安裝es和kibana 下載es https://www.elastic.co/cn/downloads/elasticsearch 1.下載es版本 2.解壓es包     tar -zxvf elasticsearch-7

原创 java自帶線程池Executors

Executors類裏邊常用的四種線程池 public class Executors { //1.newFixedThreadPool 創建一個定長線程池,可控制線程最大併發數,超出的線程會在無界隊列中等待 public static

原创 java文件流的操作

package flinkdemo.threadPool; import java.io.*; /**  * @author zhangkai  * @create 2020/1/6  */ public class FileCopy

原创 flink-sql-udf

package flinkdemo.flinksql.sqlJoin; import org.apache.flink.api.java.DataSet; import org.apache.flink.api.java.Executio

原创 java常用正則-Pattern

\    將下一個字符標記爲一個特殊字符、或一個原義字符、或一個 向後引用、或一個八進制轉義符。 ^    匹配輸入字符串的開始位置 $    匹配輸入字符串的結束位置 .    匹配除換行符(\n、\r)之外的任何單個字符。 \d  

原创 flink從kafka-topic固定offset消費的5種方式

package flinkdemo.sinkDemo; import flinkdemo.sourceDemo.deserialization.ConsumerRecordKafkaDeserializationSchema; imp

原创 flink-checkpoint

Checkpoint Flink 容錯機制的核心就是持續創建分佈式數據流及其狀態的一致快照。Flink的checkpoint 是通過分佈式快照實現的,所以在flink中這兩個詞是一個意思。 checkpoint機制需要一個可靠的可以回放數

原创 rocketMq單機搭建+代碼實戰

1.需要的環境 64bit OS, Linux/Unix/Mac is recommended; 64bit JDK 1.8+; 查看方式: java -version Maven 3.2.x; 查看方式: mvn -v 2.下載壓縮包z

原创 Spark Streaming 中文亂碼問題解決

    最近用Spark Streaming從Kafka接數據進行處理,是對中文的內容進行計算。發現處理時中文全變成了????????的形式,導致處理的結果和預期的不一樣。     遇到這種情況,想到的就是編碼問題,因爲在在本地運行spa

原创 redis設置密碼

redis密碼設置有兩種方式,一種需要重啓redis服務,一種不需要重啓redis服務。 第一種 介紹一下需要重啓redis服務的設置方式 即找到redis的配置文件—redis.conf文件,然後修改裏面的requirepass,這個

原创 imply的jdbc連接(druid的jdbc連接)

  imply官網所說 https://docs.imply.io/on-prem/query-data/sql#client-apis 搭建了單機的imply pom需要的依賴 <dependency> <groupId>or

原创 阿里otter的搭建

環境準備 1. otter manager依賴於mysql進行配置信息的存儲,所以需要預先安裝mysql,並初始化otter manager的系統表結構 wget https://raw.github.com/alibaba/otter/

原创 phoenix查詢數據會有重複,怎麼解決

 select "rowkey" ,"id"  from "stg_as_order_orders_zk_test" where "created_at"  >='2018-08-24' and  "created_at"   <='20