原创 Python字符串內建函數分類

正是因爲Python內置提供的方法足夠多,使得我們在使用Python開發時,能夠對字符串進行更加靈活的操作,應對更多的開發需求。 1、判斷類型-9 序號 方法 說明 1 isalnum() 如果字符串至少有一個字符並

原创 IDEA+Maven搭建純Mybatis環境並測試

前面的話:本實例意在搭建純Mybatis環境,供學習理解mybatis的開發過程使用,在實際生產環境中會結合Spring、SpringMVC、SpringBoot等框架使用。 數據準備 創建一個數據庫,並新增一張名爲userinf

原创 IDEA 2019.2 激活

原文鏈接:https://www.jiweichengzhu.com/article/c6ae011e3fce496fb11b6ba60c1a0e41 IDEA 2019.2 激活

原创 【轉發】intellij idea 2018 註冊碼與破解詳細步驟

intellij idea 2018 註冊碼與破解詳細步驟

原创 java連接外網kafka實現producer和consumer(高級API)

踩坑踩過來的,記錄一下。。。 背景 在華爲雲上搭建的kafka的爲分佈式環境,配置文件server.properties是一個基礎配置,雲服務器搭建kafka僞分佈式環境 沒有配置外網連接的一些屬性,先來配置一下: 需要在原來的配置基

原创 雲服務器搭建kafka僞分佈式環境

背景 最近在學習kafka,準備在自己租的雲服務器上搭建kafka僞分佈式集羣,做一些筆記,記錄一些踩到的坑。。。 準備 1、jdk1.8 2、zookeeper-3.4.5.tar.gz 3、kafka_2.11-0.11.0.3.

原创 Flink-06-DataStream API 之 sink--Redis實現

記錄Flink從Socket獲取數據,經過數據處理後將數據落地到Redis。 添加依賴包 <!-- https://mvnrepository.com/artifact/org.apache.bahir/flink-c

原创 Flink學習筆記

Flink-01-flink基本原理及應用場景分析 Flink-02-flink技術架構及工作原理 Flink-03-【入門程序】WordCount的流處理和批處理 Flink-04-Flink自定義Source Flink-05-D

原创 Flink-03-【入門程序】WordCount的流處理和批處理

需求分析 手工通過socket試試產生一些單詞,使用flink實時接收數據,對指定時間窗口內(例如:2秒)的數據進行聚合統計,並且把時間窗口內計算的結果打印出來。 實現步驟 獲得一個執行環境 加載/創建初始化數據–連接socket獲

原创 Flink-05-DataStream API 之 Transformations

Flink擁有很多算子最常用的有如下: 算子 描述 map: 輸入一個元素,然後返回一個元素,中間可以做一些清洗轉換等操作 flatmap: 輸入一個元素,可以返回零個,一個或者多個元素 filter: 過濾函數

原创 Flink-01-flink基本原理及應用場景分析

Apache Flink 是一個開源的分佈式,高性能,高可用,準確的流處理框架。同時支持實時流處理和批處理。 flink特性 支持批處理和數據流程序處理 優雅流暢的支持java和scala api 同時支持高吞吐量和低延遲 支持事件

原创 Flink-02-flink技術架構及工作原理

Flink組件棧 自下而上,分別針對每一層進行解釋說明: Deployment 該層主要涉及了Flink的部署模式,Flink支持多種部署模式:本地、集羣(Standalone/YARN)、雲(GCE/EC2)。 Runtim

原创 Flink-04-Flink自定義Source

1、實現並行度爲1 的自定義Source 實現SourceFunction接口–一定要指定數據類型 package com.test.streaming.customSource; import org.apache.flink.

原创 大數據的75個名詞解釋

近日,Ramesh Dontha 在 DataConomy 上連發兩篇文章,扼要而全面地介紹了關於大數據的 75 個核心術語,這不僅是大數據初學者很好的入門資料,對於高階從業人員也可以起到查漏補缺的作用。本文分爲上篇(25 個術語)和

原创 IntelliJ-IDEA和Git、GitHub、Gitlab的使用

看這個博客:https://blog.csdn.net/qq_29663071/article/details/78427147