原创 java之File

文件 首先是獲取文件的三種方法 // File類構造方法1 根據絕對路徑或者相對路徑構造 File file = new File("src/dd.txt"); // File類構造方法2 根據 parent 路徑名字符串和 c

原创 java之流之深入

LineNumberReader 作用:用來獲取行號。 比如: File file = new File("xx/Desktop/Test/hong.txt"); FileReader fr = n

原创 java之流

轉換流 轉換流呢是可以查指定編碼表進行讀寫的流。 OutputStreamWriter(字符流轉向字節流的橋樑) InputStreamReader(字節流轉向字符流的橋樑) 具體操作如下: // 轉換流寫個UTF-8格式

原创 java之基本數據類型之包裝類及Integer用法和字符串

基本數據類型之包裝類 1.爲什麼基本數據類型需要包裝類呢? 因爲基本數據類型只能用來定義變量,有了包裝類後就可以定義方法了。 2.有哪些包裝類呢? byte Byte short Short int Intege

原创 java之裝飾者模式

裝飾者模式 作用:對對象的原有功能進行升級 書寫步驟 1.明確被裝飾的對象 2.將被裝飾的對象 通過構造方法傳入裝飾類 裝飾類中 肯定有一個成員變量 就是被裝飾的對象 3.擁有被裝飾的對象 相當於可以調用該對象中的所有方法 就可以

原创 centos7安裝hive

安裝hive 前提:首先hadoop集羣環境要能跑起來 1.先在網上下一個hive的壓縮包 2.然後解壓 3.解壓完將 這個jar包傳到hive的lib文件夾下 4.在 /etc/proflie 下將HIVE_HOME和path

原创 centos7安裝 flume

1.上傳flume壓縮包 2.解壓 3.在conf文件夾下複製flume-env.sh.template並改名爲flume-env.sh並vim進入添加Java環境 完成

原创 HBase讀寫數據流程

寫數據流程 客戶端現在要插入一條數據,rowkey=r000001, 這條數據應該寫入到table表中的那個region中呢? 1/ 客戶端要連接zookeeper, 從zk的`/hbase`節點找到`hbase:meta`表所在的r

原创 spark+kafka+redis簡單操作

sparkStreaming消費kafka數據,將偏移量寫入到redis中的簡單操作 kafka生產者生成一些數據 object Kafkaproducer { def main(args: Array[String]): Uni

原创 Spark中處理業務並寫入mysql

數據樣本 ip.txt 1.0.1.0|1.0.3.255|16777472|16778239|亞洲|中國|福建|福州||電信|350100|China|CN|119.306239|26.075302 1.0.8.0|1.0.15.2

原创 認識GC時遇到的算法

引用計數算法 給對象中添加一個引用計數器,每當有一個地方引用它時,計數器值就加1;當引用失效時,計數器值就減1;任何時刻計數器爲0的對象就是不可能再被使用的 但是主流jvm中並沒有使用引用計數算法來管理內存,主要是因爲它很難解決對象之

原创 springboot+mybatis簡單操作

實現步驟: 1.Springboot項目創建 2.在pom.xml中,使用maven架包導入mybatis依賴dependency 3.逆向工程,配置自己的generatorConfig逆向工程的配置文件,然後使用maven插件執行出

原创 JQ實現ajax簡單代碼

這裏是 html頁面jq代碼 $("#btn").click(function() { $.ajax({ url: "http://localhost:8080/FirstServlet/Register", m

原创 flume、azkaban、sqoop小操作

flume 日誌採集工具 agent 任務 source channel sink netcat 想相當於開啓了socket進行接收 spooldir 檢測文件夾,但是內部不要再有文件夾,而且不要放重名文件,否則處理後發現有重名文件會

原创 centos7安裝

1.上傳flume壓縮包 2.解壓 3.在conf文件夾下複製flume-env.sh.template並改名爲flume-env.sh並添加Java環境 完成