原创 java之File
文件 首先是獲取文件的三種方法 // File類構造方法1 根據絕對路徑或者相對路徑構造 File file = new File("src/dd.txt"); // File類構造方法2 根據 parent 路徑名字符串和 c
原创 java之流之深入
LineNumberReader 作用:用來獲取行號。 比如: File file = new File("xx/Desktop/Test/hong.txt"); FileReader fr = n
原创 java之流
轉換流 轉換流呢是可以查指定編碼表進行讀寫的流。 OutputStreamWriter(字符流轉向字節流的橋樑) InputStreamReader(字節流轉向字符流的橋樑) 具體操作如下: // 轉換流寫個UTF-8格式
原创 java之基本數據類型之包裝類及Integer用法和字符串
基本數據類型之包裝類 1.爲什麼基本數據類型需要包裝類呢? 因爲基本數據類型只能用來定義變量,有了包裝類後就可以定義方法了。 2.有哪些包裝類呢? byte Byte short Short int Intege
原创 java之裝飾者模式
裝飾者模式 作用:對對象的原有功能進行升級 書寫步驟 1.明確被裝飾的對象 2.將被裝飾的對象 通過構造方法傳入裝飾類 裝飾類中 肯定有一個成員變量 就是被裝飾的對象 3.擁有被裝飾的對象 相當於可以調用該對象中的所有方法 就可以
原创 centos7安裝hive
安裝hive 前提:首先hadoop集羣環境要能跑起來 1.先在網上下一個hive的壓縮包 2.然後解壓 3.解壓完將 這個jar包傳到hive的lib文件夾下 4.在 /etc/proflie 下將HIVE_HOME和path
原创 centos7安裝 flume
1.上傳flume壓縮包 2.解壓 3.在conf文件夾下複製flume-env.sh.template並改名爲flume-env.sh並vim進入添加Java環境 完成
原创 HBase讀寫數據流程
寫數據流程 客戶端現在要插入一條數據,rowkey=r000001, 這條數據應該寫入到table表中的那個region中呢? 1/ 客戶端要連接zookeeper, 從zk的`/hbase`節點找到`hbase:meta`表所在的r
原创 spark+kafka+redis簡單操作
sparkStreaming消費kafka數據,將偏移量寫入到redis中的簡單操作 kafka生產者生成一些數據 object Kafkaproducer { def main(args: Array[String]): Uni
原创 Spark中處理業務並寫入mysql
數據樣本 ip.txt 1.0.1.0|1.0.3.255|16777472|16778239|亞洲|中國|福建|福州||電信|350100|China|CN|119.306239|26.075302 1.0.8.0|1.0.15.2
原创 認識GC時遇到的算法
引用計數算法 給對象中添加一個引用計數器,每當有一個地方引用它時,計數器值就加1;當引用失效時,計數器值就減1;任何時刻計數器爲0的對象就是不可能再被使用的 但是主流jvm中並沒有使用引用計數算法來管理內存,主要是因爲它很難解決對象之
原创 springboot+mybatis簡單操作
實現步驟: 1.Springboot項目創建 2.在pom.xml中,使用maven架包導入mybatis依賴dependency 3.逆向工程,配置自己的generatorConfig逆向工程的配置文件,然後使用maven插件執行出
原创 JQ實現ajax簡單代碼
這裏是 html頁面jq代碼 $("#btn").click(function() { $.ajax({ url: "http://localhost:8080/FirstServlet/Register", m
原创 flume、azkaban、sqoop小操作
flume 日誌採集工具 agent 任務 source channel sink netcat 想相當於開啓了socket進行接收 spooldir 檢測文件夾,但是內部不要再有文件夾,而且不要放重名文件,否則處理後發現有重名文件會
原创 centos7安裝
1.上傳flume壓縮包 2.解壓 3.在conf文件夾下複製flume-env.sh.template並改名爲flume-env.sh並添加Java環境 完成