原创 hdfs的FSImage和Edits文件
知識點 1.當執行格式化指令時,會在指定的tmp目錄下,生成dfs/name目錄。 此目錄是namenode服務器存儲元數據的目錄 2.當格式化後,啓動HFDS前,會生成一個最初的fsimage_0000000000000000000文件
原创 hbase 1.3.2 源碼 IDEA編譯執行
博客整體目錄: 一、版本信息及環境準備 二、編譯步驟 三、源碼閱讀,基本條件配備 四、遇到的一些問題記錄 博客相對涉及的插件,下載的github地址(本人github) https://github.com/tianhuage1
原创 CDH6.0、6.1篇:2、MySQl配置文件my.cnf
此處針對mysql的配置進行說明 兩個文件: /etc/my.cnf 不帶註釋的配置信息 /etc/my.cnf 帶註釋的配置信息 -----------------分割線-----------------------------
原创 IDEA-2018版本的hadoop 2.7.1 插件安裝教程(自制插件)
IDEA的hadoop插件配置教程 版本要求:IDEA 2017年及2017年以後的版本。 hadoop:2.7.x。(目前測試2.7.1沒問題,由於是自己製作的插件,目前這些版本是可行的) 插件下載地址:(由於找不到比較好的公鏈
原创 整合boot和cloud時候針對和區別的疑惑
首先看,在maven下,對微服務進行聚合時候,看到parentId和dependencyManagement。很相似。所以這裏,我想對這兩個標籤進行說明一下,把自己的經驗告訴大家。 如圖: 以下爲parentId的方式: <par
原创 CDH6.0、6.1篇:3、Cloudera Manager安裝(只需要在NODE1做)
本文主要認真闡述在Cloudera Manager安裝 -------------------------------分割線-----------------------------------------------------
原创 CDH6.0、6.1篇:1、linux安裝各種軟件和配置
此文主要分兩個部分 一、安裝 CentOS 二、配置 CentOS --------------------分割線--------------------開始------------------------------------
原创 CDH6.0、6.1篇:4、CDH安裝(包含HBase.HDFS.Hive.Hue.Impala.Oozie.YARN.ZooKeeper)
前置工作: 在CDH安裝之前必須保證NODE1主節點中的以下程序均已啓動 1.每臺機器:根據aliyun提供的服務進行 時間同步:ntpdate -u ntp6.aliyun.com 啓動服務 systemctl sta
原创 HDFS相關源碼剖析
DFSClient | Namenode | Datanode 源碼分析順序圖: DFSClient |-------ClientProtocol |-------DFSInputStream |---
原创 CDH6.0、6.1篇:5、CDH的使用(hadoop ha、yarn ha)
本文分3個部分闡述 1.使用CDH注意事項 2.Hadoop HA 搭建 3.YARN HA 搭建 ----------------------------------------分割線----------------------
原创 CDH6.0、6.1篇:6、CDH優化
- 1.MapReduce shuffle處理程序和IFile閱讀器使用本機Linux調用,在安裝了Hadoop本機庫的Linux系統上。 - 2.改善隨機處理程序 1.您可以通過啓用shuffle readahead來改進Ma
原创 CDH6.0、6.1篇:8、CDH的 hive on spark配置及解析、優化
分三個章節 1、版本展示 2、CDH安裝spark 3、優化配置信息 ----------------------分割線---------------------------------------- 1、版本展示 1.所有版本
原创 CDH6.0、6.1篇:7、Hadoop端代碼測試
配置了CDH對hadoop端進行代碼測試 POM文件的maven座標 <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop
原创 cdh 5.12.1 集成kylin (apache-kylin-2.6.0-bin-cdh57)記錄
環境:cdh5.12.1+jdk1.8 我的hadoop,hdfs,mapreduce2,hbase,zookeeper spark的版本如下: spark我做了升級,升級到了 SPARK2-2.1.0.cloudera1-1.c
原创 java怎麼讀取resources下面的JSON串文件
文件位置: package com.jt.ceshi; import com.fasterxml.jackson.databind.JsonNode; import com.fasterxml.jackson.databind