原创 Hive體系結構(三)元數據庫與基本操作
Hive體系結構(一)架構與基本組成 Hive體系結構(二)Hive的執行原理、與關係型數據庫的比較 Hive體系結構(三)元數據庫與基本操作 Hive體系結構(四)注意事項與擴展特性 1. Hive元數據庫 Hive將
原创 HiveQL基本操作整理
1. 創建操作 1.1 創建表 CREATE TABLE pokes (foo INT, bar STRING); 1.2 基於現有的表結構創建一個新表 create table new_table like records;
原创 Kafka單機、集羣模式安裝詳解(二)
本文環境如下: 操作系統:CentOS 6 32位 JDK版本:1.8.0_77 32位 Kafka版本:0.9.0.1(Scala 2.11) 接上篇 Kafka單機、集羣模式安裝詳解(一) 6. 單節點多
原创 java.util.ConcurrentModificationException異常分析
異常日誌 2016-07-20 15:02:41,278 (New I/O worker #197) [ERROR - org.apache.flume.source.AvroSource.appendBatch(AvroSou
原创 Leet Code OJ 91. Decode Ways [Difficulty: Medium]
題目: A message containing letters from A-Z is being encoded to numbers using the following mapping: 'A' -> 1 'B' ->
原创 關於Storm Tick
轉載自kqdongnanf-博客園;Email:[email protected]。 1. tick的功能 Apache Storm中內置了一種定時機制——tick,它能夠讓任何bolt的所有task每隔一段時間(精確到秒級
原创 Flume性能測試報告
1. 測試環境 1.1 硬件 CPU:Intel(R) Core(TM) i7-6700 CPU @ 3.40GHz(8核) 內存:16G 1.2 軟件 Flume:1.6.0 Hadoop:2.6.0-cdh5.5
原创 CentOS下Hive2.0.0集羣模式安裝詳解
本文環境如下: 操作系統:CentOS 6 32位 Hive版本:2.0.0 JDK版本:1.8.0_77 32位 Hadoop版本:2.6.4 MySQL版本:5.6.30 1. 準備工作 1.
原创 Kafka單機、集羣模式安裝詳解(一)
本文環境如下: 操作系統:CentOS 6 32位 JDK版本:1.8.0_77 32位 Kafka版本:0.9.0.1(Scala 2.11) 1. 所需要的環境 Kafka需要以下運行環境: Java
原创 HDFS High Availability體系介紹(Using the Quorum Journal Manager)
一、背景 HDFS集羣中只有一個Namenode,這就會引入單點問題;即如果Namenode故障,那麼這個集羣將不可用,直到Namenode重啓或者其他Namenode接入。 有兩種方式會影響集羣的整體可用性: 1. 意外
原创 Hive體系結構(二)Hive的執行原理、與關係型數據庫的比較
Hive體系結構(一)架構與基本組成 Hive體系結構(二)Hive的執行原理、與關係型數據庫的比較 Hive體系結構(三)元數據庫與基本操作 Hive體系結構(四)注意事項與擴展特性 1. Hive執行原理 Hive
原创 YARN體系學習筆記
一、基本組成結構 1. ResourceManager 負責對各個NodeManager 上的資源進行統一管理和調度。包含兩個組件: * Scheduler:調度器根據容量、隊列等限制條件(如每個隊列分配一定的資源,最多執行一定
原创 Flume學習筆記(一)安裝與簡單使用
本文環境如下: 操作系統:CentOS 7.2.1511 64位 Flume版本:1.6.0 1. 系統需求 Flume需要Java 1.6及以上(推薦1.7),對Agent監控目錄的讀寫權限。 2. 下載軟件包
原创 15分鐘瞭解Apache Phoenix(HBase的開源SQL引擎)
翻譯自官方文檔(http://phoenix.apache.org/Phoenix-in-15-minutes-or-less.html),翻譯的不好,望輕拍磚! 什麼是Phoenix? Phoenix是一個HBase的開源SQL
原创 Presto常用語句整理
查詢 從0或多個表獲取數據行 [ WITH with_query [, ...] ] SELECT [ ALL | DISTINCT ] select_expr [, ...] [ FROM from_item [, ...] ]