原创 java開發準備

 java開發準備 Java 是sun 公司(現已被oracle公司收並)在1995年推出的語言。 1:java 分類 Java.se (j2se):整個java技術的核心,也是j2ee和j2me開發的基礎,如桌面開發 Java.ee (

原创 hadoop學習筆記--10.hive安裝與配置

一、hive安裝 1.環境要求   1、 Java 1.7或以上   2、 Hadoop 2.x (preferred), 1.x (not supported by Hive 2.0.0 onward). 2.

原创 《Java1.8源碼分析》:HashTable

《Java1.8源碼分析》:HashTable 繼承結構 public class Hashtable<K,V> extends Dictionary<K,V> implements Map<K,V>, Cloneable

原创 《JAVA1.8源碼分析》:LinkedList

LinkedList源碼分析 繼承結構 public class LinkedList<E> extends AbstractSequentialList<E> implements List<E>, Deque<E>,

原创 《Java1.8源碼分析》:HashSet

《Java1.8源碼分析》:HashSet 我們都知道HashSet集合是不允許重複元素的,因此這個類的利用什麼來保證這個集合裏面不會有重複的元素呢?結論是:HashSet是藉助於HashMap的key不允許重複這個特性來實現的。想想這

原创 《JAVA1.8源碼分析》:ArrayList

《JAVA1.8源碼分析》:ArrayList 繼承體系 public class ArrayList<E> extends AbstractList<E> implements List<E>, RandomAccess

原创 hadoop學習筆記--9.HBase基礎

一、HBase概述 1.1HBase起源         HBase是Apache Hadoop的數據庫,能夠對大型數據提供隨機、實時的讀寫訪問。HBase的目標是存儲並處理大型的數據。HBase是一個開源的,分佈式的,多版本的,面

原创 leetcode題解-128. Longest Consecutive Sequence

題目: Given an unsorted array of integers, find the length of the longest consecutive elements sequence. For example, Gi

原创 從尾到頭打印鏈表

從尾到頭打印鏈表 題目 輸入一個鏈表的頭結點,從尾到頭反過來打印出每個結點的值 思路 思路1:將鏈表反轉,再從頭遍歷輸出 思路2:從頭遍歷鏈表並壓棧,再打印棧數據 思路3:遞歸,從尾到頭打印 實現代碼 //思路1,反轉鏈表 //改變

原创 二維數組中的查找

二維數組中的查找 題目 題目:在一個二維數組中,每一行都按照從左到右的順序進行了排序,每一列都按照從上到下進行了排序。 輸入這樣的一個二維數組arr和一個整數k,判斷數組中是否存在這個數。 思路 1: 從左上角開始依次遍歷尋找,時

原创 hadoop學習筆記--12.hive DML操作

一、hive DML的基本操作 建議直接參考官方文檔: https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL 1.加載與插入數據 LOAD D

原创 javaweb--Rest訪問(RestTemplate)

Rest訪問(RestTemplate) 在實際的項目中,往往需要發送一個Get/Post請求到其他的系統(Rest API),比如向人員管理部門請求,然後解析返回信息獲取該用戶的基本信息等。JDK傳統的HttpURLConnection

原创 hadoop學習筆記--9.hive初識

一、hive基本介紹   Hive 是建立在 Hadoop 基礎上的數據倉庫基礎構架,可以將結構化的數據文件映射爲一張數據庫表。它提供了一系列的工具,可以用來進行數據提取轉化加載(ETL),這是一種可以存儲、查詢和分析存儲在 Ha

原创 hadoop學習筆記--5.HDFS的java api接口訪問

hadoop學習筆記--5.HDFS的java api接口訪問 一:幾個常用類介紹    (1):configuration類:此類封裝了客戶端或服務器的配置,通過配置文件來讀取類路徑實現(一般是core-site.xml)。 (2):F

原创 hadoop學習筆記--7.MapReduce的工作機制

一、hadoop MapReduce架構         MapReduce的整個架構如上圖所示,同HDFS一樣,Hadoop MapReduce也採用了Master/Slave架構,其主要由以下4大組件構成。