原创 SSM框架(二)——Mybatis傳多個參數

本文介紹三種方法: 1)用下標代替 DAO層的函數方法  Public User selectUser(String name,String area);對應的Mapper.xml   <select id="selectUser" r

原创 kafka官網示例說明--KafkaConsumer

Kafka client會消費kafka cluster中的記錄。 它將透明地處理Kafka集羣中的服務器故障,並透明地適應它在集羣內遷移的數據分區。該客戶機還與服務器交互,以允許用戶組使用消費者組來負載平衡消費(如下所述)。 消

原创 Hive和關係型數據庫的區別

Hive是基於Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射成一張表,並提供類sql語句的查詢功能;Hive使用Hql作爲查詢接口,使用HDFS存儲,使用mapreduce計算;Hive是非關係型數據庫即NoSQL(Not O

原创 SpringBoot實戰(一)Hello World

Spring Boot是由Pivotal團隊提供的全新框架,其設計目的是用來簡化新Spring應用的初始搭建以及開發過程。該框架使用了特定的方式來進行配置,從而使開發人員不再需要定義樣板化的配置。通過這種方式,Boot致力於在蓬勃發展的

原创 SpringBoot實戰(二):數據庫Mysql

一,建立spring-boot-sample-mysql工程 1、http://start.spring.io/      A、Artifact中輸入spring-boot-sample-mysql      B、勾選Web下的we

原创 kafka+zookeeper安裝配置

1、安裝zookeeper步驟1:下載並解壓zookeeper安裝包tar -zxvf zookeeper-3.4.11.tar.gz 步驟2:配置環境變量 export ZOOK=/opt/hadoop/zookeeper-3.4.11

原创 redis安裝配置

REmote DIctionary Server(Redis) 是一個由Salvatore Sanfilippo寫的key-value存儲系統。1、先到Redis官網(redis.io)下載redis安裝包 2、解壓並進入其目錄  3、編

原创 Spark源碼解讀之SparkContext初始化

SparkContext初始化是Driver應用程序提交執行的前提,這裏以local模式來了解SparkContext的初始化過程。 本文以 val conf = new SparkConf().setAppName(“mytest”

原创 Java API實現向Hive批量導入數據

Java程序中產生的數據,如果導入oracle或者mysql庫,可以通過jdbc連接insert批量操作完成,但是當前版本的hive並不支持批量insert操作,因爲需要先將結果數據寫入hdfs文件,然後插入Hive表中。 packag