原创 SSM框架(二)——Mybatis傳多個參數
本文介紹三種方法: 1)用下標代替 DAO層的函數方法 Public User selectUser(String name,String area);對應的Mapper.xml <select id="selectUser" r
原创 kafka官網示例說明--KafkaConsumer
Kafka client會消費kafka cluster中的記錄。 它將透明地處理Kafka集羣中的服務器故障,並透明地適應它在集羣內遷移的數據分區。該客戶機還與服務器交互,以允許用戶組使用消費者組來負載平衡消費(如下所述)。 消
原创 Hive和關係型數據庫的區別
Hive是基於Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射成一張表,並提供類sql語句的查詢功能;Hive使用Hql作爲查詢接口,使用HDFS存儲,使用mapreduce計算;Hive是非關係型數據庫即NoSQL(Not O
原创 SpringBoot實戰(一)Hello World
Spring Boot是由Pivotal團隊提供的全新框架,其設計目的是用來簡化新Spring應用的初始搭建以及開發過程。該框架使用了特定的方式來進行配置,從而使開發人員不再需要定義樣板化的配置。通過這種方式,Boot致力於在蓬勃發展的
原创 SpringBoot實戰(二):數據庫Mysql
一,建立spring-boot-sample-mysql工程 1、http://start.spring.io/ A、Artifact中輸入spring-boot-sample-mysql B、勾選Web下的we
原创 kafka+zookeeper安裝配置
1、安裝zookeeper步驟1:下載並解壓zookeeper安裝包tar -zxvf zookeeper-3.4.11.tar.gz 步驟2:配置環境變量 export ZOOK=/opt/hadoop/zookeeper-3.4.11
原创 redis安裝配置
REmote DIctionary Server(Redis) 是一個由Salvatore Sanfilippo寫的key-value存儲系統。1、先到Redis官網(redis.io)下載redis安裝包 2、解壓並進入其目錄 3、編
原创 Spark源碼解讀之SparkContext初始化
SparkContext初始化是Driver應用程序提交執行的前提,這裏以local模式來了解SparkContext的初始化過程。 本文以 val conf = new SparkConf().setAppName(“mytest”
原创 Java API實現向Hive批量導入數據
Java程序中產生的數據,如果導入oracle或者mysql庫,可以通過jdbc連接insert批量操作完成,但是當前版本的hive並不支持批量insert操作,因爲需要先將結果數據寫入hdfs文件,然後插入Hive表中。 packag