原创 MapReduce保存計算結果到數據庫

------------- 創建數據庫和表 --------------- mysql -u root -p 登錄數據庫 create database if not existsii; 創建數據庫 useii; 使用數據庫

原创 JAVA自定義排序

import java.util.Arrays; //實現Comparable接口可以進行比較大小 public class People implements Comparable<People>{ private

原创 MapReduce練習IpAction

統計每個 ip 做了多少次 操作 統計每個 操作,執行了多少次 每個 ip 的每個操作 執行了多少次(包括分區) 192.168.10.109 這個 ip 執行了多少次操作 每個 ip 的每個操作 執行了多少次

原创 MapReduce的排序

排序是數據分析中最常用的操作,沒有之一。 單字段升序: 利用 mapreduce 自身的排序機制,把需要排序的字段作爲 key 即可 自定義排序規則: 方案一:自定義 key 1. 自定義類實現 Writa

原创 Spring 框架 圖解

圖解:

原创 Java IO流(上)

IO流的基本介紹,輸出文件屬性: import java.io.File; public class Application { public static void main(String[] args) {

原创 使用Scala編寫Map Reduce的模板

def main(args: Array[String]): Unit = { //1.配置 spark 任務相關信息 val sparkConf = new SparkConf(); //配置人物名字

原创 使用HQL分析數據的腳本

清洗數據 #!/bin/bash hadoop jar jar路徑 類路徑.NginxAccessETL $1 hive -e " USE 數據庫; CREATE TABLE IF NOT EXISTS dwb_nginx_ac

原创 數據分析—排序

排序是數據分析中最常用的操作,沒有之一。 單字段升序: 利用 mapreduce 自身的排序機制,把需要排序的字段作爲 key 即可 其它排序: 自定義排序規則 方案一:自定義 key 1. 自定義類實現

原创 WordCount代碼模板

import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path

原创 Java中HBase的使用

import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.*; import org.apache.hadoop.hbase.client.

原创 MapReduce的使用

MapReduce:分佈式離線計算框架 分佈式:程序多節點(resourceManager 和 nodeManager)多角色(map 和 reduce)組成 離線:計算過程中產生中間數據,會保存在硬盤上 計算框架:提供了一個編程模型

原创 Linux中session共享

有的項目的所有功能都要進行登錄驗證, 驗證條件是判斷 session 中是否有 user 對象, 如果有就認爲登錄過,如果沒有就進行登錄 session(會話): 服務器上的一塊存儲空間,和客戶端一一對應。

原创 Linux中Hadoop 集羣搭建

零、下載Hadoop: http://archive.cloudera.com/cdh5/cdh/5/?tdsourcetag=s_pctim_aiomsg 一、集羣規劃: 搭建的 hadoop 集羣由 3 臺服務器組成,分別叫做 m

原创 Linux 安裝 redis

安裝 redis: 1. 下載:http://www.redis.cn/ 2. 上傳到 root,解壓 3. 安裝編譯 redis 需要的 gcc-c++ 和 tcl 軟件 yum install -y gcc-c++