原创 Struts2結合EasyUI的combobox返回json

前臺頁面: <%@ page language="java" contentType="text/html; charset=UTF-8"    pageEncoding="UTF-8"%><!DOCTYPE html PUBL

原创 Struts2 返回 xml 格式數據

 方法一: 直接利用ActionSuport的execute方法:                struts.xml中代碼,不需要定義 result,          Java代碼   <action name="Outxml

原创 Mahout之SequenceFilesFromDirectory源碼分析

轉載:http://hnote.org/big-data/mahout/mahout-sequencefilesfromdirectory 兩個類: public abstract class AbstractJob extends

原创 解決 Name node is in safe mode

[hadoop@master 20news-all]$ hadoop fs -put /tmp/mahout-hadoop/20news-all/ /tmp/mahout-hadoop/20news-all put: org.apache

原创 Impala1.2.4安裝手冊

安裝前說明: 1、  安全性考慮,我們使用hive用到的賬戶cup進行impala的啓停等操作,而不另外使用impala賬戶;這涉及到後文中的一些文件夾權限調整、配置文件中的用戶參數調整; 2、  性能考慮,impala-state-st

原创 Impala原理及其調優

Impala介紹 Impala支持的文件格式 Impala可以對Hadoop中大多數格式的文件進行查詢。它能通過create table和insert的方式將一部分格式的數據加載到table中,但值得注意的是,有一些格式的數據它是無法寫入

原创 使用Netbeans遠程調試服務器java代碼

首先,JAVA自身支持調試功能,並提供了一個簡單的調試工具--JDB,類似於功能強大的GDB,JDB也是一個字符界面的調試環境,並支持設置斷點,支持線程線級的調試。 編寫Java程序: package remotejava; /**

原创 mysql命令行修改字符編碼

1、修改數據庫字符編碼 mysql> alter database mydb character set utf8 ; 2、創建數據庫時,指定數據庫的字符編碼 mysql> create database mydb charact

原创 Linux環境下提升普通用戶權限(sudo)

用sudo讓普通用戶獲得超級用戶的一部分權利,能夠做超級用戶才能做的事情,還能夠對普通用戶身份做一些限制,指定某一個或某幾個人來做,並且普通用戶不需要知道超級用戶的密碼,就能夠完成超級用戶才能完成的任務。 測試環境:管理員root和普通用

原创 Hadoop Tool,ToolRunner原理分析

轉載:http://hnote.org/big-data/hadoop/hadoop-tool-toolrunner 先看Configurable 接口: 1 2 3 4 public interface Configur

原创 Hibernate批處理操作優化 (批量插入、更新與刪除)

我們每次保存的東西都會保存在Session緩存中,這就是Hibernate的一級緩存,如果我們一直循環執行save等操作,緩存裏東西會越來越多,速度也就越來越慢,服務器一直在循環處理,自然也會增加負載。 這本來就是Hibernate不

原创 插入排序

插入排序: 使用插入排序爲一列數字進行排序的過程 具體算法描述如下: 從第一個元素開始,該元素可以認爲已經被排序取出下一個元素,在已經排序的元素序列中從後向前掃描如果該元素(已排序)大於新元素,將該元素移到下一位置重複步驟3,直到找到

原创 Java創建文件夾及文件

package com.xhkj.util; import java.io.File; import java.io.IOException; public class CreateFileUtil { public static bo

原创 Mahout安裝

Mahout是Hadoop的一種高級應用。運行Mahout需要提前安裝好Hadoop,Mahout只在Hadoop集羣的NameNode節點上安裝一個即可,其他數據節點上不需要安裝。 1、下載二進制解壓安裝。 到http://lab

原创 快速搭建 Hadoop 分佈式環境

對於Hadoop來說,最主要的是兩個方面,一個是分佈式文件系統HDFS,另一個是MapReduce計算模型,下面講解下我在搭建Hadoop 環境過程。 Hadoop 測試環境 共4臺測試機,1臺namenode 3臺datanod