原创 Eclipse開發Java前配置

字體設置 Window->Preferences->General->Apperance->Colors and Fonts->Basic->Text Font->Edit(Consolas 常規 小四) 自己喜歡就好 工作空間默認編碼

原创 Oracle 恢復被刪除的表/數據

恢復被delete的數據 假設表名稱爲:table_delete  查看系統當前時間 --獲得系統當前時間  select to_char(sysdate,'yyyy-mm-dd hh24:mi:ss') from dual; 

原创 Linux環境下Oracle服務端啓停

啓停Oracle服務 登錄Oracle服務所在的服務器 [root@localhost ~]# su  oracle [oracle@localhost ~]$ sqlplus /nolog SQL> connect /as sysdb

原创 Hadoop集羣啓動順序和部分命令整理

Hadoop集羣啓動順序 zookeepeer->hadoop->hbase Hadoop集羣關閉順序 hbase->hadoop->zookeepeer Hadoop 主備節點狀態查看與手動切換 $HADOOP_HOME/bin/h

原创 Oracle sqlload 腳本

#!/bin/bash ################## #@author: chichuduxing #@date: 20160913 ################## #加載環境變量(需要加載oracle的環境變量,根據安裝

原创 VMware 虛擬機克隆或者導入後網絡問題處理

1、查看當前網卡的MAC地址 ifconfig -a 2、修改文件中的MAC地址 vim /etc/udev/rules.d/70-persistent-net.rules 3、查看網卡UUID service NetworkMana

原创 Java 序列化與反序列化 工具類 Demo

測試對象 package com.basic.serialize; import java.io.Serializable; /** * @author chichuduxing * @date 2017年2月3日 下午12:12

原创 Linux Shell腳本學習 筆記整理

指定腳本解釋器 #!/bin/bash 注意: 1、該聲明只能放在腳本的首行,說明該腳本使用bash解釋器來解釋執行,否則會被當成註釋 2、bash必須使用絕對路徑 3、該聲明只在腳本作爲可執行程序,通過./test.sh調用是纔

原创 分享一個查看Hdfs目錄下文件大小的腳本,支持排序

#!/bin/bash ################## #@author: chichuduxing #@date: 20161011 ################## ##加載Hadoop環境變量 ##略過 functio

原创 Java常用的2種阻塞隊列ArrayBlockingQueue和LinkedBlockingQueue

ArrayBlockingQueue 基於數組的阻塞隊列實現,在ArrayBlockingQueue內部,維護了一個定長數組,以便緩存隊列中的數據對象,這是一個常用的阻塞隊列,除了一個定長數組外,ArrayBlockingQueue內部還

原创 Java讀寫文件Demo

Java按行讀取文件和寫文件Demo package com.basic; import java.io.BufferedReader; import java.io.FileInputStream; import java.io.Fi

原创 Oracle創建按時間戳分區表

1 建分區表 -- Create table create table PARTITION_TABLE ( field1 INTEGER, field2 VARCHAR2(32), field3 INTEGER,

原创 Linux 進入單用戶模式 修改root密碼

本方法只適用於GRUB引導的系統 1、開機出現如下畫面時,按任意鍵 2、進入如下界面 3、按【e】,進入如下界面 4、選擇kernel 5、按【e】進入如下界面(不同系統可能有所差別) 6、在末尾添加  “ sing

原创 Spark Scala Demo

SparkContext創建 val conf = new SparkConf().setAppName("AppName") val sc = new SparkContext(conf)讀取Hdfs文件 sc.textFile(pa

原创 Hdfs上文件 讀寫 工具類 Demo

讀取HDFS上文件Demo package com.utils; import java.io.IOException; import java.util.List; import org.apache.hadoop.fs.FSDat