原创 Eclipse開發Java前配置
字體設置 Window->Preferences->General->Apperance->Colors and Fonts->Basic->Text Font->Edit(Consolas 常規 小四) 自己喜歡就好 工作空間默認編碼
原创 Oracle 恢復被刪除的表/數據
恢復被delete的數據 假設表名稱爲:table_delete 查看系統當前時間 --獲得系統當前時間 select to_char(sysdate,'yyyy-mm-dd hh24:mi:ss') from dual;
原创 Linux環境下Oracle服務端啓停
啓停Oracle服務 登錄Oracle服務所在的服務器 [root@localhost ~]# su oracle [oracle@localhost ~]$ sqlplus /nolog SQL> connect /as sysdb
原创 Hadoop集羣啓動順序和部分命令整理
Hadoop集羣啓動順序 zookeepeer->hadoop->hbase Hadoop集羣關閉順序 hbase->hadoop->zookeepeer Hadoop 主備節點狀態查看與手動切換 $HADOOP_HOME/bin/h
原创 Oracle sqlload 腳本
#!/bin/bash ################## #@author: chichuduxing #@date: 20160913 ################## #加載環境變量(需要加載oracle的環境變量,根據安裝
原创 VMware 虛擬機克隆或者導入後網絡問題處理
1、查看當前網卡的MAC地址 ifconfig -a 2、修改文件中的MAC地址 vim /etc/udev/rules.d/70-persistent-net.rules 3、查看網卡UUID service NetworkMana
原创 Java 序列化與反序列化 工具類 Demo
測試對象 package com.basic.serialize; import java.io.Serializable; /** * @author chichuduxing * @date 2017年2月3日 下午12:12
原创 Linux Shell腳本學習 筆記整理
指定腳本解釋器 #!/bin/bash 注意: 1、該聲明只能放在腳本的首行,說明該腳本使用bash解釋器來解釋執行,否則會被當成註釋 2、bash必須使用絕對路徑 3、該聲明只在腳本作爲可執行程序,通過./test.sh調用是纔
原创 分享一個查看Hdfs目錄下文件大小的腳本,支持排序
#!/bin/bash ################## #@author: chichuduxing #@date: 20161011 ################## ##加載Hadoop環境變量 ##略過 functio
原创 Java常用的2種阻塞隊列ArrayBlockingQueue和LinkedBlockingQueue
ArrayBlockingQueue 基於數組的阻塞隊列實現,在ArrayBlockingQueue內部,維護了一個定長數組,以便緩存隊列中的數據對象,這是一個常用的阻塞隊列,除了一個定長數組外,ArrayBlockingQueue內部還
原创 Java讀寫文件Demo
Java按行讀取文件和寫文件Demo package com.basic; import java.io.BufferedReader; import java.io.FileInputStream; import java.io.Fi
原创 Oracle創建按時間戳分區表
1 建分區表 -- Create table create table PARTITION_TABLE ( field1 INTEGER, field2 VARCHAR2(32), field3 INTEGER,
原创 Linux 進入單用戶模式 修改root密碼
本方法只適用於GRUB引導的系統 1、開機出現如下畫面時,按任意鍵 2、進入如下界面 3、按【e】,進入如下界面 4、選擇kernel 5、按【e】進入如下界面(不同系統可能有所差別) 6、在末尾添加 “ sing
原创 Spark Scala Demo
SparkContext創建 val conf = new SparkConf().setAppName("AppName") val sc = new SparkContext(conf)讀取Hdfs文件 sc.textFile(pa
原创 Hdfs上文件 讀寫 工具類 Demo
讀取HDFS上文件Demo package com.utils; import java.io.IOException; import java.util.List; import org.apache.hadoop.fs.FSDat