原创 Shellcode 編碼、解碼

編碼程序: void main() { FILE *fp = NULL; fp = fopen("ShellCode.txt","w"); if( fp == NULL ) { system(

原创 搭建Hadoop環境(在winodws環境下用虛擬機虛擬兩個ubuntu系統進行搭建)

這是我2010年寫的hadoop搭建過程,現在重新發出來,當作hadoop學習的開始。 俗話說的好:計劃趕不上變化,這幾天還真在我身上應驗了。原計劃4小時完成,結果40小時才... 不寫篇日誌,簡直對不起我的一片苦心。 這週五計劃搭建H

原创 VC按鈕切換界面

void CMainFrame::OnIMan() { // TODO: Add your command handler code here CRect cr; GetClientRect(&cr); CS

原创 VC下劃分窗口並固定

  前幾天爲了程序的需要,連夜連晚的學習了VC下劃分窗口並固定的方法。過程是痛苦的,結果是可喜了。現將此方法總結一下,自己也可以再熟悉下。 程序所採用平臺爲Microsoft Visual C++6.0,將要得到如下效果   首先建立M

原创 windows下安裝nutch

上學期跟同學一起做了個校園搜索引擎,雖然最後是用lucene做的,但開始的時候還是安裝了nutch,安裝的經驗不能浪費了,所以也發佈出來。 準備軟件: jdk1.5.4    apache-tomcat-6.0.29 nutch-0.9

原创 緩衝溢出Shellcode 代碼

彙編程序: main() { __asm __emit 0x90 __asm __emit 0x90 __asm {

原创 Hadoop自定義讀取文件

今天從網上看到點數據,很適合用MapReduce來分析一下。一條記錄的格式如下:   [**] [1:538:15] NETBIOS SMB IPC$ unicode share access [**][Classification: G

原创 人民大學雲計算編程的網上評估平臺--解題報告 1004-1007

(http://youzitool.com 新博客,歡迎訪問) 因爲一次寫7道題,文章太長了,爲了方便大家閱讀,我分成了兩篇。 接着上一篇文章,我們繼續mapreduce編程之旅~~   1004: 題目   Single Table J

原创 人民大學雲計算編程的網上評估平臺--解題報告 1001-1003

(http://youzitool.com 新博客,歡迎訪問) 這幾天忙着找實習,所以日誌耽擱了,現在來補起~~。 相信很多人都知道  PKU Online Judge, 現在中國人民大學也提供了一個類似的平臺,但與北京在線評判系統不一

原创 線性哈希-line hash

(http://youzitool.com 新博客,歡迎訪問) 線性哈希是一種動態擴展哈希表的方法。 線性哈希的數學原理: 假定key = 5 、 9 、13 key % 4 = 1 現在我們對8求餘 5 % 8 = 5 9 % 8=1

原创 運用hadoop計算TF-IDF

(http://youzitool.com 新博客,歡迎訪問) 這幾天一直在忙着找暑假實習,實在沒精力來寫新的文章。剛好這幾天放假,我把前幾天做了的另一個例子拿出來跟大家分享一下。 這個例子是使用hadoop來實現TF-IDF。 TF-I

原创 hadoop下的程序測試及調試信息

(http://youzitool.com 新博客,歡迎訪問) 今天不是什麼新的內容,主要介紹下0.20版本下hadoop的調試、計數器、調試信息輸出等內容。 相信很多人學習hadoop都是從hadoop權威指南開始的,但權威指南使用的h

原创 MapReduce下的數據傳遞

好久沒寫點文章了,上一篇文章都是4月的了。實在不應該。實習是解決了,但隨後的事也多了去了。實驗報告、課程設計、比賽、論文、軟考、考試。我嘞個去,雜那麼多喲~~ 忙是忙,但還是不要忘裏學習。今天來討論上次做TF-IDF時遇到的問題---Ma

原创 java 新進程(ProcessBuilder) 遠程(Ganymed SSH-2)

轉載自: http://www.youzitool.com/index/detail/id/23.html 我們在日常開發中,有時候會遇到觸發一個linux命令,比如清理臨時文件,或者觸發一個shell命令。那麼這個時候就需要通過java

原创 Hadoop的MapReduce中多文件輸出

這兩天在網上看了個MapReduce的多文件輸出的帖子: http://blog.csdn.net/inkfish。寫的不錯。 我試着完成了一下。也是分爲三個文件:我這三個文件,跟原作者的稍有不同。其中有些類是我原來寫的,我直接拷貝過來的