原创 python知識積累(三)字符串處理

用base64加/解密 import base64 a = "this is a test" b = base64.encodestring(a) # 對字符串編碼 print b print base64.decodestring(

原创 雙目運算符&&和||

  結果都是func1 說明&&和||只要第一個符合條件,就不在判斷下去了。 因爲,這兩個運算符的結合都是從左往右的。 點贊 收藏 分享 文章舉報 codingkid 發佈了8

原创 海量數據處理的幾種方法總結

上篇文章羅嗦的講解了爲何要處理海量數據。 除了用數據庫和調整硬件和os,軟件這裏可以做的工作也很多,而且也更加靈活。 其實海量數據處理不外乎以下這思想: 劃分->處理->歸併(聚集) 當然有的時候根據最終目的不同,有可能處理過程中就可以扔

原创 perl和python

最近總在perl和python間切換作業,兩者語法大不相同,機制也有些差別,忍不住吐槽一下。 語言之間優劣的比較是毫無意義的,因爲各有所長: perl內建了正則 python內建複數型別 perl擅長文字處理,python擅長數值處理.

原创 GNUPLOT畫圖工具

不得不說這個工具實在是太強大了。 1.首先命令簡單,不會有那麼多的語法問題。 2.其次畫圖速度非常快,因爲輸入數據是文本格式,輸出格式如果也是文本就是眨眼功夫感覺不到渲染,當然輸出格式非常豐富。 3.還有跨平臺性能也很好,linux和wi

原创 HTTP報文解析器

1. 首先main函數裏給全局接收參數的變量賦值 2. socket連接,監聽通過該服務器的報文 3. 由於client是一個FILE *類型,即一個文件緩衝區,可以把buffer還原成爲一個request結構體裏。 4. 發出re

原创 slab夥伴系統

slab是Linux操作系統的一種內存分配機制。其工作是針對一些經常分配並釋放的對象,如進程描述符等,這些對象的大小一般比較小,如果直接採用夥伴系統來進行分配和釋放,不僅會造成大量的內碎片,而且處理速度也太慢。而slab分配器是基於對象進

原创 OMNET++工具的使用(2)

首先解決一些概念上的問題: 1. 在omnetpp.org中提到的仿真模型和框架與OMNet++是什麼關係? OMNet++提供了基本的工具和機制來編寫仿真代碼,但它本身並不提供任何特定用於計算機網絡仿真,系統架構仿真和任意其它領域的組件

原创 ping和traceroute

看了看ping和traceroute的源碼,對比了一下這兩個基於ip層協議的應用小程序。 雖然實現原理都比較簡單,卻是十分有用的檢測工具。 ping就像是潛水艇發射的雷達聲波,發出一個icmp回顯請求,等待接收icmp回顯應答。 打印出

原创 Windows下安裝ns2-2.29和leach各種方法和遇到的問題

兩天內嘗試了n種方法,分別在windows和ubuntu下安裝了2.27 2.29 2.35ns2,之後又在各個版本ns2上安裝了mit和mannaSim的leach,純手工編譯和修改歷史遺留bug,真是生命不息折騰不止呀! 剛開始同時安

原创 ubuntu下vim的配置和改造

如果想所有用戶生效 請修改 /etc/vimrc (建議先cp一份),若只對當前用戶則增加~/.vimrc這個文件。 我的簡單配置如下: 1 set nocompatible 2 set number 3 set rule

原创 虛擬機virtualBox安裝Ubuntu全過程詳解|Ubuntu降低gcc版本

從ubuntu8.04開始就已經是4.2版的gcc了,而很多情況下,由於一些歷史遺留源碼,特別是學嵌入式的目前最高支持2.6版的內核,因而需要降低gcc版本來編譯。 正在更新源,閒來無事順便把整個過程都細述一下好了: 1.virtualb

原创 挨踢生涯

 本文所指的開發工程師,僅指程序開發人員和以數字電路開發爲主的電子工程師。當你選擇計算機或者電子、自控等專業進入大學時,你本來還是有機會從事其它行業的,可你畢業時執迷不悟,仍然選擇了開發做爲你的職業,真是自做孽不可活。不過,歡迎你和我一樣

原创 讓source insight支持tcl/tk

轉自:http://www.51testing.com/?uid-6165-action-viewspace-itemid-82509 先去下面的地址下載所有的tcl.clf文件  http://www.sourceinsight.

原创 2014第一篇

這一年真的挺忙,沒給自己找藉口,還是堅持做筆記,只是沒有寫博客。 總結一下收穫: 1. Git不算是專家,基本精髓已經掌握,是個好東西,以後都在GitHub上搞project了。 2. 性能優化。 數據量不算是海量級別,但也算是做了些基本