原创 linux tr 命令詳解

    通過使用 tr,您可以非常容易地實現 sed 的許多最基本功能。您可以將 tr 看作爲 sed 的(極其)簡化的變體:它可以用一個字符來替換另一個字符,或者可以完全除去一些字符。您也可以用它來除去重複字符。這就是所有 tr 所能夠

原创 33款可用來抓數據的開源爬蟲軟件工具

要玩大數據,沒有數據怎麼玩?這裏推薦一些33款開源爬蟲軟件給大家。爬蟲,即網絡爬蟲,是一種自動獲取網頁內容的程序。是搜索引擎的重要組成部分,因此搜索引擎優化很大程度上就是針對爬蟲而做出的優化。網絡爬蟲是一個自動提取網頁的程序,它爲搜索引擎從

原创 Mysqldump參數大全(參數來源於mysql5.5.19源碼)

Mysqldump參數大全(參數來源於mysql5.5.19源碼) 參數說明 --all-databases , -A 導出全部數據庫。 mysqldump -uroot -p --all-databases --a

原创 Redis數據備份和重啓恢復

一、對Redis持久化的探討與理解 目前Redis持久化的方式有兩種: RDB 和 AOF 首先,我們應該明確持久化的數據有什麼用,答案是用於重啓後的數據恢復。Redis是一個內存數據庫,無論是RDB還是AOF,都只是其保證數據恢復的措施。

原创 tar: Removing leading `/' from member names

壓縮tar: Removing leading `/’ from member names這個錯誤根據網上的很多說法都是誰 缺少-P參數造成的,只需要使用 -zcvfP即可解決問題,經驗證並不是 網上很多文章都是互相抄寫的,我引起的這個問題

原创 MongoDB導入導出以及數據庫備份

-------------------MongoDB數據導入與導出-------------------1、導出工具:mongoexport1、概念:mongoDB中的mongoexport工具可以把一個collection導出成JSON格

原创 ulimit -SHn 65535

ulimit -SHn 65535 含義linux下用ulimit設置連接數最大值,默認是1024.在高負載下要設置爲更高,但最高只能爲65535.ulimit只能做臨時修改,重啓後失效。可以加入ulimit -SHn 65535到 /et

原创 我的友情鏈接

51CTO博客開發林肯一方有

原创 批量刪除

#批量刪除隱藏文件find /abc/ -name ".svn*" -type f  | xargs -n 1 rm -ffind /abc/ -name "._*" -type f | xargs -n 1 rm -frfind /abc

原创 MongoDB導入導出以及數據庫備份

-------------------MongoDB數據導入與導出-------------------1、導出工具:mongoexport1、概念:mongoDB中的mongoexport工具可以把一個collection導出成JSON格

原创 7Z壓縮命令行詳解

Usage: 7za <command> [<switches>...] <archive_name> [<file_names>...]br/>[<@listfiles...>]<Commands>a : Add files to arc

原创 Redis數據備份和重啓恢復

一、對Redis持久化的探討與理解 目前Redis持久化的方式有兩種: RDB 和 AOF 首先,我們應該明確持久化的數據有什麼用,答案是用於重啓後的數據恢復。Redis是一個內存數據庫,無論是RDB還是AOF,都只是其保證數據恢復的措施。

原创 tar: Removing leading `/' from member names

壓縮tar: Removing leading `/’ from member names這個錯誤根據網上的很多說法都是誰 缺少-P參數造成的,只需要使用 -zcvfP即可解決問題,經驗證並不是 網上很多文章都是互相抄寫的,我引起的這個問題

原创 Mysqldump參數大全(參數來源於mysql5.5.19源碼)

Mysqldump參數大全(參數來源於mysql5.5.19源碼) 參數說明 --all-databases , -A 導出全部數據庫。 mysqldump -uroot -p --all-databases --a

原创 33款可用來抓數據的開源爬蟲軟件工具

要玩大數據,沒有數據怎麼玩?這裏推薦一些33款開源爬蟲軟件給大家。爬蟲,即網絡爬蟲,是一種自動獲取網頁內容的程序。是搜索引擎的重要組成部分,因此搜索引擎優化很大程度上就是針對爬蟲而做出的優化。網絡爬蟲是一個自動提取網頁的程序,它爲搜索引擎從