任務095:SQLMAP自動注入(二)-REQUEST和SQLMAP自動注入(三)-OPTIMIZATION
-
設置時間參數
1.1設置掃描時間
用sqlmap去掃描別人的網站會發送大量的請求可能目標服務器會發現你給你屏蔽掉,我們可以設置發送包的時間--delay 要指定的時間 時間是秒
1.2設置超時時間
--timeout 要設置的時間 默認爲30秒,30要沒有響就超時了
1.3嘗試連接
--retries 要設置的次數 比如超時時間設置30妙那麼就是90妙
1.4請求錯誤
如果你發送大量的錯誤請求就會被防護機制被註銷掉可以用–safe-url每請求錯誤幾次就放送正常的請求--safe-url 要設置幾次
-
過濾日誌裏的沒有用的地址參數
--scope
sqlmap -l 日誌文件 --scope="(www)?\.target\.(com|net|org)“
解釋用日誌文件掃描目標,日誌文件可以有其他的不想掃描的地址可以用
--scope
進行過濾
--scope
代碼裏的意思,只掃描有www.target.com
或cet
或org
sqlmap -l 日誌文件 --scope="(19)?\.168\.20\.(1|10|100)" --level 3 --dbs
只掃描前面是
19(0-255).168.20.1
或10
或100
的地址
演示一下
看一下日誌有很多請求地址只掃描192.168.51.3或30或90裏面User-agent也注入測試--level>=3
命令sqlmap -l a --scope="(19)?\.168\.51\.(3|30|90)" --level 3 --dbs
只掃描文件裏19(0-255).168.51.3
或30
或90
的地址
-
不URL編碼加上這個參數
--skip-urlencode
-
每次請求前執行指定的python代碼進行請求的變量參數進行修改添加叫你每次請求的內容都不同
--eval="寫的腳步"
(三)-OPTIMIZATION
OPTIMIZATION:優化
-o 打開所有優化開關
--predict-output 預測公共查詢輸出
--keep-alive 使用永久HTTP(s)連接
--null-connection 沒有實際HTTP響應正文的頁長度
--threads=THREADS 最大併發HTTP(s)請求數(默認值1
-
-O
-O
就是用一個-O就是用代替下面的所有參數--predict-output 預測公共查詢輸出 --keep-alive 使用永久HTTP(s)連接 --null-connection 沒有實際HTTP響應正文的頁長度
-
–predict-output
-
通常sqlmap掃描時間不叫長可以用優化參數
-
根據檢測方法,比對返回值和統計表內容,不斷縮小檢測範圍,提高檢測效率
-
版本名、用戶名、密碼、Privileges、role、數據庫名稱、表名、列名
-
與 –threads 參數不兼容就是你用了–threads那就不能用了–predict-output
-
統計表默認位置:/usr/share/sqlmap/data/txtcommon-outputs.txt
-
-
–keep-alive
-
使用 http(s) 長連接,性能好
-
與 –proxy 參數不兼容就是你用了–proxy 那就不能用了 --keep-alive
-
長連接避免重複建立連接的網絡開銷,但大量長連接會嚴重佔用服務器資源(節省網絡開銷,但是會佔用服務器資源,防止重複建立連接時被服務器端檢測發現)
-
-
–null-connection
-
只獲取相應頁面的大小值,而非頁面具體內容
-
通常用於盲注判斷 真/假,降低網絡帶寬消耗
-
與–text-only參數不兼容(基於頁面內容的比較判斷 真/假
-
-
–threads
-
最大併發線程
-
盲注時每個線程獲取一個字符(7次請求)。獲取完成後線程結果
-
默認值爲1,建議不要超過10,否則可能影響站點可用性
-
與 --predict-output參數不兼容
-