最近自己也做了一下攻防世界的web題,自己作爲一個小白也分享一下自己的感受理解和自己的思路。
(大佬繞過)
話不多說進入正題:
1、view_source
直接F12查看源代碼
2、 robots
首先理解robots是什麼?
robots是網站跟爬蟲間的協議,用簡單直接的txt格式文本方式告訴對應的爬蟲被允許的權限,也就是說robots.txt是搜索引擎中搜索引擎網站的時候要查看的第一個文件。當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的範圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。
這上面的百度百科的,自己個人的瞭解就是:robots是一個協議,作用是告訴爬蟲robots裏面的內容不能被搜索引擎搜索引擎。
3、backup
這個題是一個備份文件的題,就是需要知道index.php的備份文件名字
php的備份文件有兩種,php的備份有兩種*.php~和*.php.bak
直接在URL後面添加 :eg:/index.php.bak
4、cookie
cookie是服務器發給瀏覽器的一個身份驗證信息的一個值,可以通過在瀏覽器控制檯輸入:document.cookie 獲得
或者在瀏覽器網絡裏面獲得
然後瀏覽器輸入/cookie.php
然後在瀏覽器網絡裏面查看http response
獲得flag
5、disabled_button
修改disabled改成:abled
就可以點擊flag
6、weak_auth
發現是一個登錄頁面,經過測試發現用戶名是admin,密碼可以通過burpsuite暴力破解,這裏我是直接輸入123456就登錄成功
7、simple_php
8、get_post
要了解get/post的方法
get簡單的說就是直接在url後面添加參數
post需要在http包裏面添加參數或者在Firefox的hackbar裏面可以直接添加參數
9、xff_referer
發現這個在根據前面的提示xff和referer可以修改
於是用burpsuite抓包
發現這個於是就在http包頭裏面添加
Referer:https://www.google.com
HTTP裏面的X-Forwarded-For:ip,主要是說明用什麼ip訪問eg:必須用127.0.0.1訪問
HTTP Referer是header的一部分,當瀏覽器向web服務器發送請求的時候,一般會帶上Referer,告訴服務器該網頁是從哪個頁面鏈接過來的,服務器因此可以獲得一些信息用於處理。(簡單的說就是告訴服務器上應該頁面是哪裏的)
10、webshell
直接用菜刀鏈接(密碼是shell)
ps:需要菜刀的可以網站下載(如果擔心有病毒)可以在評論區留言,我分享給大家(保證沒有病毒)
11、command_execution
這個題和dvwa上面的題有點一樣,自己最開始用127.0.0.1&&ipconfig測試沒有成功,後面看到了ttl值纔想起是linux系統
ps:一般來說Windows ping的ttl一般是大於100,linux一般是小於100
操作系統裏面的A&&B表示:先執行A在執行B。A|B:只執行B
然後輸入find命令查找flag文件
find / -name flag.* 意思是查找根目錄下面名字是flag.開頭的文件
發現在 /home/flag.txt下面
用cat命令查看這個文件
獲得flag
總結
上面都是自己的一些做法和理解,如果有錯誤希望大家指出,共同學習~
小白在進步~
ps:需要菜刀的可以在評論區留言~