0x01view source
題目
Where is the FLAG
查看頁面源代碼,但是右鍵好像不管用了~
writeup
F12查看,發現flag
0x02get post
題目
GET&POST
writeup
首先用GET方式提交一個名爲a,值爲1的變量
在Firefox中,有個很好用的HackBar
再按照提示,以POST方式提交一個名爲b,值爲2的變量
得到flag~
知識點
1、HTTP請求方法:
GET、POST、HEAD、OPTION、PUT、DELETE、TRACE、CONNECT
2、HTTP請求報文(GET)
GET / HTTP/1.1
Host: 111.198.29.45:51161
User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:66.0) Gecko/20100101 Firefox/66.0
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Accept-Language: zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2
Accept-Encoding: gzip, deflate
Connection: close
Upgrade-Insecure-Requests: 1
Cache-Control: max-age=0
---這裏有一個空行---
3、用GET方式提交一個名爲a,值爲1的變量~
GET /?a=1 HTTP/1.1
Host: 111.198.29.45:51161
User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:66.0) Gecko/20100101 Firefox/66.0
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Accept-Language: zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2
Accept-Encoding: gzip, deflate
Connection: close
Upgrade-Insecure-Requests: 1
Cache-Control: max-age=0
---這裏有一個空行---
4、以POST方式提交一個名爲b,值爲2的變量~
POST /?a=1 HTTP/1.1
Host: 111.198.29.45:51161
User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:66.0) Gecko/20100101 Firefox/66.0
Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Accept-Language: zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2
Accept-Encoding: gzip, deflate
Content-Type: application/x-www-form-urlencoded
Connection: close
Upgrade-Insecure-Requests: 1
Cache-Control: max-age=0
---這裏有一個空行---
b=2
注意~POST與GET有一個明顯不同
Content-Type: application/x-www-form-urlencoded //POST中才有~
本題可不用HackBar,利用burpsuit對HTTP的請求報文作如上改動即可
0x03Robots
題目
(進入頁面~啥都沒有。。。)
writeup
查看頁面源代碼~
再結合題目,考慮到robots協議
於是嘗試讀取robots.txt
嘗試讀取f1ag_1s_h3re.php
得到flag~
知識點
robots協議
Robots協議(也稱爲爬蟲協議、機器人協議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。
robots.txt文件是一個文本文件。robots.txt是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什麼文件是可以被查看的。
當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的範圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。
-
文件寫法
User-agent: * //這裏的*代表的所有的搜索引擎種類,*是一個通配符 Disallow: /admin/ //這裏定義是禁止爬尋admin目錄下面的目錄 Disallow: /require/ //這裏定義是禁止爬尋require目錄下面的目錄 Disallow: /ABC/ //這裏定義是禁止爬尋ABC目錄下面的目錄 Disallow: /cgi-bin/*.htm //禁止訪問/cgi-bin/目錄下的所有以".htm"爲後綴的URL(包含子目錄)。 Disallow: /*?* //禁止訪問網站中所有包含問號 (?) 的網址 Disallow: /.jpg$ //禁止抓取網頁所有的.jpg格式的圖片 Disallow:/ab/adc.html //禁止爬取ab文件夾下面的adc.html文件。 Allow: /cgi-bin/ //這裏定義是允許爬尋cgi-bin目錄下面的目錄 Allow: /tmp //這裏定義是允許爬尋tmp的整個目錄 Allow: .htm$ //僅允許訪問以".htm"爲後綴的URL。 Allow: .gif$ //允許抓取網頁和gif格式圖片 Sitemap: 網站地圖 //告訴爬蟲這個頁面是網站地圖
禁止所有機器人訪問
User-agent: *
Disallow: /
允許所有機器人訪問
User-agent: *
Disallow:
禁止特定機器人訪問
User-agent: BadBot
Disallow: /
允許特定機器人訪問
User-agent: GoodBot
Disallow:
禁止訪問特定目錄
User-agent: *
Disallow: /images/
僅允許訪問特定目錄
User-agent: *
Allow: /images/
Disallow: /
禁止訪問特定文件
User-agent: *
Disallow: /*.html$
僅允許訪問特定文件
User-agent: *
Allow: /*.html$
Disallow: /
0x04Backup
題目
writeup
根據提示,index.php的備份文件,於是得到index.php.bak
下載,打開後,得到flag~
附源碼~
<html>
<head>
<meta charset="UTF-8">
<title>備份文件</title>
<link href="http://libs.baidu.com/bootstrap/3.0.3/css/bootstrap.min.css" rel="stylesheet" />
<style>
body{
margin-left:auto;
margin-right:auto;
margin-TOP:200PX;
width:20em;
}
</style>
</head>
<body>
<h3>你知道index.php的備份文件名嗎?</h3>
<?php
$flag="cyberpeace{18322dfdf58323dc57f478a2316fb0a9}"
?>
</body>
</html>
知識點
.php.bak
是在編輯這個文件時,自動生成的備份文件。
如果編輯後沒有什麼問題,可以刪除.BAK文件。
0x05Cookie
題目
writeup
根據提示,利用burpsuit查看cookie
於是,查看cookie.php
根據提示,再次利用burpsuit查看http response
得到flag~
0x06disable button
題目
writeup
F12查看
發現
disable=""
將其刪除,恢復按鈕功能
點擊按鈕,得到flag~