網站生成靜態頁面攻略祕籍

生成HTML方法主要步驟只有兩個:

一、獲取要生成的html文件的內容
二、將獲取的html文件內容保存爲html文件

我在這裏主要說明的只是第一步:如何獲取要生成的html文件的內容:

目前常用獲取html文件的內容的方法有幾下幾種:

1、這種方法與是在腳本內寫要生成的html內容,不太方便預覽生成頁面的內容,無法可視化佈局頁面,更改html模板時會更加複雜。用這種方法的人很多,但我感覺這種方法是最不方便的。

str="<html標記>內容</html標記>"
str=str&"<html標記>內容</html標記><html標記>數據庫讀取內容....</html標記>....."

2、製作單獨的HTML模板頁,動態的內容用特定的字符作爲標記(如:有人用$title$標記爲網頁標題),用ADODB.Stream或者Scripting.FileSystemObject將其模板內容載入,然後再用替換方法把原先定好的標記替換爲動態內容(如:Replace(載入的模板內容,"$title$",rs("title" ) ) )。

3、用XMLHTTP或serverXMLHTTP獲取動態頁所顯示的HTML內容:

我常用的生成html文件的實例:
'weburl是要獲取的動態頁地址
'getHTTPPage(weburl)是獲取動態頁內容的函數
weburl="http://"&Request.ServerVariables("SERVER_NAME")&"/contact.asp?id="&rs("id")&""‘指定動態頁地址
body=getHTTPPage(weburl)'用函數取到動態頁地址的內容

此方法最大的好處就是不用費力氣專門去寫靜態的模板頁面,只是將原來就有的動態頁面轉換爲HTML靜態頁面,但生成速度不是太快。

我常用的生成HTML的方法就是第3種:用XMLHTTP獲取動態頁生成的HTML內容,再用ADODB.Stream或者Scripting.FileSystemObject保存成html文件。

第二步是生成文件的方法:

ASP裏常用的有用ADODB.Stream生成文件和Scripting.FileSystemObject生成文件兩種:

1、Scripting.FileSystemObject生成文件方法:
Set fso = CreateObject("Scripting.FileSystemObject")
File=Server.MapPath("要生成文件路徑和文件名.htm")
Set txt=fso.OpenTextFile(File,8,True) 
data1="文件內容"用WriteLine方法生成文件
txt.WriteLine data1
data2="文件內容"'用Write方法生成文件
txt.Write data2
txt.Close
txt.fso

2、ADODB.Stream生成文件方法:

 


Dim objAdoStream
set objAdoStream = Server.createObject("ADODB.Stream")
objAdoStream.Type = 1
objAdoStream.Open()
objAdoStream.Write("文件內容")
objAdoStream.SaveToFile 要生成文件路徑和文件名.htm,2
objAdoStream.Close()

 

採集原理:

採集程序的主要步驟如下:

一、獲取被採集的頁面的內容
二、從獲取代碼中提取所有用的數據

一、獲取被採集的頁面的內容

我目前所掌握的ASP常用獲取被採集的頁面的內容方法:

1、用serverXMLHTTP組件獲取數據

Function GetBody(weburl) 

'創建對象
Dim ObjXMLHTTP
Set ObjXMLHTTP=Server.CreateObject("MSXML2.serverXMLHTTP")
'請求文件,以異步形式
ObjXMLHTTP.Open "GET",weburl,False
ObjXMLHTTP.send
While ObjXMLHTTP.readyState <> 4
ObjXMLHTTP.waitForResponse 1000
Wend
'得到結果
GetBody=ObjXMLHTTP.responseBody
'釋放對象
Set ObjXMLHTTP=Nothing
End Function

調用方法:GetBody(文件的URLf地址)

2、或XMLHTTP組件獲取數據

Function GetBody(weburl) 

'創建對象
Set Retrieval = CreateObject("Microsoft.XMLHTTP") 
With Retrieval 
.Open "Get", weburl, False, "", "" 
.Send 
GetBody = .ResponseBody
End With 
'釋放對象
Set Retrieval = Nothing 

End Function

調用方法:GetBody(文件的URLf地址)

這樣獲取的數據內容還需要進行編碼轉換纔可以使用

Function BytesToBstr(body,Cset)
dim objstream
set objstream = Server.CreateObject("adodb.stream")
objstream.Type = 1
objstream.Mode =3
objstream.Open
objstream.Write body
objstream.Position = 0
objstream.Type = 2
objstream.Charset = Cset
BytesToBstr = objstream.ReadText 
objstream.Close
set objstream = nothing

End Function

調用方法:BytesToBstr(要轉換的數據,編碼)'編碼常用爲GB2312和UTF-8。

二、從獲取代碼中提取所有用的數據

1、用ASP內置的MID函數截取需要的數據

Function body(wstr,start,over)

start=Newstring(wstr,start)
'設置需要處理的數據的唯一的開始標記
over=Newstring(wstr,over)
'和start相對應的就是需要處理的數據的唯一的結束標記
body=mid(wstr,start,over-start)
'設置顯示頁面的範圍

End Function

調用方法:body(被採集的頁面的內容,開始標記,結束標記)

2、用正則獲取需要的數據

Function body(wstr,start,over)

Set xiaoqi = New Regexp'設置配置對象
xiaoqi.IgnoreCase = True'忽略大小寫
xiaoqi.Global = True'設置爲全文搜索
xiaoqi.Pattern = "”&start&“.+?”&over&“"'正則表達式 
Set Matches =xiaoqi.Execute(wstr)'開始執行配置
set xiaoqi=nothing 
body=""
For Each Match in Matches
body=body&Match.Value '循環匹配
Next
'
End Function

調用方法:body(被採集的頁面的內容,開始標記,結束標記)

採集程序祥細思路:

1、取得網站的分頁列表頁的每頁地址
目前絕大部分動態網站的分頁地址都有規則,如:
動態頁
第一頁:index.asp?page=1
第二頁:index.asp?page=2
第三頁:index.asp?page=3
.....

靜態頁
第一頁:page_1.htm
第二頁:page_2.htm
第三頁:page_3.htm
.....

取得網站的分頁列表頁的每頁地址,只需要用變量替代每頁地址的變化的字符即可如:page_<%="&page&"%>.htm

2、獲取被採集網站的分頁列表頁內容

3、從分頁列表代碼中提取[color=Blue]被採集的內容頁面的URL連接地址[/color]
絕大部分分頁頁面裏的內容頁連接也有固定規則,如:
<a href="url1">連接1</a> <br>
<a href="url2">連接2</a> <br>
<a href="url3">連接3</a> <br>

用以下代碼就可以獲得一個URL連接集合
Set xiaoqi = New Regexp
xiaoqi.IgnoreCase = True
xiaoqi.Global = True
xiaoqi.Pattern = ””“.+?”““
Set Matches =xiaoqi.Execute(頁面列表內容)
set xiaoqi=nothing 
url=""
For Each Match in Matches
url=url&Match.Value 
Next

4、取得被採集的內容頁面內容,根據”提取標記“從被採集的內容頁面分別截取要取得的數據。

因爲是動態生成的頁面,大多數內容頁面內都有相同的html標記,我們可以根據這些有規則的標記提取需要的各個部分的內容。如:

每個頁面都有網頁標題<title>網頁標題</title>,用我上面寫的MID截取函數就可以獲得<title></title>之間的值,也可以用正則表達式來獲得。
例:body("<title>網頁標題</title>","<title>","</title>")

目前防採集的方法有很多種,先介紹一下常見防採集策略方法和它的弊端及採集對策:

一、判斷一個IP在一定時間內對本站頁面的訪問次數,如果明顯超過了正常人瀏覽速度,就拒絕此IP訪問

弊端:
1、此方法只適用於動態頁面,如:asp\jsp\php等...靜態頁面無法判斷某個IP一定時間訪問本站頁面的次數。
2、此方法會嚴重影響搜索引擎蜘蛛對其收錄,因爲搜索引擎蜘蛛收錄時,瀏覽速度都會比較快而且是多線程。此方法也會拒絕搜索引擎蜘蛛收錄站內文件
採集對策:只能放慢採集速度,或者不採
建議:做個搜索引擎蜘蛛的IP庫,只允許搜索引擎蜘蛛快速瀏覽站內內容。搜索引擎蜘蛛的IP庫的收集,也不太容易,一個搜索引擎蜘蛛,也不一定只有一個固定的IP地址。
評論:此方法對防採集比較有效,但卻會影響搜索引擎對其收錄。

二、用javascript加密內容頁面

弊端:此方法適用於靜態頁面,但會嚴重影響搜索引擎對其收錄情況,搜索引擎收到到的內容,也都是加密後的內容
採集對策:建議不採,如非要採,就把解密碼的JS腳本也採下來。
建議:目前沒有好的改良建議
評論:建議指望搜索引擎帶流量的站長不要使用此方法。

三、把內容頁面裏的特定標記替換爲[color=Red]”特定標記+隱藏版權文字“[/color]

弊端:此方法弊端不大,僅僅會增加一點點的頁面文件大小,但容易反採集
採集對策:把採集來的含有隱藏版權文字內容的版權文字替掉,或替換成自己的版權。
建議:目前沒有好的改良建議
評論:自己感覺實用價值不大,就算是加上隨機的隱藏文字,也等於畫蛇添足。

四、只允許用戶登陸後纔可以瀏覽

弊端:此方法會嚴重影響搜索引擎蜘蛛對其收錄
採集對策:目前落伍已經有人發了對策文章 ,具體對策就看這個吧《ASP小偷程序如何利用XMLHTTP實現表單的提交以及cookies或session的發送》
建議:目前沒有好的改良建議
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的採集程序,還是有點效果的。

五、用javascript、vbscript腳本做分頁

弊端:影響搜索引擎對其收錄
採集對策:分析javascript、vbscript腳本,找出其分頁規則,自己做個對應此站的分頁集合頁即可。
建議:目前沒有好的改良建議
評論:感覺懂點腳本語言的人都能找出其分頁規則

六、只允許通過本站頁面連接查看,如:Request.ServerVariables("HTTP_REFERER")

弊端:影響搜索引擎對其收錄
採集對策:不知道能不能模擬網頁來源。。。。目前我沒有對應此方法的採集對策
建議:目前沒有好的改良建議
評論:建議指望搜索引擎帶流量的站長不要使用此方法。不過此方法防一般的採集程序,還是有點效果的。

從以上可以看出,目前常用的防採集方法,要麼會對搜索引擎收錄有較大影響,要麼防採集效果不好,起不到防採集的效果。那麼,還有沒有一種有效防採集,而又不影響搜索引擎收錄的方法呢?那就請繼續往下看吧!

從前面的我講的採集原理大家可以看出,絕大多數採集程序都是靠分析規則來進行採集的,如分析分頁文件名規則、分析頁面代碼規則。

一、分頁文件名規則防採集對策

大部分採集器都是靠分析分頁文件名規則,進行批量、多頁採集的。如果別人找不出你的分頁文件的文件名規則,那麼別人就無法對你的網站進行批量多頁採集。

實現方法:

我認爲用MD5加密分頁文件名是一個比較好的方法,說到這裏,有人會說,你用MD5加密分頁文件名,別人根據此規則也可以模擬你的加密規則得到你的分頁文件名。

我要指出的是我們加密分頁文件名時,不要只加密文件名變化的部分

如果I代表分頁的頁碼,那麼我們不要這樣加密:page_name=Md5(I,16)&".htm"

最好給要加密的頁碼上再跟進一個或多個字符,如:page_name=Md5(I&"任意一個或幾個字母",16)&".htm"

因爲MD5是無法反解密的,別人看到的會頁字母是MD5加密後的結果,所以加人也無法知道你在 I 後面跟進的字母是什麼,除非他用暴力****MD5,不過不太現實。

二、頁面代碼規則防採集對策

如果說我們的內容頁面無代碼規則,那麼別人就無法從你的代碼中提取他們所需要的一條條內容。所以我們要的這一步做到防採集,就要使代碼無規則。

實現方法:

使對方需要提取的標記隨機化

1、定製多個網頁模板,每個網頁模板裏的重要HTML標記不同,呈現頁面內容時,隨機選取網頁模板,有的頁面用CSS+DIV佈局,有的頁面用table佈局,此方法是麻煩了點,一個內容頁面,要多做幾個模板頁面,不過防採集本身就是一件很煩瑣的事情,多做一個模板,能起到防採集的作用,對很多人來說,都是值得的。
2、如果嫌上面的方法太麻煩,把網頁裏的重要HTML標記隨機化,也可以。

做的網頁模板越多,html代碼越是隨機化,對方分析起內容代碼時,就越麻煩,對方針對你的網站專門寫採集策略時,難度就更大,在這個時候,絕大部分人,都會知難而退,因爲這此人就是因爲懶,纔會採集別人網站數據嘛~~~再說一下,目前大部分人都是拿別人開發的採集程序去採集數據,自己開發採集程序去採集數據的人畢竟是少數。

還有些簡單的思路提供給大家:

1、把對數據採集者重要,而對搜索引擎不重要的內容用客戶端腳本顯示
2、把一頁數據,分爲N個頁面顯示,也是加大采集難度的方法
3、用更深層的連接,因爲目前大部分採集程序只能採集到網站內容的前3層,如果內容所在的連接層更深,也可以避免被採集。不過這樣可能會給客戶造成瀏覽上的不便。如:

大多網站都是 首頁----內容索引分頁----內容頁
如果改成:
首頁----內容索引分頁----內容頁入口----內容頁
注:內容頁入口最好能加上自動轉入內容頁的代碼

<meta http-equiv="refresh" content="6;url=內容頁(http://www.xiaoqi.net)">

其實,只要做好防採集的第一步(加密分頁文件名規則),防採集的效果就已經不錯了,還是建議兩條反採集方法同時使用,給採集者增加採集難度,使得他們知難頁退。

發佈了42 篇原創文章 · 獲贊 3 · 訪問量 11萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章