今天小編就爲大家分享一篇golang抓取網頁並分析頁面包含的鏈接方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
1. 下載非標準的包,"golang.org/x/net/html"
2. 先安裝git,使用git命令下載
git clone https://github.com/golang/net
3. 將net包,放到GOROOT路徑下
比如:
我的是:GOROOT = E:\go\
所以最終目錄是:E:\go\src\golang.org\x\net
注意:如果沒有golang.org和x文件夾,就創建
4. 創建fetch目錄,在其下創建main.go文件,main.go文件代碼內容如下:
package main import ( "os" "net/http" "fmt" "io/ioutil" ) func main() { for _, url := range os.Args[1:] { resp, err := http.Get(url) if err != nil { fmt.Fprintf(os.Stderr, "fetch: %v\n", err) } b, err := ioutil.ReadAll(resp.Body) resp.Body.Close() if err != nil { fmt.Fprintf(os.Stderr, "fetch: reading %s: %v\n", url, err) os.Exit(1) } fmt.Printf("%s",b) } }
5. 編譯fetch
go build test.com\justin\demo\fetch
注意:test.com\justin\demo\ 是我的項目路徑,具體編譯根據自己項目路徑編譯。
6. 執行fetch.exe 文件
fetch.exe https://www.qq.com
注意:https://www.qq.com是要爬的網址,配置正確的話,會打印出網址的HTML內容。如果沒有,請檢查以上步驟是否正確。
7. 網頁已經抓取了,那麼剩下就分析頁面包含的鏈接了,創建findlinks目錄,在其下創建main.go文件,main.go文件代碼內容如下:
package main import ( "os" "fmt" "golang.org/x/net/html" ) func main() { doc, err := html.Parse(os.Stdin) if err != nil { fmt.Fprint(os.Stderr, "findlinks: %v\n", err) os.Exit(1) } for _, link := range visit(nil, doc) { fmt.Println(link) } } func visit(links []string, n *html.Node) []string { if n.Type == html.ElementNode && n.Data == "a" { for _, a := range n.Attr { if a.Key == "href" { links = append(links, a.Val) } } } for c := n.FirstChild; c != nil; c = c.NextSibling { links = visit(links, c) } return links }
8. 編譯findlinks
go build test.com\justin\demo\findlinks
注意:test.com\justin\demo\ 是我的項目路徑,具體編譯根據自己項目路徑編譯。
9. 執行findlinks.exe 文件
fetch.exe https://www.qq.com | findlinks.exe
> 10. 執行後結果:獲取到各種不同形式的超鏈接
以上這篇golang抓取網頁並分析頁面包含的鏈接方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持神馬文庫。