跟踪链接实现python爬虫

爬取网页内容首先要做的就是得到链接,以下是得到链接的代码:

#coding=utf-8

import urllib2	# 引入需要用的模块
import re

# 下载网页源代码
def download(url,user_agent = 'wswp',num_retries = 2):
    '''
    @user_agent:设置代理
    @num_retries:设置重新下载的次数
    '''
    print 'Downloading:',url
    headers = {'User-agent':user_agent}     
    request = urllib2.Request(url)
    try:     # 异常处理
        html = urllib2.urlopen(request).read()
    except urllib2.URLError as e:
        print 'Download error:',e.reason    # 输出错误原因
        html = None
        if num_retries > 0:         
            if hasattr(e,'code') and 500 <= e.code < 600:
                # 当错误提示中包含错误代码而且代码是500~600之间的数字时,执行下列代码
                download(url,user_agent,num_retries - 1)
    return html


# 得到html文件中的链接
def get_links(html):
    webpage_regex = re.compile('<a[^>]+href=["\'](.*?)["\']',re.IGNORECASE)
    return webpage_regex(html)

# 抓取链接
def link_crawler(seed_url,link_regex):
    crawl_queue = [seed_url]
    while crawl_queue:
        url = crawl_queue.pop()
        html = download(url)
        for link in get_links(html):	# 遍历get_links(html)得到的列表
            if re.match(link_regex,link):	# 判断link是否符合给定的正则表达式
                crawl_queue.append(link)
                
# 调用link_crawler函数
link_crawler('http://example.webscraping.com','/[index|view]')
以上为完整的程序代码。对于正则表达式的相关知识,可以看http://www.cnblogs.com/huxi/archive/2010/07/04/1771073.html,个人认为这篇博文挺好的。

由于在一些网页中会存在相对链接,上面的代码就不中用了。可以看下面完善的代码(需要引入urlparse模块):

def link_crawler(seed_url,link_regex):
    crawl_queue = [seed_url]
    while crawl_queue:
        url = crawl_queue.pop()
        html = download(url)
        for link in get_links(html):
            if re.match(link_regex,link):
                link = urlparse.urljoin(link)		# 将相对url地址改为绝对url地址
                crawl_queue.append(link)
这时,相对链接的问题就解决了,但是还有一个问题,那就是重复链接的问题。不废话了,看下面的代码:

def link_crawler(seed_url,link_regex):
    crawl_queue = [seed_url]
    # set函数用于输出不带重复内容的列表(列表中的重复内容会被删掉)
    seen = set(crawl_queue)     # 访问过得链接
    while crawl_queue:
        url = crawl_queue.pop()
        html = download(url)
        for link in get_links(html):   
            if re.match(link_regex,link):
                link = urlparse.urljoin(link)
                if link not in seen:    # 判断此链接是否在已访问链接列表中
                    seen.add(link)
                    crawl_queue.append(link)    
ok了,终于可以爬取网页中所包含的所有链接了,而且还是逐层访问哦。



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章