截取URL的域名並記錄次數

題目:
對TXT文件中的每一條URL進去截取域名並記錄出現的次數,如:http://www.baidu.com,最後進行存儲

def cut(rows):
	"""
	同樣可以利用正則表達式提取
	"""
    contect = rows.rsplit("http")[1]
    contect = str(contect.rsplit("com/")[0] + "com")
    contect = str("http" + contect)
    return contect

#判斷listHttp_dict 是否存在這個元素
def elementDecide(contect):
    num = 1
    if contect in listHttp_dict:
        listHttp_dict[contect] = int(listHttp_dict.get(contect)) + 1
    else:
        listHttp_dict.update({contect: num})
        pass


def openFind():
    # ss = open("/Users/admin/Desktop/Host.txt", 'r').readline()   decide
    try:
        ss = open("/Users/admin/Desktop/Host.txt", 'r').readlines()   #讀取TXT文本每一行數據
        for i, rows in enumerate(ss):
            if i in range(len(ss)):
                if rows.find("http") != -1:
                    contect = cut(rows)
                    elementDecide(contect)
                else:
                    print("不是正確的url")
        return listHttp_dict
    except:
        return False


if __name__ == '__main__':
    listHttp_dict = dict()
    print(openFind())
    url_file = "/Users/admin/Desktop/url.txt"
    fileObject = open(url_file, 'w')
    fileObject.write(str(listHttp_dict))
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章