Python 爬蟲與數據分析
你學的太多,練習太少。 -- 古典
抓取數據但不用 Python
不編碼是第一選擇
八爪魚採集器 Octoparse
特點: 內嵌瀏覽器, 可視化定位, 可提取 JavaScript 生成內容, 提取數據用 xpath, 常用網站模板, 支持雲採集, 支持多種數據格式輸出和數據庫導出
http://www.bazhuayu.com/
5分鐘演示 https://v.youku.com/v_show/id...
支持部分驗證碼自動識別 http://www.bazhuayu.com/faq/c...
免費版同時2個線程, 最多10個任務
火車採集器
特點: 對接數據庫, 可直接導入 cms
http://www.locoy.com/
很多 cms 自帶文章採集工具
如 jeecms, phpCMS, dedeCMS, 帝國 cms
(略)
爲什麼要學 Python
數據分析需要多個階段, 抓取數據僅是一個環節, 數據需要不斷採集, 更新, 清洗, 分析, 可視會展示等多個階段, 這些過程中 Python 都能應對自如. 屬於性階適中的工具.
vs C
對比 C 語言, 效率弱一些, 但僅是運行效率, 開發效率高很多, 多數項目恰是開發佔比高, 一直開發, 偶爾運行成爲常態
vs Java
無需編譯, 省去很多麻煩, 更適合一次性應用, 或小團隊使用, 更靈活.
Life Is Short, Use Python
AI與機器學習
Python 語言基礎
版本的問題
區別
Python 2.x 和 3.x 有很大區別
2to3
使用 2to3
可以自動升級大部分代碼
3.x 新特性
https://www.asmeurer.com/pyth...
版本隔離 virtualenv
$ pip3 install virtualenv
$ virtualenv --no-site-packages venv
$ source venv/bin/activate
(venv)$
(venv)$ deactivate
$
常用數據結構
{} 大字典 Dictionary 鍵值對, 鍵唯一, 按鍵可以很快隨機查找
[] 方列表 List 元素存儲緊湊, 順序固定, 可排序
(1,) 圓元組 tuple
set() 設集合 set 集合中,元素唯一,無相同元素
輸入輸出, 文本處理, 數組處理
input 終端輸入
讀文件
open(), read() seek()
寫文件
寫文件和讀文件是一樣的,唯一區別是調用open()函數時,傳入標識符'w'或者'wb'表示寫文本文件或寫二進制文件:
>>> f = open('/Users/michael/test.txt', 'w')
>>> f.write('Hello, world!')
>>> f.close()
數組
面向對象基本概念與使用
如何輕鬆愉快地學 Python
遊戲學編程,熟悉語法, 流程結構, 函數等 https://codecombat.com/
ide: pycharm, vs code, 斷點調試
練習題
猜隨機數
成三角形概率
求質數的幾種境界
質數概率
png 格式簡析
圖形格式介紹
png, gif, jpg, svg, webp
特色與難點
裝飾器
decorator @
生成器
generator
yeild
lambda 表達式
一些常用函數
zip()
map()
filter()
網絡協議與文件格式
URL
協議頭://域名:端口/路徑/文件?參數1=參數值1&參數2=參數值2#頁面錨點
HTTP 協議
https://www.tutorialspoint.co...
無連接: 請求之間不需要保持連接
媒介無關: MIME 類型確定數據內容
無狀態: 用 cookie 或參數跟蹤狀態
請求頭
通過觀察 瀏覽器 -> 開發者工具 學習
重點掌握
Cookie
Referer
User-Agent
Content-Type
請求方法
GET
最常見, 一般通過 url 傳遞參數, 冪等性
POST
提交操作, 大量數據時, 上傳文件時用
響應狀態碼
200:請求成功 處理方式:獲得響應的內容,進行處理
301:請求到的資源都會分配一個永久的URL,這樣就可以在將來通過該URL來訪問此資源 查看頭裏的 Location
302:請求到的資源在一個不同的URL處臨時保存 查看頭裏的 Location
400:非法請求
401:未授權
403:禁止
404:沒有找到
500:服務器內部錯誤
502:錯誤網關 作爲網關或者代理工作的服務器嘗試執行請求時,從上游服務器接收到無效的響應。
測試工具
curl
結合瀏覽器的使用, -o 參數,
wget
斷點續傳之 -c
參數, 批量下載時的通配符使用
chromium, telnet, netcat
HTML 格式
學習工具
w3cschool.com
json
格式
工具
JavaScript & CSS
適當瞭解
python常用抓取工具/類庫介紹
urllib
import urllib2
response = urllib2.urlopen("http://www.baidu.com")
print response.read()
2to3 urllib.py
import urllib.request, urllib.error, urllib.parse
response = urllib.request.urlopen("http://example.com")
print(response.read())
練習指導:
- Python3 啓動, 退出 Ctrl+D
- 2to3 --help 找出 -w 回寫參數
- 兩種執行方式, 命令行, 交互式
參考: https://cuiqingcai.com/947.html
Requests 庫
Scrapy
$ pip install Scrapy lxml
PySpider
非常方便並且功能強大的爬蟲框架,支持多線程爬取、JS動態解析,提供了可操作界面、出錯重試、定時爬取等等的功能,使用非常人性化。
安裝
$ pip install pyspider
使用
$ pyspider all
然後瀏覽器訪問 http://localhost:5000
Selenium & PhantomJS
$pip install selenium
用瀏覽器進行加載頁面
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('http://www.baidu.com/')
驅動瀏覽器進行搜索
import unittest
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
class PythonOrgSearch(unittest.TestCase):
def setUp(self):
self.driver = webdriver.Chrome()
def test_search_in_python_org(self):
driver = self.driver
driver.get("http://www.python.org")
self.assertIn("Python", driver.title)
elem = driver.find_element_by_name("q")
elem.send_keys("pycon")
elem.send_keys(Keys.RETURN)
assert "No results found." not in driver.page_source
def tearDown(self):
self.driver.close()
if __name__ == "__main__":
unittest.main()
用 PhantomJS 保存頁面爲圖片
PhantomJS 相當於無界面瀏覽器, 可執行腳本和 CSS 內存渲染
phantomjs helloworld.js
var page = require('webpage').create();
page.open('http://cuiqingcai.com', function (status) {
console.log("Status: " + status);
if (status === "success") {
page.render('example.png');
}
phantom.exit();
});
數據提取工具
html, xml, xpath, selector, json
正則表達式
掌握起來, 有一定難度, 多數編輯器支持, 使用場景廣, 但不適合結構化數據(xml, json, html)
Python Re模塊提供
#返回pattern對象
re.compile(string[,flag])
#以下爲匹配所用函數
re.match(pattern, string[, flags])
re.search(pattern, string[, flags])
re.split(pattern, string[, maxsplit])
re.findall(pattern, string[, flags])
re.finditer(pattern, string[, flags])
re.sub(pattern, repl, string[, count])
re.subn(pattern, repl, string[, count])
參見: https://cuiqingcai.com/912.html
其於 Dom 模型的 jQuery selector
在 Selenium 中或瀏覽器中直接使用
基於查詢語言的 XPath 標準
XPath語言是基於一個樹形結構表示的XML 文檔,提供的導航能力,通過多種屬性選擇節點的一個標準。
XPath 是提取 XML 的工具, 所以需要對 HTML正行校正
校正工具:
- 使用 lxml 完成解析 HTML
>>> from lxml import etree
>>> doc = '<foo><bar></bar></foo>'
>>> tree = etree.HTML(doc)
>>> r = tree.xpath('/foo/bar')
>>> len(r)
1
>>> r[0].tag
'bar'
>>> r = tree.xpath('bar')
>>> r[0].tag
'bar'
最穩定的結果是使用 lxml.html 的 soupparser。你需要安裝 python-lxml 和 python-beautifulsoup,然後你可以執行以下操作:
from lxml.html.soupparser import fromstring
tree = fromstring('<mal form="ed"><html/>here!')
matches = tree.xpath("./mal[@form=ed]")
XPath 文檔
維基 https://en.wikipedia.org/wiki...
W3C https://www.w3.org/TR/xpath-30/
入門教程
https://www.w3schools.com/xml...
XPath 在線測試工具
https://codebeautify.org/Xpat...
特點: 可以直接加載 url
<root xmlns:foo="http://www.foo.org/" xmlns:bar="http://www.bar.org">
<employees>
<employee id="1">Johnny Dapp</employee>
<employee id="2">Al Pacino</employee>
<employee id="3">Robert De Niro</employee>
<employee id="4">Kevin Spacey</employee>
<employee id="5">Denzel Washington</employee>
</employees>
<foo:companies>
<foo:company id="6">Tata Consultancy Services</foo:company>
<foo:company id="7">Wipro</foo:company>
<foo:company id="8">Infosys</foo:company>
<foo:company id="9">Microsoft</foo:company>
<foo:company id="10">IBM</foo:company>
<foo:company id="11">Apple</foo:company>
<foo:company id="12">Oracle</foo:company>
</foo:companies>
</root>
示例:
1.選擇文檔節點
/
2.選擇“root”元素
/root
3.選擇所有'employee'元素,它們是'employees'元素的直接子元素。
/root/employees/employee
4.選擇所有“公司”元素,無論它們在文檔中的位置如何。
//foo:company
5.選擇“公司”元素的“id”屬性,無論它們在文檔中的位置如何。
//foo:company/@id
6.選擇第一個“employee”元素的文本值。
//employee[1]/text()
7.選擇最後一個'employee'元素。
//employee[last()]
8.使用其位置選擇第一個和第二個“employee”元素。
//employee[position() < 3]
9.選擇具有“id”屬性的所有“employee”元素。
//employee[@id]
10.選擇'id'屬性值爲'3'的'employee'元素。
//employee[@id='3']
11.選擇“id”屬性值小於或等於“3”的所有“employee”節點。
//employee[@id<=3]
12.選擇“companies”節點的所有子項。
/root/foo:companies/*
13.選擇文檔中的所有元素。
// *
14.選擇所有“員工”元素和“公司”元素。
//employee|//foo:company
15.選擇文檔中第一個元素的名稱。
name(//*[1])
16.選擇第一個“employee”元素的“id”屬性的數值。
number(//employee[1]/@id)
17.選擇第一個“employee”元素的“id”屬性的字符串表示形式值。
string(//employee[1]/@id)
18.選擇第一個“employee”元素的文本值的長度。
string-length(//employee[1]/text())
19.選擇第一個“company”元素的本地名稱,即沒有命名空間。
string-length(//employee[1]/text())
20.選擇“公司”元素的數量。
count(//foo:company)
21.選擇'company'元素的'id'屬性的總和。
sum(//foo:company/@id)
http://www.xpathtester.com/xpath
使用示例: 用xpath怎麼提取重複元素中的一個元素
<div class="container">
<div class="col-12 col-sm-3">
<p class="title">序號</p>
<p>001</p>
</div>
<div class="col-12 col-sm-3">
<p class="title">編號</p>
<p>999</p>
</div>
<div class="col-12 col-sm-3">
<p class="title">列號</p>
<p>321</p>
</div>
</div>
//p[text()="編號"]/following-sibling::p[1]
例如:Python+Selenium獲取文本:
driver.driver.find_element_by_xpath(//p[text()="編號"]/following-sibling::p[1]).text
注: Selenium 支持 XPath 和類 jQuery Selector 等多種選擇方式.
Firefox 和 XPath
2017之前的 firefox 版本 + Firebug
2017後 Firefox Developer Edition + Chropath addon
https://addons.mozilla.org/en...
Chromium 和 XPath
在Chrome/ Firefox瀏覽器中打開網站
- 按Ctrl + Shift + I(將打開開發人員工具)Alt+CMD+I
- 選擇儀器窗口頂部的“元素”
- 選擇儀器窗口底部的放大鏡
- 在瀏覽器中選擇所需的元素
- 右鍵單擊DOM樹中的選定行,然後選擇“複製XPath”
Chrome Extension XPath Helper (需要科學上網)
數據保存
csv 及 excel 格式
注意引號轉義, 可用現成庫
MySQL 數據庫
安裝MySQL驅動
由於MySQL服務器以獨立的進程運行,並通過網絡對外服務,所以,需要支持Python的MySQL驅動來連接到MySQL服務器。MySQL官方提供了mysql-connector-python驅動,但是安裝的時候需要給pip命令加上參數--allow-external:
$ pip install mysql-connector-python --allow-external mysql-connector-python
如果上面的命令安裝失敗,可以試試另一個驅動:
$ pip install mysql-connector
我們演示如何連接到MySQL服務器的test數據庫:
# 導入MySQL驅動:
>>> import mysql.connector
# 注意把password設爲你的root口令:
>>> conn = mysql.connector.connect(user='root', password='password', database='test')
>>> cursor = conn.cursor()
# 創建user表:
>>> cursor.execute('create table user (id varchar(20) primary key, name varchar(20))')
# 插入一行記錄,注意MySQL的佔位符是%s:
>>> cursor.execute('insert into user (id, name) values (%s, %s)', ['1', 'Michael'])
>>> cursor.rowcount
1
# 提交事務:
>>> conn.commit()
>>> cursor.close()
# 運行查詢:
>>> cursor = conn.cursor()
>>> cursor.execute('select * from user where id = %s', ('1',))
>>> values = cursor.fetchall()
>>> values
[('1', 'Michael')]
# 關閉Cursor和Connection:
>>> cursor.close()
True
>>> conn.close()
爬蟲常見問題
常見反爬技術
User-Agent
新華網
Referer
頻率
36kr.com
taobao.com
用戶點擊才展示內容
csdn.net 博客
登錄後可用內容
taobao.com
各種人機驗證 Captcha
封IP, 封ID
編碼問題 GB2312, GB18030, GKB, UTF-8, ISO8859-1
GB18030 > GBK > GB2312 但相互兼容
UTF-8與以上編碼不兼容
用代理隱藏 ip
import requests
from lxml import etree
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'
}
url = 'https://ip.cn/'
## 下面的網站是用來獲取代理ip的API
ip_url = 'http://proxy.w2n1ck.com:9090/random'
ip = {'http' : 'http://'+requests.get(ip_url).text}
print(ip)
response = requests.get(url, headers=headers, proxies=ip, timeout=10).text
html = etree.HTML(response)
## 提取頁面顯示的ip
res = html.xpath('//*[@id="result"]/div/p[1]/code/text()')
print(res)
模擬登錄
圖形驗證碼處量
百度OCR
https://aip.baidubce.com/rest...
Tesseract + openCV
ML-OCR
效果最好
人工OCR
手工錄入
數據可視化
matplot
echarts
Tableau
高級話題
手機 APP 接口數據抓取
Python3.x+Fiddler抓取APP數據
思路是電腦共享 wifi, 手機連這個 wifi, 電腦wifi 的 IP做爲代理, 手機上設置代理.
手機信任電腦的代理證書. 中間人攻擊完成了.
截獲到網絡請求再通過參數變換完成抓取
https://segmentfault.com/a/11...
分佈式爬蟲
數據庫或緩存爲協調工具
中文分詞
結巴分詞
自然言語分析
hanlp
tlp-cloud
人臉識別
阿里的接口
圖形識別
有問題到哪裏去問?
(c) 2018 Yujiaao
微信: yujiabuao