原创 爬蟲基礎-requests庫

Python 的requests庫 requests 是用Python 寫的,基於urllib,採用Apache2 Licensed 開源的HTTP庫。他比urllib更加方便,可以節約我們大量的工作。完全滿足HTTP測試的需求。 好了

原创 爬蟲基礎-- 正則基礎

re模塊是python 中專門處理正則相關的模塊 下面專門介紹一下正則表達式。 相關的正則測試網站推薦一個。 http://tool.oschina.net/regex/      re.match re.match 嘗試從字符串

原创 python爬蟲 -- scrapy框架

Centos 7 安裝scrapy  在安裝了pyenv的基礎上。可以支持多版本的python。再安裝相關包。 yum install gcc libffi-devel openssl-devel libxml2 libxslt-de

原创 Python IP 的處理模塊

IPY    ip的處理方面經常需要處理 大量的IP地址。包括網絡性能,網絡掩碼,廣播地址,子網數,IP類型進行判斷。IPy 模塊就可以很好的解決這個問題。 安裝方式 # pip install IPy 判斷 ip 的類型 >>>

原创 Pyspider 框架的用法

Pyspider Pyspider是國人開發的開源且強大的網絡爬蟲系統 python 腳本控制,可以用任何你喜歡的html解析包(內置 pyquery),WEB 界面編寫調試腳本,起停腳本,監控執行狀態,查看活動歷史,獲取結果產出,數據

原创 python 獲取系統基礎信息

系統基礎信息包括 Linux基本性能,塊設備,網卡接口,系統信息,網絡地址庫等信息。 使用的是psutil模塊。 安裝方法十分簡單   pip install psutil  就好  內存信息 查看物理內存的total值和物理內存的u

原创 爬蟲基礎 -- 用Flask+Redis維護代理池

因爲在爬蟲的時候經常經常會遇到封IP 的情況,那麼使用代理就可以解決這個問題。 池子裏面放一些代理,而且需要定期的檢查。 互聯網上公開了大量的免費代理,而且互聯網上也有付費的代理。 代理池的要求: 1.多站抓取,異步檢測 2.定時篩選

原创 爬蟲基礎 -- pyquery

Pyquery        強大又靈活的網頁解析庫,相比而言,正則寫起來太麻煩。如果說beautifulsoup語法太難記,如果熟悉jQuery,那麼Pyquery是絕佳的選擇。Pyquery是模仿jQuery的。 初始化   字符串

原创 angular7 中如何使用自己的monaco編輯器(vscode)

vscode 是一款很裝逼的編輯器,如果將其移至進到web瀏覽器就更牛逼了。 參考 https://github.com/materiahq/ngx-monaco-editor ng new monaco-editor-demo cd

原创 Django2.0 利用ajax打造博客的評論區

首先評論區是需要前端與後臺交互的,前端上接受用戶的輸入。在輸入完成後,立馬在評論區顯示。首先是urls.py path('article/<int:article_id>/comment',views.comment_view,na

原创 在Pythonaywhere上部署我的Django項目

           在完成一個django網站後,總想向大家展示一下我的作品,但是,又沒錢買域名和服務器,難道只能在自己的電腦上運行嗎。當然不是。可以在 pythonanywhere.com 上面部署我們的代碼。可以直接通過這個網站的域

原创 Filebeat,Redis和ELK6.x集中式日誌解決方案

簡介            ELK 不是一款軟件,而是 Elasticsearch、Logstash 和 Kibana 三種軟件產品的首字母縮寫。這三者都是開源軟件,通常配合使用,而且又先後歸於 Elastic.co 公司名下,所以被簡

原创 APUE 讀書筆記(一)

應老大要求,從今天開始APUE的讀書筆記。其實就是一些比較需要注意的點第一章. UNIX基礎知識   一、登陸拿到一臺Linux主機,最新開始的是登陸。Linux 登陸的驗證是靠 /etc/passwd 這個文件的。$ grep kios

原创 Pycharm,GoLand,Phpstorm等jetbrains在Linux(Centos)下無法輸入中文的問題解決。

在Linux下使用tar包解壓縮的編程工具存在中文輸入不了。卻在終端或者網頁都可以正常使用中文輸入。這是怎麼回事呢?首先確保ibus都裝好着呢。# yum grouplist hidden |grep "Input" Input M

原创 scrapy 的命令行

Scrapy命令行 Scrapy是通過scrapy命令行工具控制的,在這裏被稱爲“Scrapy工具”,以區別於我們剛剛稱之爲“命令”或“Scrapy命令”的子命令。 首先創建 scrapy項目。 [root@lol spider]# sc