原创 04Python爬蟲---DebugLog和URLError的運用

一、DebugLog   有時我們希望邊運行程序邊打印調試日誌,此時就需要開啓DebugLog。 開啓步驟:   1、分別使用 urllib. request Httphandler(和 urllib. request. Htt

原创 python3 跳一跳點擊跳躍

借鑑了網上一些大神的代碼和思路,這裏整理一下寫出點擊跳躍玩跳一跳這個小遊戲的思路 一、整體思路 棋子所在的座標以及下一步所要到的座標,根據兩個座標計算出兩點之間距離進行跳躍。 二、分佈思路 1、根據命令截圖獲取初始圖保存到手機,然

原创 01Python爬蟲---快速使用Urllib爬取網頁

環境使用python3.5 import urllib.request # 導入模塊 一、採用獲取網頁信息,然後再寫入文件中 1、將獲取的網頁信息 file = urllib.request.urlopen("http://ww

原创 03Python爬蟲---延時以及GET和POST請求

一、超時設置 import urllib.request # 如果想網站不出現超時異常就可以將timeout設置時間延長 for i in range(1, 100): # 循環99次 try: fi

原创 Kotlin學習1--scratch創建後沒法運行

1、scratch創建後沒法運行報錯 報錯提示: scratch.kts:1 No script runtime was found in the classpath: class 'kotlin.script.templates

原创 java基礎面試題合集

今天要談的主題是關於求職,求職是在每個技術人員的生涯中都要經歷多次。對於我們大部分人而言,在進入自己心儀的公司之前少不了準備工作,有一份全面細緻面試題將幫助我們減少許多麻煩。在跳槽季來臨之前,特地做這個系列的文章,一方面幫助自己鞏

原创 Python定時任務 獲取郵件附件PDF 解析成PNG 保存到本地

一、開發環境 win10操作系統 Mysql數據庫 python3.7 PyMySQL==0.9.2 PyPDF2==1.26.0 PythonMagick==0.9.19 Wand==0.4.4 gs924w64 對應環境需要包下載

原创 12Python爬蟲---Fiddler抓包工具使用

一、什麼是Fiddler 二、爬蟲與Fiddler不得不講的事 三、Fiddler基本原理與界面 1、Fiddler工作原理 2、Fiddler界面 3、捕捉會話功能 四、Fiddler的QuickExec的簡單使用 1、c

原创 python基礎知識鞏固

Table of Contents Python語言特性 1 Python的函數參數傳遞 2 Python中的元類(metaclass) 3 @staticmethod和@classmethod 4 類變量和實例變量 5 Python

原创 14Python爬蟲---爬蟲僞裝瀏覽器

一、什麼是瀏覽器僞裝技術   有一些網站爲了避免爬蟲的惡意訪問,會設置一些反爬蟲機制,常見的飯爬蟲機制主要有:   1、通過分析用戶請求的Headers信息進行反爬蟲   2、通過檢測用戶行爲進行反爬蟲,比如通過判斷同一個IP在短時間

原创 python面試題--第一部分

【題目:001】| 說說你對zen of python的理解,你有什麼辦法看到它? Python之禪,Python秉承一種獨特的簡潔和可讀行高的語法,以及高度一致的編程模式,符合“大腦思維習慣”,使Python易於學習、理解和記憶。Pyt

原创 python面試題---第二部分

Python 數據庫 網絡 算法 其他 Python 1.python參數傳遞是值傳遞還是引用傳遞 都是引用,對於不可改變的數據類型來說,不能改變,如果修改了,事實上是新建一個對象來對待。 2.lambda更簡單,省去命名函

原创 17Python爬蟲---Scrapy爬取噹噹網特產

一、總體思路 1、創建scrapy項目 2、分析噹噹網特產網址 3、分析出所取部分xpath公式 4、編寫item 5、編寫爬蟲 6、編寫pipline文件將取到的數據存入到文件中 二、具體實踐 1、創建scrapy項目 scr

原创 20Python爬蟲--Scrapy爬取和訊博客個人所有博客情況並保存到數據庫

項目結構: Mysql數據庫表創建語句 CREATE TABLE `myhexun` ( `id` int(9) NOT NULL AUTO_INCREMENT COMMENT '文章的id', `name` varchar

原创 16Python爬蟲---Scrapy常用命令

常用命令 1、全局命令 全局命令即爲不進入Scrapy爬蟲項目所在目錄的情況下,運行scrapy命令。運行scrapy -h,在commands下回出現所有的全局命令。分別爲fetch、runspider、settings、shell、s