原创 mysql 8.0 使用navicate失敗 Client does not support authentication protocol requested by server

來自 : https://blog.csdn.net/u013700358/article/details/80306560   使用workbench 連接沒出錯,使用navicate就報錯,解決方案

原创 mysql 聯合唯一索引和null

舉個例子  表a中,b,c爲聯合索引,但是下表這種狀態是存在的,而且還可以繼續插入1,null 這種數據 index,b,c 1,1,null 2,1,null  

原创 Redirecting (meta refresh) scarapy 重定向

https://www.buyelec.net 寫京北數據爬取的時候遇到的問題,由於反爬,使用了https://center.abuyun.com/#/cloud/http-proxy/tunnel/lists  阿布雲的代理, 然後爬不

原创 二手房房價預測(置信度)

import os os.chdir(r"E:\BaiduNetdiskDownload\6inference") import pandas as pd house_price_gr = pd.read_csv(r'house_pric

原创 xpath 解析後和原網頁結構不一致

一下爲網頁內容, 具體url爲http://travel.qunar.com/travelbook/list/23-shanxi-296903/hot_heat/2.htm 解析出錯的地方是 <a href="/youji/663050

原创 json str 相互轉化

 str 轉json 時,會把“ 轉' ,False 轉false True 轉 true ,所以 json轉str時,把相應的轉回來就好了

原创 xpath 少見常用 兄弟節點 父子節點

    <div>         <a id="1" href="www.baidu.com">我是第1個a標籤</a>         <p>我是p標籤</p>         <a id="2" href="www.baidu.co

原创 pd.read_json 匪夷所思的替換

先上問題 j_index='{"0":{"a":1,"b":2},"1s":{"a":1,"b":2}}' j_index3="{'0':{'a':1,'b':2},'1':{'a':1,'b':2}}" 意思差不多就是j_inde

原创 超簡單app爬蟲

爬取(食品招商網)app www.spzs.com  裏面的代理信息,web上無法顯示,只能下載app 爬取流程: 1.電腦和手機連接同一個wifi,設置fiddler端口8888,設置手機wifi爲手動連接,ip地址同電腦,端口同fid

原创 pyinstaller 報錯 AttributeError: 'str' object has no attribute 'decode'

之前用pyinstaller時都沒碰上這個問題,今天不知道什麼原因就突然報這個錯 即使我拿之前生成過的py文件,也時同樣報錯   解決方法: 上圖已經寫的很清楚了,D:\anaconda\Lib\site-packages\PyInst

原创 fiddler抓包firefox

原文鏈接:https://blog.csdn.net/jimmyandrushking/article/details/80819103 在學app抓取數據,又看到fiddler,發現無法抓包F

原创 《Learning Scrapy》(中文版)

序言第1章 Scrapy介紹第2章 理解HTML和XPath 第3章 爬蟲基礎第4章 從Scrapy到移動應用第5章 快速構建爬蟲第6章 Scrapinghub部署第7章 配置和管理第8章 Scrapy編程第9章 使用Pipeline第1

原创 使用 Vagrant 打造跨平臺開發環境

https://segmentfault.com/a/1190000000264347 https://blog.csdn.net/ifeng6/article/details/75071800

原创 Ubuntu 忘記開機密碼的解決方法

https://blog.csdn.net/horsee/article/details/81149567 https://blog.csdn.net/jacke121/article/details/80456046 https://b

原创 scarpy 反爬之改ip改useragent

轉載自 https://www.cnblogs.com/rwxwsblog/p/4575894.html 如何讓你的scrapy爬蟲不再被ban   前面用scrapy編寫爬蟲抓取了自己博客的內容並保存成json格式的數據(scrapy爬