原创 arduino 格力遙控 紅外解碼 YB0F2 遙控 DIY

解碼過程和發送過程參見帖子一,數據擴展參見帖子二。 帖子一: https://www.arduino.cn/thread-3618-1-1.html 一、解碼程序 // 奈何哥哥教你推倒Arduino-紅外遙控~ #includ

原创 Dictionary 是否含鍵值

#Python 3.X 裏不包含 has_key() 函數,被 __contains__(key) 替代: dict3 = {'name':'z','Age':7,'class':'First'}; print("Value :

原创 求助:pycharm中模塊相互引用

包中模塊相互怎麼相互引用??? 一、背景: 使用 scrapy startproject 生產test2項目 使用scrapy genspider 生產suning爬蟲. 在項目中建立 adsf 和 _spiderte

原创 srapy多管道pipeline處理多個爬蟲

srapy多管道pipeline處理多個爬蟲 如果有多個爬蟲的item需交給多個爬蟲管道類處理,可用if isinstance()函數匹配,如果不匹配必須else 返回item,由其他管理管道類處理。 class BookPipe

原创 mongo啓動、關閉、重啓

1. 啓動MongoDB sudo service mongod start 2. 停止MongoDB sudo service mongod stop 3. 重啓MongoDB sudo service mongod res

原创 adb devices unauthorized問題解決

前提:我電腦本身是win系統,又裝了虛擬機,裝了linux系統,想在linux下使用adb 當連接手機的時候,手機會彈窗提示授權,此時手機是默認連接win系統的,所有授權也是授權給了win系統,再連接到linux系統時,已記錄授權

原创 Ubuntu啓動後進入GNU GRUB Version 2.02

電腦中裝Windows10和Ubuntu18.04,啓動Ubuntu後無法正常進入,停留在GUN GRUB界面 Solution: 1、Enter *Ubuntu 2、exit BusyBox v1.18.5 (Ubuntu 1

原创 python線程守候setDaemon 與線程同步join

線程守候setDaemon 與線程同步join ** 一、setDaemon(False) ** 當一個進程啓動之後,會默認產生一個主線程,因爲線程是程序執行的最小單位,當設置多線程時,主線程會創建多個子線程,在Python中,默

原创 Dictionary的del和pop的區別

---------------------------------------------- ## dict例子: dict = {'Name': 'Zara', 'Age': 7, 'Class': 'First'} del

原创 手機控制通過藍牙控制arduino

//這是從站代碼,LED燈正極串聯一個1K電阻,負極接Arduino的P13腳 #include <SoftwareSerial.h> // 引用BT函數庫 SoftwareSerial BT(2, 3); // 接收腳,

原创 python 字符串 轉 字典

eval 函數將字符串轉爲字典。 str="""{"commodityCode":"000000010758585636","shopCode":"0070157234", "oneStarCount":5,"oneStarMea

原创 python之list 數據類型 append extend方法區別

python list中append()方法和extend()方法區別 1 共同點 只能作用於list類型(不能作用於tuple等其他類型) 單參數限制(不支持多參數) 2 不同點 list.append(object) 向列表中

原创 session中的cookies設置及使用

python requests模塊session的使用建議及整個會話中的所有cookie的方法 2、測試代碼 2.1 服務端 下面是用flask做的一個服務端,用來設置cookie以及打印請求時的請求頭 # -*- coding

原创 python的時間

時間time類,應用 time.strftime("%Y-%m-%d %H:%M:%S") '2018-01-26 12:55:20' 點贊 收藏 分享 文章舉報 添色

原创 scrapy爬蟲腳本啓動

scrapy爬蟲腳本氣動 單一爬蟲 if __name__ == '__main__': cmdline.execute("scrapy crawl baidu".split()) 多個爬蟲 if __name__ == '