原创 小白之python開發:小遊戲貪喫蛇

今天利用python開發一款童年小遊戲:貪喫蛇 1.首先導入必備的包,這裏就出現了本次項目的一個bug就是from pygame.locals import * 始終無法調用,導致一些pygame中的常亮調用出現標紅,最後在常亮之

原创 python學習筆記day1:基礎入門

區別一 python2默認的編碼方式是ASCAII碼 解決方式在文件首部加:#-*- encoding:utf-8 -*- python3默認的編碼方式是utf_8 變量 1.python變量必須由數字,字母,下劃線組成,且不能又

原创 python學習筆記day6:內存地址以及編碼小結

1.python2與python3區別: python2: print(‘abc’), print 'abc ’ range( ), xrange( ) 生成器 raw_input( ) python3: print('abc '

原创 python學習筆記day2:格式化輸出與編碼

格式化輸出:佔位符爲%,%s代表字符串,%d代表數字,如果已經在一個字符串中使用鼓了佔位符,而後面有需要輸出字符%,需要在%之前再添加一個轉義%來表明次%並不是佔位符。%%只顯示單純的%。 例子一普通佔位符演示: name = i

原创 python學習筆記day5:字典及字典操作

數據類型劃分:可變數據類型,不可變數據類型 不可變數據類型 :元祖,bool,int,str,可哈西 可變數據類型:list,dict,set 不可哈西 dict的key:必須是不可變數據類型

原创 python學習筆記day4:列表和元祖及其操作

列表操作 :[ ] 1.1列表增加: append:整體插入 extend:迭代插入(只迭代一級) li = ['Jerry','Tony','女神','Alex'] li.append('陽關') # 整體插入 li.exte

原创 python學習筆記day3:字符串以及字符串操作

數據類型 int:1 ,2 ,3 用於計算 bool :True False 用於判斷 str:‘abc’,‘李四’ 存儲少量數據 list:[1,2,3,4,‘hallo’] 儲存大量數據 元祖:(1,2,3,‘第三方’) 只

原创 小白之python開發:進度條

今天利用PyQt5來實現一個進度條,當用戶進行下載狀態,或者系統正在運算狀態時,進度條可以給予用戶一定的反饋,使得用戶知道系統並沒有司機,而是在繼續運行: 1.導入基本的包,初次使用這個包,依然存在着很多問題。目前UI大的問題就是im

原创 python學習筆記day9:函數

函數:定義之後可以任何需要他的地方調用這個函數 如果函數沒有定義返回值,用戶去取函數的返回值的話,默認返回None 1.返回值的三種情況: 1.1 沒有返回值 1.1.1 沒寫return def func(): print(

原创 python學習筆記day8:文件操作

1.文件路徑:d:\mywork.txt 2.文件編碼方式:utf-8,gbk 3.文件操作“:只讀,只寫,讀寫,寫讀,追加 以什麼編碼方式儲存的文件就要以什麼編碼方式打開,否則會很出現亂碼 3.1 只讀 3.1.1 文字類文件"r"

原创 小白之python開發:小遊戲貪吃蛇

今天利用python開發一款童年小遊戲:貪吃蛇 1.首先導入必備的包,這裏就出現了本次項目的一個bug就是from pygame.locals import * 始終無法調用,導致一些pygame中的常亮調用出現標紅,最後在常亮之前加

原创 小白之python開發:視頻文件的爬取

今天簡單爬取了一個視頻網站,將視頻資源爬取到了本地文件夾中: 1.獲取目標網站 response = requests.get('https://ibaotu.com/shipin/') 2.解析網站信息:具體獲取了兩個比較重要的信

原创 python學習筆記day7:集合以及集合操作

集合:是一種可變的數據類型,但是集合裏面包含的元素必須是不可變的數據類型,同時集合具有兩個鮮明特徵:無序性和不重複性。 無序性:集合中的元素都是無序存儲的,每次打印或者輸出的順序都是不一樣的,因此集合中添加也是無序添。 不重複性:集合

原创 python學習筆記day4

列表操作 1.1列表增加: append:整體插入 extend:迭代插入(只迭代一級) li = ['Jerry','Tony','女神','Alex'] li.append('陽關') # 整體插入 li.extend('夜晚'

原创 小白之python開發:豆瓣電影top250的爬取

今天再次對電影網進行了一次信息爬取,和之前是有區別的,第一次爬取是對一個網頁的爬取,網頁的url是沒發生變化的,這次爬取過程將整個網站10也得數據進行爬取,通過觀察這些網頁從而發現規律,不同的頁面蓋面的只有start=的值,因此我使用