注意:本文內容主要是自廖雪峯的python基礎教程的歸納總結,紫色字體是個人添加的內容。
一、字節的概念
8個比特(bit)作爲一個字節(byte),所以,一個字節能表示的最大的整數就是255(二進制11111111=十進制255),如果要表示更大的整數,就必須用更多的字節。比如兩個字節可以表示的最大整數是65535
,4個字節可以表示的最大整數是4294967295
bytes只能存放ASCII編碼,即只能顯示字母、數字和一些符號,否則會報錯如下:
二、各種編碼的區別
1、美國-ASCII編碼:指127個字符被編碼到計算機裏,也就是大小寫英文字母、數字和一些符號
僅有1個字節
2、中國-GB2312編碼:處理中文顯然一個字節是不夠的,至少需要兩個字節,而且還不能和ASCII編碼衝突
3、其他國家:日本-Shift_JIS、韓國-Euc-kr
...
4、全世界通用-Unicode:把所有語言都統一到一套編碼裏,這樣就不會再有亂碼問題了。其最常用的是用兩個字節表示一個字符(如果要用到非常偏僻的字符,就需要4個字節)。現代操作系統和大多數編程語言都直接支持Unicode。
5、“可變長編碼”的UTF-8
編碼:UTF-8編碼把一個Unicode字符根據不同的數字大小編碼成1-6個字節,常用的英文字母被編碼成1個字節,漢字通常是3個字節,只有很生僻的字符纔會被編碼成4-6個字節。
從上面的表格還可以發現,UTF-8編碼有一個額外的好處,就是ASCII編碼實際上可以被看成是UTF-8編碼的一部分,所以,大量只支持ASCII編碼的歷史遺留軟件可以在UTF-8編碼下繼續工作。
小結:
ASCII編碼和Unicode編碼的區別:ASCII編碼是1個字節,而Unicode編碼通常是2個字節。
字母A
用ASCII編碼是十進制的65
,二進制的01000001
;
字符0
用ASCII編碼是十進制的48
,二進制的00110000
,注意字符'0'
和整數0
是不同的;
漢字中
已經超出了ASCII編碼的範圍,用Unicode編碼是十進制的20013
,二進制的01001110 00101101
。
你可以猜測,如果把ASCII編碼的A
用Unicode編碼,只需要在前面補0就可以,因此,A
的Unicode編碼是00000000 01000001
三、Python的字符串
在最新的Python 3版本中,字符串是以Unicode編碼的,也就是說,Python的字符串支持多語言。
由於Python的字符串類型是str
,在內存中以Unicode表示,一個字符對應若干個字節。如果要在網絡上傳輸,或者保存到磁盤上,就需要把str
變爲以字節爲單位的bytes
。
以Unicode表示的str
通過encode()
方法可以編碼爲指定的bytes
>>> 'ABC'.encode('ascii')
b'ABC'
>>> '中文'.encode('utf-8')
b'\xe4\xb8\xad\xe6\x96\x87'
>>> '中文'.encode('ascii')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)
純英文的str
可以用ASCII
編碼爲bytes
,內容是一樣的,含有中文的str
可以用UTF-8
編碼爲bytes
。含有中文的str
無法用ASCII
編碼,因爲中文編碼的範圍超過了ASCII
編碼的範圍,Python會報錯。
在bytes
中,無法顯示爲ASCII字符的字節,用\x##
顯示。
反過來,如果我們從網絡或磁盤上讀取了字節流,那麼讀到的數據就是bytes
。要把bytes
變爲str
,就需要用decode()
方法:
>>> b'ABC'.decode('ascii')
'ABC'
>>> b'\xe4\xb8\xad\xe6\x96\x87'.decode('utf-8')
'中文'
如果bytes
中包含無法解碼的字節,decode()
方法會報錯:
>>> b'\xe4\xb8\xad\xff'.decode('utf-8')
Traceback (most recent call last):
...
UnicodeDecodeError: 'utf-8' codec can't decode byte 0xff in position 3: invalid start byte
如果bytes
中只有一小部分無效的字節,可以傳入errors='ignore'
忽略錯誤的字節:
>>> b'\xe4\xb8\xad\xff'.decode('utf-8', errors='ignore')
'中'