python decode encode

decode , to unicode

encode, from unicode




這有篇很好的文章,可以明白這個問題:

爲什麼會報錯“UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)”?本文就來研究一下這個問題。

字符串在Python內部的表示是unicode編碼,因此,在做編碼轉換時,通常需要以unicode作爲中間編碼,即先將其他編碼的字符串解碼(decode)成unicode,再從unicode編碼(encode)成另一種編碼。

decode的作用是將其他編碼的字符串轉換成unicode編碼,如str1.decode('gb2312'),表示將gb2312編碼的字符串str1轉換成unicode編碼。

encode的作用是將unicode編碼轉換成其他編碼的字符串,如str2.encode('gb2312'),表示將unicode編碼的字符串str2轉換成gb2312編碼。

因此,轉碼的時候一定要先搞明白,字符串str是什麼編碼,然後decode成unicode,然後再encode成其他編碼

代碼中字符串的默認編碼與代碼文件本身的編碼一致。

如:s='中文'

如果是在utf8的文件中,該字符串就是utf8編碼,如果是在gb2312的文件中,則其編碼爲gb2312。這種情況下,要進行編碼轉換,都需 要先用decode方法將其轉換成unicode編碼,再使用encode方法將其轉換成其他編碼。通常,在沒有指定特定的編碼方式時,都是使用的系統默 認編碼創建的代碼文件。

如果字符串是這樣定義:s=u'中文'

則該字符串的編碼就被指定爲unicode了,即python的內部編碼,而與代碼文件本身的編碼無關。因此,對於這種情況做編碼轉換,只需要直接使用encode方法將其轉換成指定編碼即可。

如果一個字符串已經是unicode了,再進行解碼則將出錯,因此通常要對其編碼方式是否爲unicode進行判斷:

isinstance(s, unicode) #用來判斷是否爲unicode

用非unicode編碼形式的str來encode會報錯

如何獲得系統的默認編碼?

#!/usr/bin/env python

#coding=utf-8

import sys

print sys.getdefaultencoding()

該段程序在英文WindowsXP上輸出爲:ascii

在某些IDE中,字符串的輸出總是出現亂碼,甚至錯誤,其實是由於IDE的結果輸出控制檯自身不能顯示字符串的編碼,而不是程序本身的問題。

如在UliPad中運行如下代碼:

s=u"中文"

print s

會提示:UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)。這是因爲UliPad在英文WindowsXP上的控制檯信息輸出窗口是按照ascii編碼輸出的(英文系統的默認編碼是 ascii),而上面代碼中的字符串是Unicode編碼的,所以輸出時產生了錯誤。

將最後一句改爲:print s.encode('gb2312')

則能正確輸出“中文”兩個字。

若最後一句改爲:print s.encode('utf8')

則輸出:\xe4\xb8\xad\xe6\x96\x87,這是控制檯信息輸出窗口按照ascii編碼輸出utf8編碼的字符串的結果。

unicode(str,'gb2312')與str.decode('gb2312')是一樣的,都是將gb2312編碼的str轉爲unicode編碼

使用str.__class__可以查看str的編碼形式


>>>>>

groups.google.com/group/python-cn/browse_thread/thread/be4e4e0d4c3272dd

-----

python是個容易出現編碼問題的語言。所以,我按照我的理解寫下下面這些文字。 

=首先,要了解幾個概念。= 

*字節:計算機數據的表示。8位二進制。可以表示無符號整數:0-255。下文,用“字節流”表示“字節”組成的串。 

*字符:英文字符“abc”,或者中文字符“你我他”。字符本身不知道如何在計算機中保存。下文中,會避免使用“字符串”這個詞,而用“文本”來表 

示“字符”組成的串。 

*編碼(動詞):按照某種規則(這個規則稱爲:編碼(名詞))將“文本”轉換爲“字節流”。(在python中:unicode變成str) 

*解碼(動詞):將“字節流”按照某種規則轉換成“文本”。(在python中:str變成unicode) 

**實際上,任何東西在計算機中表示,都需要編碼。例如,視頻要編碼然後保存在文件中,播放的時候需要解碼才能觀看。 

unicode:unicode定義了,一個“字符”和一個“數字”的對應,但是並沒有規定這個“數字”在計算機中怎麼保存。(就像在C中,一個整數既 

可以是int,也可以是short。unicode沒有規定用int還是用short來表示一個“字符”) 

utf8:unicode實現。它使用unicode定義的“字符”“數字”映射,進而規定了,如何在計算機中保存這個數字。其它的utf16等都是 

unicode實現。 

gbk:類似utf8這樣的“編碼”。但是它沒有使用unicode定義的“字符”“數字”映射,而是使用了另一套的映射方法。而且,它還定義瞭如何在 

計算機中保存。 

=python中的encode,decode方法= 

首先,要知道encode是 unicode轉換成str。decode是str轉換成unicode。 

下文中,u代表unicode類型的變量,s代表str類型的變量。 

u.encode('...')基本上總是能成功的,只要你填寫了正確的編碼。就像任何文件都可以壓縮成zip文件。 

s.decode('...')經常是會出錯的,因爲str是什麼“編碼”取決於上下文,當你解碼的時候需要確保s是用什麼編碼的。就像,打開zip文 

件的時候,你要確保它確實是zip文件,而不僅僅是僞造了擴展名的zip文件。 

u.decode(),s.encode()不建議使用,s.encode相當於s.decode().encode()首先用默認編碼(一般是 

ascii)轉換成unicode在進行encode。 

=關於#coding=utf8= 

當你在py文件的第一行中,寫了這句話,並確實按照這個編碼保存了文本的話,那麼這句話有以下幾個功能。 

1.使得詞法分析器能正常運作,對於註釋中的中文不報錯了。 

2.對於u"中文"這樣literal string能知道兩個引號中的內容是utf8編碼的,然後能正確轉換成unicode 

3."中文"對於這樣的literal string你會知道,這中間的內容是utf8編碼,然後就可以正確轉換成其它編碼或unicode了。 

沒有寫完,先碼那麼多字,以後再來補充,這裏不是wiki,太麻煩了。

>>>>>

>>>>>

=Python編碼和Windows控制檯= 

我發現,很多初學者出錯的地方都在print語句,這牽涉到控制檯的輸出。我不瞭解linux,所以只說控制檯的。 

首先,Windows的控制檯確實是unicode(utf16_le編碼)的,或者更準確的說使用字符爲單位輸出文本的。 

但是,程序的執行是可以被重定向到文件的,而文件的單位是“字節”。 

所以,對於C運行時的函數printf之類的,輸出必須有一個編碼,把文本轉換成字節。可能是爲了兼容95,98, 

沒有使用unicode的編碼,而是mbcs(不是gbk之類的)。 

windows的mbcs,也就是ansi,它會在不同語言的windows中使用不同的編碼,在中文的windows中就是gb系列的編碼。 

這造成了同一個文本,在不同語言的windows中是不兼容的。 

現在我們知道了,如果你要在windows的控制檯中輸出文本,它的編碼一定要是“mbcs”。 

對於python的unicode變量,使用print輸出的話,會使用sys.getfilesystemencoding()返回的編碼,把它變成str。 

如果是一個utf8編碼str變量,那麼就需要 print s.decode('utf8').encode('mbcs') 

最後,對於str變量,file文件讀取的內容,urllib得到的網絡上的內容,都是以“字節”形式的。 

它們如果確實是一段“文本”,比如你想print出來看看。那麼你必須知道它們的編碼。然後decode成unicode。 

如何知道它們的編碼: 

1.事先約定。(比如這個文本文件就是你自己用utf8編碼保存的) 

2.協議。(python文件第一行的#coding=utf8,html中的等) 

2.猜。 


>>>>>

> 這個非常好,但還不是很明白 

> 將“文本”轉換爲“字節流”。(在python中:unicode變成str) 


"最後,對於str變量,file文件讀取的內容,urllib得到的網絡上的內容,都是以“字節”形式的。" 

雖然文件或者網頁是文本的,但是在保存或者傳輸時已經被編碼成bytes了,所以用"rb"打開的file和從socket讀取的流是基於字節的. 

"它們如果確實是一段“文本”,比如你想print出來看看。那麼你必須知道它們的編碼。然後decode成unicode。" 

這裏的加引號的"文本",其實還是字節流(bytes),而不是真正的文本(unicode),只是說明我們知道他是可以解碼成文本的. 

在解碼的時候,如果是基於約定的,那就可以直接從指定地方讀取如BOM或者python文件的指定coding或者網頁的meta,就可以正確解碼, 

但是現在很多文件/網頁雖然指定了編碼,但是文件格式實際卻使用了其他的編碼(比如py文件指定了coding=utf8,但是你還是可以保存成ansi--記事本的默認編碼),這種情況下真實的編碼就需要去猜了 

解碼了的文本只存在運行環境中,如果你需要打印/保存/輸出給數據庫/網絡傳遞,就又需要一次編碼過程,這個編碼與上面的編碼沒有關係,只是依賴於你的選擇,但是這個編碼也不是可以隨便選擇的,因爲編碼後的bytes如果又需要傳遞給其他人/環境,那麼如果你的編碼也不遵循約定,又給下一個人/環境造成了困擾,於是遞歸之~~~~ 

>>>>>

> 主要有一條非常容易誤解: 

> 一般人會認爲Unicode(廣義)統一了編碼,其實不然。Unicode不是唯一的編碼,而一大堆編碼的統稱。但是Windows下Unicode 

> (狹義)一般特指UCS2,也就是UTF-16/LE 


unicode作爲字符集(ucs)是唯一的,編碼方案(utf)纔是有很多種 


>>>>>

將字符與字節的概念區分開來是很重要的。Java 一直就是這樣,Python也開始這麼做了,Ruby 貌似還在混亂當中。

>>>>>

>>>>>

我也說兩句。我對編碼的研究相對比較深一些。因爲工作中也經常遇到亂碼,於是在05年,對編碼專門做過研究,並在公司刊物上發過文章,最後形成了一個教材,每年在公司給新員工都講一遍。於是項目中遇到亂碼的問題就能很快的定位並解決了。 

理論上,從一個字符到具體的編碼,會經過以下幾個概念。 

字符集(Abstract character repertoire) 

編碼字符集(Coded character set) 

字符編碼方式(Character encoding form) 

字符編碼方案(Character encoding scheme ) 

字符集:就算一堆抽象的字符,如所有中文。字符集的定義是抽象的,與計算機無關。 

編碼字符集:是一個從整數集子集到字符集抽象元素的映射。即給抽象的字符編上數字。如gb2312中的定義的字符,每個字符都有個整數和它對應。一個整數只對應着一個字符。反過來,則不一定是。這裏所說的映射關係,是數學意義上的映射關係。編碼字符集也是與計算機無關的。unicode字符集也在這一層。 

字符編碼方式:這個開始與計算機有關了。編碼字符集的編碼點在計算機裏的具體表現形式。通俗的說,意思就是怎麼樣才能將字符所對應的整數的放進計算機內存,或文件、或網絡中。於是,不同人有不同的實現方式,所謂的萬碼奔騰,就是指這個。gb2312,utf-8,utf-16,utf-32等都在這一層。 

字符編碼方案:這個更加與計算機密切相關。具體是與操作系統密切相關。主要是解決大小字節序的問題。對於UTF-16和UTF-32 

編碼,Unicode都支持big-endian 和 little-endian兩種編碼方案。 

一般來說,我們所說的編碼,都在第三層完成。具體到一個軟件系統中,則很複雜。 

瀏覽器-apache-tomcat(包括tomcat內部的jsp編碼、編譯,文件讀取)-數據庫之間,只要存在數據交互,就有可能發生編碼不一致,如果在讀取數據時,沒有正確的decode和encode,出現亂碼就是家常便飯了。 


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章