關於字符編碼,你所需要知道的

字符編碼的問題看似很小,經常被技術人員忽視,但是很容易導致一些莫名其妙的問題。這裏總結了一下字符編碼的一些普及性的知識,希望對大家有所幫助。

還是得從ASCII碼說起

 

說到字符編碼,不得不說ASCII碼的簡史。計算機一開始發明的時候是用來解決數字計算的問題,後來人們發現,計算機還可以做更多的事,例如文本處理。但由於計算機只識“數”,因此人們必須告訴計算機哪個數字來代表哪個特定字符,例如65代表字母‘A’,66代表字母‘B’,以此類推。但是計算機之間字符-數字的對應關係必須得一致,否則就會造成同一段數字在不同計算機上顯示出來的字符不一樣。因此美國國家標準協會ANSI制定了一個標準,規定了常用字符的集合以及每個字符對應的編號,這就是ASCII字符集(Character Set),也稱ASCII碼。

當時的計算機普遍使用8比特字節作爲最小的存儲和處理單元,加之當時用到的字符也很少,26個大小寫英文字母還有數字再加上其他常用符號,也不到100個,因此使用7個比特位就可以高效的存儲和處理ASCII碼,剩下最高位1比特被用作一些通訊系統的奇偶校驗。

注意,字節代表系統能夠處理的最小單位,不一定是8比特。只是現代計算機的事實標準就是用8比特來代表一個字節。在很多技術規格文獻中,爲了避免產生歧義,更傾向於使用8位組(Octet)而不是字節(Byte)這個術語來強調8個比特的二進制流。下文中爲了便於理解,我會延用大家熟悉的“字節”這個概念。

ASCII table

ASCII字符集由95個可打印字符(0x20-0x7E)和33個控制字符(0x00-0x19,0x7F)組成。可打印字符用於顯示在輸出設備上,例如熒屏或者打印紙上,控制字符用於向計算機發出一些特殊指令,例如0x07會讓計算機發出嗶的一聲,0x00通常用於指示字符串的結束,0x0D和0x0A用於指示打印機的打印針頭退到行首(回車)並移到下一行(換行)。

那時候的字符編解碼系統非常簡單,就是簡單的查表過程。例如將字符序列編碼爲二進制流寫入存儲設備,只需要在ASCII字符集中依次找到字符對應的字節,然後直接將該字節寫入存儲設備即可。解碼二進制流的過程也是類似。

OEM字符集的衍生

當計算機開始發展起來的時候,人們逐漸發現,ASCII字符集裏那可憐的128個字符已經不能再滿足他們的需求了。人們就在想,一個字節能夠表示的數字(編號)有256個,而ASCII字符只用到了0x00~0x7F,也就是佔用了前128個,後面128個數字不用白不用,因此很多人打起了後面這128個數字的主意。可是問題在於,很多人同時有這樣的想法,但是大家對於0x80-0xFF這後面的128個數字分別對應什麼樣的字符,卻有各自的想法。這就導致了當時銷往世界各地的機器上出現了大量各式各樣的OEM字符集。

下面這張表是IBM-PC機推出的其中一個OEM字符集,字符集的前128個字符和ASCII字符集的基本一致(爲什麼說基本一致呢,是因爲前32個控制字符在某些情況下會被IBM-PC機當作可打印字符解釋),後面128個字符空間加入了一些歐洲國家用到的重音字符,以及一些用於畫線條畫的字符。

IBM-PC OEM字符集

事實上,大部分OEM字符集是兼容ASCII字符集的,也就是說,大家對於0x00~0x7F這個範圍的解釋基本是相同的,而對於後半部分0x80~0xFF的解釋卻不一定相同。甚至有時候同樣的字符在不同OEM字符集中對應的字節也是不同的。

不同的OEM字符集導致人們無法跨機器交流各種文檔。例如職員甲發了一封簡歷résumés給職員乙,結果職員乙看到的卻是rגsumגs,因爲é字符在職員甲機器上的OEM字符集中對應的字節是0x82,而在職員乙的機器上,由於使用的OEM字符集不同,對0x82字節解碼後得到的字符卻是ג

多字節字符集(MBCS)和中文字符集

上面我們提到的字符集都是基於單字節編碼,也就是說,一個字節翻譯成一個字符。這對於拉丁語系國家來說可能沒有什麼問題,因爲他們通過擴展第8個比特,就可以得到256個字符了,足夠用了。但是對於亞洲國家來說,256個字符是遠遠不夠用的。因此這些國家的人爲了用上電腦,又要保持和ASCII字符集的兼容,就發明了多字節編碼方式,相應的字符集就稱爲多字節字符集。例如中國使用的就是雙字節字符集編碼(DBCS,Double Byte Character Set)。

對於單字節字符集來說,代碼頁中只需要有一張碼錶即可,上面記錄着256個數字代表的字符。程序只需要做簡單的查表操作就可以完成編解碼的過程。

代碼頁是字符集編碼的具體實現,你可以把他理解爲一張“字符-字節”映射表,通過查表實現“字符-字節”的翻譯。下面會有更詳細的描述。

而對於多字節字符集,代碼頁中通常會有很多碼錶。那麼程序怎麼知道該使用哪張碼錶去解碼二進制流呢?答案是,根據第一個字節來選擇不同的碼錶進行解析

例如目前最常用的中文字符集GB2312,涵蓋了所有簡體字符以及一部分其他字符;GBK(K代表擴展的意思)則在GB2312的基礎上加入了對繁體字符等其他非簡體字符(GB18030字符集不是雙字節字符集,我們在講Unicode的時候會提到)。這兩個字符集的字符都是使用1-2個字節來表示。Windows系統採用936代碼頁來實現對GBK字符集的編解碼。在解析字節流的時候,如果遇到字節的最高位是0的話,那麼就使用936代碼頁中的第1張碼錶進行解碼,這就和單字節字符集的編解碼方式一致了。

image

當字節的高位是1的時候,確切的說,當第一個字節位於0x81–0xFE之間時,根據第一個字節不同找到代碼頁中的相應的碼錶,例如當第一個字節是0x81,那麼對應936中的下面這張碼錶:

image

(關於936代碼頁中完整的碼錶信息,參見MSDN:http://msdn.microsoft.com/en-us/library/cc194913%28v=MSDN.10%29.aspx.)

按照936代碼頁的碼錶,當程序遇到連續字節流0x81 0x40的時候,就會解碼爲“丂”字符。

ANSI標準、國家標準、ISO標準

不同ASCII衍生字符集的出現,讓文檔交流變得非常困難,因此各種組織都陸續進行了標準化流程。例如美國ANSI組織制定了ANSI標準字符編碼(注意,我們現在通常說到ANSI編碼,通常指的是平臺的默認編碼,例如英文操作系統中是ISO-8859-1,中文系統是GBK),ISO組織制定的各種ISO標準字符編碼,還有各國也會制定一些國家標準字符集,例如中國的GBK,GB2312和GB18030。

操作系統在發佈的時候,通常會往機器裏預裝這些標準的字符集還有平臺專用的字符集,這樣只要你的文檔是使用標準字符集編寫的,通用性就比較高了。例如你用GB2312字符集編寫的文檔,在中國大陸內的任何機器上都能正確顯示。同時,我們也可以在一臺機器上閱讀多個國家不同語言的文檔了,前提是本機必須安裝該文檔使用的字符集。

Unicode的出現

雖然通過使用不同字符集,我們可以在一臺機器上查閱不同語言的文檔,但是我們仍然無法解決一個問題:在一份文檔中顯示所有字符。爲了解決這個問題,我們需要一個全人類達成共識的巨大的字符集,這就是Unicode字符集。

Unicode字符集概述

Unicode字符集涵蓋了目前人類使用的所有字符,併爲每個字符進行統一編號,分配唯一的字符碼(Code Point)。Unicode字符集將所有字符按照使用上的頻繁度劃分爲17個層面(Plane),每個層面上有216=65536個字符碼空間。

image

其中第0個層面BMP,基本涵蓋了當今世界用到的所有字符。其他的層面要麼是用來表示一些遠古時期的文字,要麼是留作擴展。我們平常用到的Unicode字符,一般都是位於BMP層面上的。目前Unicode字符集中尚有大量字符空間未使用。

編碼系統的變化

在Unicode出現之前,所有的字符集都是和具體編碼方案綁定在一起的,都是直接將字符和最終字節流綁定死了,例如ASCII編碼系統規定使用7比特來編碼ASCII字符集;GB2312以及GBK字符集,限定了使用最多2個字節來編碼所有字符,並且規定了字節序。這樣的編碼系統通常用簡單的查表,也就是通過代碼頁就可以直接將字符映射爲存儲設備上的字節流了。例如下面這個例子:

image

這種方式的缺點在於,字符和字節流之間耦合得太緊密了,從而限定了字符集的擴展能力。假設以後火星人入住地球了,要往現有字符集中加入火星文就變得很難甚至不可能了,而且很容易破壞現有的編碼規則。

因此Unicode在設計上考慮到了這一點,將字符集和字符編碼方案分離開。

字符編碼系統

也就是說,雖然每個字符在Unicode字符集中都能找到唯一確定的編號(字符碼,又稱Unicode碼),但是決定最終字節流的卻是具體的字符編碼。例如同樣是對Unicode字符“A”進行編碼,UTF-8字符編碼得到的字節流是0x41,而UTF-16(大端模式)得到的是0x00 0x41。

常見的Unicode編碼

UCS-2/UTF-16

如果要我們來實現Unicode字符集中BMP字符的編碼方案,我們會怎麼實現?由於BMP層面上有216=65536個字符碼,因此我們只需要兩個字節就可以完全表示這所有的字符了。

舉個例子,“中”的Unicode字符碼是0x4E2D(01001110 00101101),那麼我們可以編碼爲01001110 00101101(大端)或者00101101 01001110 (小端)。

UCS-2和UTF-16對於BMP層面的字符均是使用2個字節來表示,並且編碼得到的結果完全一致。不同之處在於,UCS-2最初設計的時候只考慮到BMP字符,因此使用固定2個字節長度,也就是說,他無法表示Unicode其他層面上的字符,而UTF-16爲了解除這個限制,支持Unicode全字符集的編解碼,採用了變長編碼,最少使用2個字節,如果要編碼BMP以外的字符,則需要4個字節結對,這裏就不討論那麼遠,有興趣可以參考維基百科:UTF-16/UCS-2

Windows從NT時代開始就採用了UTF-16編碼,很多流行的編程平臺,例如.Net,Java,Qt還有Mac下的Cocoa等都是使用UTF-16作爲基礎的字符編碼。例如代碼中的字符串,在內存中相應的字節流就是用UTF-16編碼過的。

UTF-8

UTF-8應該是目前應用最廣泛的一種Unicode編碼方案。由於UCS-2/UTF-16對於ASCII字符使用兩個字節進行編碼,存儲和處理效率相對低下,並且由於ASCII字符經過UTF-16編碼後得到的兩個字節,高字節始終是0x00,很多C語言的函數都將此字節視爲字符串末尾從而導致無法正確解析文本。因此一開始推出的時候遭到很多西方國家的抵觸,大大影響了Unicode的推行。後來聰明的人們發明了UTF-8編碼,解決了這個問題。

UTF-8編碼方案採用1-4個字節來編碼字符,方法其實也非常簡單。

image

(上圖中的x代表Unicode碼的低8位,y代表高8位)

對於ASCII字符的編碼使用單字節,和ASCII編碼一摸一樣,這樣所有原先使用ASCII編解碼的文檔就可以直接轉到UTF-8編碼了。對於其他字符,則使用2-4個字節來表示,其中,首字節前置1的數目代表正確解析所需要的字節數,剩餘字節的高2位始終是10。例如首字節是1110yyyy,前置有3個1,說明正確解析總共需要3個字節,需要和後面2個以10開頭的字節結合才能正確解析得到字符

關於UTF-8的更多信息,參考維基百科:UTF-8

GB18030

任何能夠將Unicode字符映射爲字節流的編碼都屬於Unicode編碼。中國的GB18030編碼,覆蓋了Unicode所有的字符,因此也算是一種Unicode編碼。只不過他的編碼方式並不像UTF-8或者UTF-16一樣,將Unicode字符的編號通過一定的規則進行轉換,而只能通過查表的手段進行編碼。

關於GB18030的更多信息,參考:GB18030

Unicode相關的常見問題

Unicode是兩個字節嗎?

Unicode只是定義了一個龐大的、全球通用的字符集,併爲每個字符規定了唯一確定的編號,具體存儲爲什麼樣的字節流,取決於字符編碼方案。推薦的Unicode編碼是UTF-16和UTF-8。

帶簽名的UTF-8指的是什麼意思?

帶簽名指的是字節流以BOM標記開始。很多軟件會“智能”的探測當前字節流使用的字符編碼,這種探測過程出於效率考慮,通常會提取字節流前面若干個字節,看看是否符合某些常見字符編碼的編碼規則。由於UTF-8和ASCII編碼對於純英文的編碼是一樣的,無法區分開來,因此通過在字節流最前面添加BOM標記可以告訴軟件,當前使用的是Unicode編碼,判別成功率就十分準確了。但是需要注意,不是所有軟件或者程序都能正確處理BOM標記,例如PHP就不會檢測BOM標記,直接把它當普通字節流解析了。因此如果你的PHP文件是採用帶BOM標記的UTF-8進行編碼的,那麼有可能會出現問題。

Unicode編碼和以前的字符集編碼有什麼區別?

早期字符編碼、字符集和代碼頁等概念都是表達同一個意思。例如GB2312字符集、GB2312編碼,936代碼頁,實際上說的是同個東西。但是對於Unicode則不同,Unicode字符集只是定義了字符的集合和唯一編號,Unicode編碼,則是對UTF-8、UCS-2/UTF-16等具體編碼方案的統稱而已,並不是具體的編碼方案。所以當需要用到字符編碼的時候,你可以寫gb2312,codepage936,utf-8,utf-16,但請不要寫unicode(看過別人在網頁的meta標籤裏頭寫charset=unicode,有感而發)。

 

亂碼問題

亂碼指的是程序顯示出來的字符文本無法用任何語言去解讀。一般情況下會包含大量?或者�。亂碼問題是所有計算機用戶或多或少會遇到的問題。造成亂碼的原因就是因爲使用了錯誤的字符編碼去解碼字節流因此當我們在思考任何跟文本顯示有關的問題時,請時刻保持清醒:當前使用的字符編碼是什麼。只有這樣,我們才能正確分析和處理亂碼問題。

例如最常見的網頁亂碼問題。如果你是網站技術人員,遇到這樣的問題,需要檢查以下原因:

  • 服務器返回的響應頭Content-Type沒有指明字符編碼
  • 網頁內是否使用META HTTP-EQUIV標籤指定了字符編碼
  • 網頁文件本身存儲時使用的字符編碼和網頁聲明的字符編碼是否一致  

image image

注意,網頁解析的過程如果使用的字符編碼不正確,還可能會導致腳本或者樣式表出錯。具體細節可以參考我以前寫過的文章:文檔字符集導致的腳本錯誤Asp.Net頁面的編碼問題

不久前看到某技術論壇有人反饋,WinForm程序使用Clipboard類的GetData方法去訪問剪切板中的HTML內容時會出現亂碼的問題,我估計也是由於WinForm在獲取HTML文本的時候沒有用對正確的字符編碼導致的。Windows剪貼板只支持UTF-8編碼,也就是說你傳入的文本都會被UTF-8編解碼。這樣一來,只要兩個程序都是調用Windows剪切板API編程的話,那麼複製粘貼的過程中不會出現亂碼。除非一方在獲取到剪貼板數據之後使用了錯誤的字符編碼進行解碼,纔會得到亂碼(我做了簡單的WinForm剪切板編程實驗,發現GetData使用的是系統默認編碼,而不是UTF-8編碼)。

關於亂碼中出現?或者�,這裏需要額外提一下,當程序使用特定字符編碼解析字節流的時候,一旦遇到無法解析的字節流時,就會用?或者�來替代。因此,一旦你最終解析得到的文本包含這樣的字符,而你又無法得到原始字節流的時候,說明正確的信息已經徹底丟失了,嘗試任何字符編碼都無法從這樣的字符文本中還原出正確的信息來

必要的術語解釋

字符集(Character Set),字面上的理解就是字符的集合,例如ASCII字符集,定義了128個字符;GB2312定義了7445個字符。而計算機系統中提到的字符集準確來說,指的是已編號的字符的有序集合(不一定是連續)

字符碼(Code Point)指的就是字符集中每個字符的數字編號。例如ASCII字符集用0-127這連續的128個數字分別表示128個字符;GBK字符集使用區位碼的方式爲每個字符編號,首先定義一個94X94的矩陣,行稱爲“區”,列稱爲“位”,然後將所有國標漢字放入矩陣當中,這樣每個漢字就可以用唯一的“區位”碼來標識了。例如“中”字被放到54區第48位,因此字符碼就是5448。而Unicode中將字符集按照一定的類別劃分到0~16這17個層面(Planes)中,每個層面中擁有216=65536個字符碼,因此Unicode總共擁有的字符碼,也即是Unicode的字符空間總共有17*65536=1114112。

image

編碼的過程是將字符轉換成字節流。

解碼的過程是將字節流解析爲字符。

字符編碼(Character Encoding)是將字符集中的字符碼映射爲字節流的一種具體實現方案。例如ASCII字符編碼規定使用單字節中低位的7個比特去編碼所有的字符。例如‘A’的編號是65,用單字節表示就是0x41,因此寫入存儲設備的時候就是b’01000001’。GBK編碼則是將區位碼(GBK的字符碼)中的區碼和位碼的分別加上0xA0(160)的偏移(之所以要加上這樣的偏移,主要是爲了和ASCII碼兼容),例如剛剛提到的“中”字,區位碼是5448,十六進制是0x3630,區碼和位碼分別加上0xA0的偏移之後就得到0xD6D0,這就是“中”字的GBK編碼結果。

代碼頁(Code Page)一種字符編碼具體形式。早期字符相對少,因此通常會使用類似表格的形式將字符直接映射爲字節流,然後通過查表的方式來實現字符的編解碼。現代操作系統沿用了這種方式。例如Windows使用936代碼頁、Mac系統使用EUC-CN代碼頁實現GBK字符集的編碼,名字雖然不一樣,但對於同一漢字的編碼肯定是一樣的。

大小端的說法源自《格列佛遊記》。我們知道,雞蛋通常一端大一端小,小人國的人們對於剝蛋殼時應從哪一端開始剝起有着不一樣的看法。同樣,計算機界對於傳輸多字節字(由多個字節來共同表示一個數據類型)時,是先傳高位字節(大端)還是先傳低位字節(小端)也有着不一樣的看法,這就是計算機裏頭大小端模式的由來了。無論是寫文件還是網絡傳輸,實際上都是往流設備進行寫操作的過程,而且這個寫操作是從流的低地址向高地址開始寫(這很符合人的習慣),對於多字節字來說,如果先寫入高位字節,則稱作大端模式。反之則稱作小端模式。也就是說,大端模式下,字節序和流設備的地址順序是相反的,而小端模式則是相同的。一般網絡協議都採用大端模式進行傳輸。


轉自:http://www.cnblogs.com/KevinYang/archive/2010/06/18/1760597.html

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章