http://blog.chinaunix.net/u/3204/showart_389639.html
http://www.woodpecker.org.cn/diveintopython/xml_processing/unicode.html
python的中文問題一直是困擾新手的頭疼問題,這篇文章將給你詳細(xì)地講解一下這方面的知識。當(dāng)然,幾乎可以確定的是,在將來的版本中,python會徹底解決此問題,不用我們這么麻煩了。
先來看看python的版本:
>>> import sys
>>> sys.version
'2.5.1 (r251:54863, Apr 18 2007, 08:51:08) [MSC v.1310 32 bit (Intel)]'
(一)
用記事本創(chuàng)建一個文件ChineseTest.py,默認(rèn)ANSI:
s = "中文"
print s
測試一下瞧瞧:
E:\Project\Python\Test>python ChineseTest.py
File "ChineseTest.py", line 1
SyntaxError: Non-ASCII character '\xd6' in file ChineseTest.py on line 1, but no encoding declared ; see http://www.python.org/peps/pep-0263.html for details
偷偷地把文件編碼改成UTF-8:
E:\Project\Python\Test>python ChineseTest.py
File "ChineseTest.py", line 1
SyntaxError: Non-ASCII character '\xe4' in file ChineseTest.py on line 1, but no encoding declared ; see http://www.pytho
n.org/peps/pep-0263.html for details
無濟于事。。。
既然它提供了網(wǎng)址,那就看看吧。簡單地瀏覽一下,終于知道如果文件里有非ASCII字符,需要在第一行或第二行指定編碼聲明。把ChineseTest.py文件的編碼重新改為ANSI,并加上編碼聲明:
# coding=gbk
s = "中文"
print s
再試一下:
E:\Project\Python\Test>python ChineseTest.py
中文
正??海?div style="height:15px;">
(二)
看一看它的長度:
# coding=gbk
s = "中文"
print len(s)
結(jié)果:4。
s這里是str類型,所以計算的時候一個中文相當(dāng)于兩個英文字符,因此長度為4。
我們這樣寫:
# coding=gbk
s = "中文"
s1 = u"中文"
s2 = unicode(s, "gbk") #省略參數(shù)將用python默認(rèn)的ASCII來解碼
s3 = s.decode("gbk") #把str轉(zhuǎn)換成unicode是decode,unicode函數(shù)作用與之相同
print len(s1)
print len(s2)
print len(s3)
結(jié)果:
2
2
2
(三)
接著來看看文件的處理:
建立一個文件test.txt,文件格式用ANSI,內(nèi)容為:
abc中文
用python來讀取
# coding=gbk
print open("Test.txt").read()
結(jié)果:abc中文
把文件格式改成UTF-8:
結(jié)果:abc涓枃
顯然,這里需要解碼:
# coding=gbk
import codecs
print open("Test.txt").read().decode("utf-8")
結(jié)果:abc中文
上面的test.txt我是用Editplus來編輯的,但當(dāng)我用Windows自帶的記事本編輯并存成UTF-8格式時,
運行時報錯:
Traceback (most recent call last):
File "ChineseTest.py", line 3, in <module>
print open("Test.txt").read().decode("utf-8")
UnicodeEncodeError: 'gbk' codec can't encode character u'\ufeff' in position 0: illegal multibyte sequence
原來,某些軟件,如notepad,在保存一個以UTF-8編碼的文件時,會在文件開始的地方插入三個不可見的字符(0xEF 0xBB 0xBF,即BOM)。
因此我們在讀取時需要自己去掉這些字符,python中的codecs module定義了這個常量:
# coding=gbk
import codecs
data = open("Test.txt").read()
if data[:3] == codecs.BOM_UTF8:
data = data[3:]
print data.decode("utf-8")
結(jié)果:abc中文
(四)一點遺留問題
在第二部分中,我們用unicode函數(shù)和decode方法把str轉(zhuǎn)換成unicode。為什么這兩個函數(shù)的參數(shù)用"gbk"呢?
第一反應(yīng)是我們的編碼聲明里用了gbk(# coding=gbk),但真是這樣?
修改一下源文件:
# coding=utf-8
s = "中文"
print unicode(s, "utf-8")
運行,報錯:
Traceback (most recent call last):
File "ChineseTest.py", line 3, in <module>
s = unicode(s, "utf-8")
UnicodeDecodeError: 'utf8' codec can't decode bytes in position 0-1: invalid data
顯然,如果前面正常是因為兩邊都使用了gbk,那么這里我保持了兩邊utf-8一致,也應(yīng)該正常,不至于報錯。
更進一步的例子,如果我們這里轉(zhuǎn)換仍然用gbk:
# coding=utf-8
s = "中文"
print unicode(s, "gbk")
結(jié)果:中文
翻閱了一篇英文資料,它大致講解了python中的print原理:
When Python executes a print statement, it simply passes the output to the operating system (using fwrite() or something like it), and some other program is responsible for actually displaying that output on the screen. For example, on Windows, it might be the Windows console subsystem that displays the result. Or if you're using Windows and running Python on a Unix box somewhere else, your Windows SSH client is actually responsible for displaying the data. If you are running Python in an xterm on Unix, then xterm and your X server handle the display.
To print data reliably, you must know the encoding that this display program expects.
簡單地說,python中的print直接把字符串傳遞給操作系統(tǒng),所以你需要把str解碼成與操作系統(tǒng)一致的格式。Windows使用CP936(幾乎與gbk相同),所以這里可以使用gbk。
最后測試:
# coding=utf-8
s = "中文"
print unicode(s, "cp936")
結(jié)果:中文
Python的中文處理及其它
Posted by 令狐蟲
前段時間猛禽在寫他的第一個Python程序,期間一直向我抱怨說Python的中文處理有這樣那樣的問題。說句實話我之前并沒有花過很大的精力在這種編碼處理方面,不過我很納悶,難道Python的編碼處理能力真這么弱么?于是去做了一些試驗,現(xiàn)在來簡單的聊幾句。
我們知道在Unicode出現(xiàn)之前,處理中文是一件非常麻煩的事情。因為沒有自己的獨立編碼,GB(GB2312、GBK、GB18030)碼是 用2個多個ASCII字符來表示的,這就帶來了和ASCII碼的區(qū)分、字?jǐn)?shù)統(tǒng)計等等一系列的問題。而在Unicode中,中文、英文以及其它很多字符都有 自己獨立的編碼,這樣一來,就沒有上述問題了。因此,在可能的環(huán)境中,使用Unicode處理中文,是最好的選擇。
一般來說,對中文處理的主要流程可以如下:
原始字符串用相應(yīng)的編碼轉(zhuǎn)為Unicode
中間處理一律采用Unicode
將Unicode轉(zhuǎn)成需要的編碼輸出
在Python中,跟Unicode相關(guān)的元素有以下幾個:u前綴、unicode函數(shù)、codecs。他們有什么聯(lián)系和區(qū)別么?
u前綴表示后面跟的那個字符串常量是一個Unicode字符串。但它僅僅表示這是一個Unicode字符串,對字符串本身的編碼卻沒有做任何改變。比如:
s = u"測試"
s的值是:
u'\xb2\xe2\xca\xd4'
而
s = "測試"
s的值是:
'\xb2\xe2\xca\xd4'
可以看到,除了前面的u前綴外,字符內(nèi)部編碼沒有絲毫差別。因此,我們要得到一個Unicode的中文字符串,u前綴并不是一個好方法。那么u前綴有什么作用呢?我的猜想是對非英語字符可能能起作用,未經(jīng)證實,猜錯不管。
和u前綴不同,unicode函數(shù)有一個轉(zhuǎn)換編碼的過程,在轉(zhuǎn)換過程中,用到了codecs。
s = unicode("測試", "gb2312")
s的值是:
u'\u6d4b\u8bd5'
可以看到,這時的s,是一個真正的雙字節(jié)Unicode編碼字符串了。
結(jié)合上面的中文處理流程,我們可以得到一個比較一般的Python中文處理的流程:
將欲處理的字符串用unicode函數(shù),以正確的編碼轉(zhuǎn)換為Unicode
在程序中統(tǒng)一用Unicode字符串進行操作
輸出時,使用encode方法,將Unicode再轉(zhuǎn)換為所需的編碼。
下面是一個簡單的演示,用re庫查詢一個中文字符串并打?。?div style="height:15px;">
所謂“正確的”編碼,指得是指定編碼和字符串本身的編碼必須一致。這個其實并不那么容易判斷,一般來說,我們直接輸入的簡體中文字符,有兩種可能的編碼:GB2312(GBK、GB18030)、以及UTF-8。
encode成本地編碼的時候,必須要保證目標(biāo)編碼中存在欲轉(zhuǎn)換字符的內(nèi)碼。encode這種操作一般是通過一個本地編碼對應(yīng)Unicode的編 碼轉(zhuǎn)換表來進行的,事實上每個本地編碼只能映射到Unicode的一部分。但是映射的區(qū)域是不同的,比如Big-5對應(yīng)的Unicode的編碼范圍和 GBK對應(yīng)的就不一樣(實際上這兩個編碼有部分范圍是重疊的)。所以,Unicode的一些字符(比如本身就是從GB2312轉(zhuǎn)換來的那些),可以映射到 GBK,但未必可以映射到Big-5,如果你想轉(zhuǎn)換到Big-5,很有可能就會出現(xiàn)編碼找不到的異常。但UTF-8的碼表范圍實際上和Unicode是一 樣的(只是編碼形式不同而已),所以,理論上來說,任何本地編碼的字符,都可以被轉(zhuǎn)換到UTF-8。
我試過了,我的py文件編碼是UTF-8,但是使用#coding UTF-8和#coding GBK都不行,只有#coding cp936可以。我的操作系統(tǒng)是XP。Python 2.6