标签:style blog http color io os 使用 ar strong
缩写含义:
ASCII: American Standard Code for Information Interchange
UCS: Universal Character Set
UTF: Unicode/UCS Transformation Format
ASCII码是7位编码,编码范围是0x00-0x7F。ASCII字符集包括英文字母、阿拉伯数字和标点符号等字符。其中0x00-0x20和0x7F共33个控制字符。
只支持ASCII码的系统会忽略每个字节的最高位,只认为低7位是有效位。
英语用128个符号编码就够了,但是用来表示其他语言,128个符号是不够的。比如,在法语中,字母上方有注音符号,它就无法用ASCII码表示。于是,一些欧洲国家就决定,利用字节中闲置的最高位编入新的符号。比如,法语中的é的编码为130(二进制10000010)。这样一来,这些欧洲国家使用的编码体系,可以表示最多256个符号。
但是,这里又出现了新的问题。不同的国家有不同的字母,因此,哪怕它们都使用256个符号的编码方式,代表的字母却不一样。比如,130在法语编码中代表了é,在希伯来语编码中却代表了字母Gimel (?),在俄语编码中又会代表另一个符号。但是不管怎样,所有这些编码方式中,0--127表示的符号是一样的,不一样的只是128--255的这一段。
至于亚洲国家的文字,使用的符号就更多了,汉字就多达10万左右。一个字节只能表示256种符号,肯定是不够的,就必须使用多个字节表达一个符号。比如,简体中文常见的编码方式是GB2312,使用两个字节表示一个汉字,所以理论上最多可以表示256x256=65536个符号。
正如上一节所说,世界上存在着多种编码方式,同一个二进制数字可以被解释成不同的符号。因此,要想打开一个文本文件,就必须知道它的编码方式,否则用错误的编码方式解读,就会出现乱码。为什么电子邮件常常出现乱码?就是因为发信人和收信人使用的编码方式不一样。
可以想象,如果有一种编码,将世界上所有的符号都纳入其中。每一个符号都给予一个独一无二的编码,那么乱码问题就会消失。这就是Unicode,就像它的名字都表示的,这是一种所有符号的编码。
Unicode当然是一个很大的集合,现在的规模可以容纳100多万个符号。每个符号的编码都不一样,比如,U+0639表示阿拉伯字母Ain,U+0041表示英语的大写字母A,U+4E25表示汉字"严"。具体的符号对应表,可以查询unicode.org,或者专门的汉字对应表。
需要注意的是,Unicode只是一个符号集,它只规定了符号的二进制代码,却没有规定这个二进制代码应该如何存储。
比如,汉字"严"的unicode是十六进制数4E25,转换成二进制数足足有15位(100111000100101),也就是说这个符号的表示至少需要2个字节。表示其他更大的符号,可能需要3个字节或者4个字节,甚至更多。
这里就有两个严重的问题,第一个问题是,如何才能区别Unicode和ASCII?计算机怎么知道三个字节表示一个符号,而不是分别表示三个符号呢?第二个问题是,我们已经知道,英文字母只用一个字节表示就够了,如果Unicode统一规定,每个符号用三个或四个字节表示,那么每个英文字母前都必然有二到三个字节是0,这对于存储来说是极大的浪费,文本文件的大小会因此大出二三倍,这是无法接受的。
它们造成的结果是:1)出现了Unicode的多种存储方式,也就是说有许多种不同的二进制格式,可以用来表示Unicode。2)Unicode在很长一段时间内无法推广,直到互联网的出现。
互联网的普及,强烈要求出现一种统一的编码方式。UTF-8就是在互联网上使用最广的一种Unicode的实现方式。其他实现方式还包括UTF-16(字符用两个字节或四个字节表示)和UTF-32(字符用四个字节表示),不过在互联网上基本不用。重复一遍,这里的关系是,UTF-8是Unicode的实现方式之一。
UTF-8最大的一个特点,就是它是一种变长的编码方式。它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节长度。
UTF-8的编码规则很简单,只有二条:
1)对于单字节的符号,字节的第一位设为0,后面7位为这个符号的unicode码。因此对于英语字母,UTF-8编码和ASCII码是相同的。
2)对于n字节的符号(n>1),第一个字节的前n位都设为1,第n+1位设为0,后面字节的前两位一律设为10。剩下的没有提及的二进制位,全部为这个符号的unicode码。
下表总结了编码规则,字母x表示可用编码的位。
Unicode符号范围 | UTF-8编码方式
(十六进制) | (二进制)
--------------------+---------------------------------------------
0000 0000-0000 007F | 0xxxxxxx
0000 0080-0000 07FF | 110xxxxx 10xxxxxx
0000 0800-0000 FFFF | 1110xxxx 10xxxxxx 10xxxxxx
0001 0000-0010 FFFF | 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
跟据上表,解读UTF-8编码非常简单。如果一个字节的第一位是0,则这个字节单独就是一个字符;如果第一位是1,则连续有多少个1,就表示当前字符占用多少个字节。
下面,还是以汉字"严"为例,演示如何实现UTF-8编码。
已知"严"的unicode是4E25(100111000100101),根据上表,可以发现4E25处在第三行的范围内(0000 0800-0000 FFFF),因此"严"的UTF-8编码需要三个字节,即格式是"1110xxxx 10xxxxxx 10xxxxxx"。然后,从"严"的最后一个二进制位开始,依次从后向前填入格式中的x,多出的位补0。这样就得到了,"严"的UTF-8编码是"11100100 10111000 10100101",转换成十六进制就是E4B8A5。
这两个古怪的名称来自英国作家斯威夫特的《格列佛游记》。在该书中,小人国里爆发了内战,战争起因是人们争论,吃鸡蛋时究竟是从大头(Big-Endian)敲开还是从小头(Little-Endian)敲开。为了这件事情,前后爆发了六次战争,一个皇帝送了命,另一个皇帝丢了王位。
因此,第一个字节在前,就是"大头方式"(Big endian),第二个字节在前就是"小头方式"(Little endian)。
那么很自然的,就会出现一个问题:计算机怎么知道某一个文件到底采用哪一种方式编码?
Unicode规范中定义,每一个文件的最前面分别加入一个表示编码顺序的字符,这个字符的名字叫做"零宽度非换行空格"(ZERO WIDTH NO-BREAK SPACE),用FEFF表示。这正好是两个字节,而且FF比FE大1。
如果一个文本文件的头两个字节是FE FF,就表示该文件采用大头方式;如果头两个字节是FF FE,就表示该文件采用小头方式。
16bit编码,一个字符占2byte;
Unicode的preferred encoding,不兼容ASCII;
与CPU字节序有关,可分为UTF-16LE和UTF-16BE;
32bit编码,一个字符占4byte;
对于纯英文文档,或者混合文档中英文字符占了大多数,UTF-8编码更有优势(节省存储空间);
对于纯中文文档,或者混合文档中中文字符占了大多数,UTF-16编码更有优势;
UTF-8需要判断每个字节中的开头标志信息,所以如果一当某个字节在传送过程中出错了,就会导致后面的字节也会解析出错;
而UTF-16不会判断开头标志,即使错也只会错一个字符,所以容错能力更强。
例如:中文字符 “汉” 对应的unicode是6C49,
UTF-16表示:01101100 01001001
UTF-8表示:十进制值为27721,需要使用3个byte
文本开头的标志可用于判断对应的编码:
EF BB BF UTF-8
FE FF UTF-16/UCS-2, little endian
FF FE UTF-16/UCS-2, big endian
FF FE 00 00 UTF-32/UCS-4, little endian.
00 00 FE FF UTF-32/UCS-4, big-endian.
注意:utf-16和utf-32,如果用char字符串的话,会有0字节出现在非真正结束的地方(用wchar_t可以避免这个问题)。
utf-8、utf-16和utf-32是unicode字符集的不同编码方式;
对于中文而言,还有另外一套字符集——区位码,区位码字符集与unicode没有任何关系,区位码的编码方式主要有GB2312和GBK,下面将继续介绍。
区位码把编码表分为94个区,每个区对应94个位,每个字符的区号和位号组合起来就是该汉字的区位码。区位码一般 用10进制数来表示,如1601就表示16区1位,对应的字符是“啊”。
区位码中01-09区是符号、数字区,16-87区是汉字区,10-15和88-94是未定义的空白区。它将收录的汉字分成两级:第一级是常用汉字计3755个,置于16-55区,按汉语拼音字母/笔形顺序排列;第二级汉字是次常用汉字计3008个,置于56-87区,按部首/笔画顺序排列。一级汉字是按照拼音排序的,这个就可以得到某个拼音在一级汉字区位中的范围,很多根据汉字可以得到拼音的程序就是根据这个原理编写的。
区位码更应该认为是字符集的定义,定义了所收录的字符和字符位置,而GB2312和GBK是计算机环境中支持这种字符集的编码。区位码和GB2312编码的关系有点像 Unicode字符集和UTF-8编码。
GBK2312是简体中文的字符集编码,它基于区位码设计的。在区位码的区号和位号上分别加上0xA0就得到了GB2312编码。
GB2312字符集中除常用简体汉字字符外还包括希腊字母、日文平假名及片假名字母、俄语西里尔字母等字符,未收录繁体中文汉字和一些生僻字。可以用繁体汉字测试某些系统是不是只支持GB2312编码。
GB2312是双字节编码,编码范围是0xA1A1-0x7E7E,去掉未定义的区域之后可以理解为实际编码范围是0xA1A1-0xF7FE。
EUC-CN可以理解为GB2312的别名,和GB2312完全相同。
GBK全称汉字内码扩展规范(Chinese Internal Code Specification)。
GBK是GB2312的扩展,除了兼容GB2312外,它还能显示繁体中文、日文的假名。
GBK采用双字节表示,总体编码范围为8140-FEFE,首字节在81-FE之间,尾字节在40-FE之间,剔除xx7F一条线。
总计23940个码位,共收入21886个汉字和图形符号,其中汉字21003个,图形符号883个。
#include <iconv.h> iconv_t iconv_open(const char *tocode, const char *fromcode); size_t iconv(iconv_t cd, char **inbuf, size_t *inbytesleft, char **outbuf, size_t *outbytesleft); int iconv_close(iconv_t cd);
iconv_open 函数声明要进行哪两种编码的转换,返回一个转换句柄,供iconv和iconv_close两个函数使用。
在tocode后面加上字符串"//TRANSLIT",当源字符串中某个字符无法用目标字符集表示时,可以选择一个(或若干个)与该字符最相似的字符来表示;
在tocode后面加上字符串"//IGNORE",当源字符串中某个字符无法用目标字符集表示时,该字符将被丢弃。
iconv函数将从*inbuf起始的多字节序列转换到以*outbuf起始的多字节序列,
从*inbuf开始读取,最多转换*inbytesleft字节,转换后,从*outbuf开始写入,最多写入*outbytesleft字节。
iconv函数一次转换一个多字节字符,每次字符转换后,*inbuf增加已转换的字节数,*inbytesleft相应减去已转换的字节数;
对应地,*outbuf和*outbytesleft减少已转换的字节数。
以下3种情况转换失败:
1、输入中含无效(invalid)的多字节序列,此时,将errno设置为EILSEQ,并返回-1,*inbuf指向无效序列的最左端;
2、输入中以不完整(incomplete)多字节序列作结尾,将errno设置为EINVAL,并返回-1,*inbuf指向不完整序列的最左端;
3、输出缓冲区没有足够空间存储下一个字符,此时,将errno设置为E2BIG,并返回-1。
const wchar_t* p = L"abc"; // 前缀L是告诉编译器,这是宽字符,UTF-8到UTF-32BE printf("%ls", p); 编码为 0x00000061 0x00000062 0x00000063
wchar_t有一套自己的读写函数,例如:
setlocale(LC_ALL,"zh_CN.UTF-8"); wchar_t a[10] = L"你好"; wprintf(L"this is a test !\n"); wprintf(L"%d\n",wcslen(a)); wprintf(L"%ls\n",a);
标签:style blog http color io os 使用 ar strong
原文地址:http://www.cnblogs.com/chenny7/p/4000636.html