当前位置: 移动技术网 > IT编程>开发语言>Java > 【Java基础】让编码问题不再困惑你

【Java基础】让编码问题不再困惑你

2019年10月11日  | 移动技术网IT编程  | 我要评论

如果你是一个生活在2003年的程序员,却不了解字符、字符集、编码和unicode这些基础知识。那你可要小心了,要是被我抓到你,我会让你在潜水艇里剥六个月洋葱来惩罚你。 --来源网络


1. ascii编码

上个世纪60年代,美国制定了一套字符编码,对英语字符与二进制位之间的关系,做了统一规定。这被称为ascii码,一直沿用至今。ascii码一共规定了128个字符的编码,比如空格"space"是32(二进制00100000),大写的字母a是65(二进制01000001)。这128个符号(包括32个不能打印出来的控制符号),只占用了一个字节的后面7位,最前面的1位统一规定为0。0~31 是控制字符如换行回车删除等,32~126 是打印字符,可以通过键盘输入并且能够显示出来。

英语用128个符号编码就够了,但是用来表示其他语言,128个符号是不够的。比如,在法语中,字母上方有注音符号,它就无法用ascii码表示。于是,一些欧洲国家就决定,利用字节中闲置的最高位编入新的符号。比如,法语中的é的编码为130(二进制10000010)。这样一来,这些欧洲国家使用的编码体系,可以表示最多256个符号。

但是,这里又出现了新的问题。不同的国家有不同的字母,因此,哪怕它们都使用256个符号的编码方式,代表的字母却不一样。比如,130在法语编码中代表了é,在希伯来语编码中却代表了字母gimel (ג),在俄语编码中又会代表另一个符号。但是不管怎样,所有这些编码方式中,0—127表示的符号是一样的,不一样的只是128—255的这一段。

至于亚洲国家的文字,使用的符号就更多了,汉字就多达10万左右。一个字节只能表示256种符号,肯定是不够的,就必须使用多个字节表达一个符号。比如,简体中文常见的编码方式是gb2312,使用两个字节表示一个汉字,所以理论上最多可以表示65536个符号。

2. unicode编码

可以想象,如果有一种编码,将世界上所有的符号都纳入其中。每一个符号都给予一个独一无二的编码,那么就不会出现上面的问题。unicode编码就是这样一种编码。

unicode是一个很大的字符集合,现在的规模可以容纳100多万个符号。每个符号的编码都不一样,比如,u+0639表示阿拉伯字母ain,u+0041表示英语的大写字母a,u+4e25表示汉字“严”。

需要注意的是,unicode只是一个符号集,它只规定了符号的二进制代码,却没有规定这个二进制代码应该如何存储。这就造成了两个问题:

  • 第一个问题是,如何才能区别unicode和ascii?计算机怎么知道三个字节表示一个符号,而不是分别表示三个符号呢?
  • 第二个问题是,我们已经知道,英文字母只用一个字节表示就够了,如果unicode统一规定,每个符号用三个或四个字节表示,那么每个英文字母前都必然有二到三个字节是0,这对于存储来说是极大的浪费,文本文件的大小会因此大出二三倍,这是无法接受的。

记住,unicode只是一个用来映射字符和数字的标准。它对支持字符的数量没有限制,也不要求字符必须占两个、三个或者其它任意数量的字节。unicode字符是怎样被编码成内存中的字节这是另外的话题,它是被utf(unicode transformation formats)定义的。

3. utf-8编码

互联网的普及,强烈要求出现一种统一的编码方式。utf-8就是在互联网上使用最广的一种unicode的实现方式。其他实现方式还包括utf-16和utf-32,不过在互联网上基本不用。重复一遍,这里的关系是,utf-8是unicode的实现方式之一。

utf-8(8-bit unicode transformation format)是一种针对unicode的可变长度字符编码,又称万国码。由ken thompson于1992年创建。现在已经标准化为rfc 3629。utf-8用1到4个字节编码unicode字符。用在网页上可以统一页面显示中文简体繁体及其它语言(如英文,日文,韩文)。

utf-8最大的一个特点,就是它是一种变长的编码方式。它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节长度(utf-8编码可以容纳2^21个字符,总共200多万个字符)。

utf-8的编码规则很简单,只有二条:

  1. 对于单字节的符号,字节的第一位设为0,后面7位为这个符号的unicode码。因此对于英语字母,utf-8编码和ascii码是相同的。

  2. 对于n字节的符号(n>1),第一个字节的前n位都设为1,第n+1位设为0,后面字节的前两位一律设为10。剩下的没有提及的二进制位,全部为这个符号的unicode码。

下表总结了编码规则,字母x表示可用编码的位。

unicode符号范围 | utf-8编码方式
utf字节数                  (十六进制) | (二进制)
--------------------+---------------------------------------------一个字节 0000 0000-0000 007f | 0xxxxxxx
两个字节 0000 0080-0000 07ff | 110xxxxx 10xxxxxx
三个字节 0000 0800-0000 ffff | 1110xxxx 10xxxxxx 10xxxxxx
四个字节 0001 0000-0010 ffff | 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx

下面, 还是以汉字“严”为例,演示如何实现utf-8编码。

已知“严”的unicode是4e25(100111000100101),根据上表,可以发现4e25处在第三行的范围内(0000 0800-0000 ffff),因此“严”的utf-8编码需要三个字节,即格式是“1110xxxx 10xxxxxx 10xxxxxx”。然后,从“严”的最后一个二进制位开始,依次从后向前填入格式中的x,多出的位补0。这样就得到了,“严”的utf-8编码是“11100100 10111000 10100101”,转换成十六进制就是e4b8a5。

4. utf8、utf16和utf32之间的区别

首先我们要确定一个概念就是unicode是一个字符集,这个字符集世界上所有的字符定义了一个唯一编码。其仅仅规定了每个符号的二进制代码,没有制定细化的存储规则。utf-8、utf-16、utf-32才是unicode的存储格式定义。(拿一个通信中的列子做个对比,一个信号(类比成unicode编码指),通过不同的编码方式,会被编码成不同的高低信号)

4.1 ucs-2和ucs-4

unicode是为整合全世界的所有语言文字而诞生的。任何文字在unicode中都对应一个值, 这个值称为代码点(code point)。代码点的值通常写成 u+abcd 的格式。而文字和代码点之间的对应关系就是ucs-2(universal character set coded in 2 octets)。顾名思义,ucs-2是用两个字节来表示代码点,其取值范围为 u+0000~u+ffff。

为了能表示更多的文字,人们又提出了ucs-4,即用四个字节表示代码点。它的范围为 u+00000000~u+7fffffff,其中 u+00000000~u+0000ffff和ucs-2是一样的。

要注意,ucs-2和ucs-4只规定了代码点和文字之间的对应关系,并没有规定代码点在计算机中如何存储。规定存储方式的称为utf(unicode transformation format),其中应用较多的就是utf-16和utf-8了。

4.2 utf-16

utf-16由rfc2781规定,它使用两个字节来表示一个代码点。不难猜到,utf-16是完全对应于ucs-2的,即把ucs-2规定的代码点通过big endian或little endian方式直接保存下来。utf-16包括三种:utf-16,utf-16be(big endian),utf-16le(little endian)。utf-16be和utf-16le不难理解,而utf-16就需要通过在文件开头以名为bom(byte order mark)的字符来表明文件是big endian还是little endian。bom为u+feff这个字符。其实bom是个小聪明的想法。由于ucs-2没有定义u+feff,因此只要出现 ff fe 或者 fe ff 这样的字节序列,就可以认为它是u+feff,并且可以判断出是big endian还是little endian。

bom(byte order mark)用来放在文档的开头告诉阅读器该文档的字节序。utf-8不需要bom来表明字节顺序,但可以用bom来表明编码方式。字符"zero width no-break space"的utf-8编码是ef bb bf。所以如果接收者收到以ef bb bf开头的字节流,就知道这是utf-8编码了。utf-16才需要加bom。因为它是按unicode顺序编码,在bmp范围内是二字节,需要识别是大或小字节序。
 

低字节序(little endian)和高字节序(big endian)
低字节序和高字节序只是一个关于在内存中存储和读取一段字节(被称作words)的约定。这意味着当你让计算机用utf-16把字母a(占两个字节)存在内存中时,使用哪种字节序方案决定了你把第一个字节放在第二个字节的前面还是后面。这么说有点不太容易懂,让我们来看一个例子:当你使用utf-16存下某段内容时,在不同的系统中它的后半部分可能是这样的:
00 68 00 65 00 6c 00 6c 00 6f(高字节序,高位字节被存在前面)
68 00 65 00 6c 00 6c 00 6f 00(低字节序,低位字节被存在前面)

字节序方案只是一个微处理器架构设计者的偏好问题,例如,intel使用低字节序,motorola使用高字节序。

举个例子。“abc”这三个字符用各种方式编码后的结果如下:

编码类型 码值
utf-16be 00 41 00 42 00 43
utf-16le 41 00 42 00 43 00
utf-16(big endian) fe ff 00 41 00 42 00 43
utf-16(little endian) ff fe 41 00 42 00 43 00
utf-16(不带bom) 00 41 00 42 00 43

4.3 utf-32

utf-32用四个字节表示代码点,这样就可以完全表示ucs-4的所有代码点,而无需像utf-16那样使用复杂的算法。 与utf-16类似,utf-32也包括utf-32、utf-32be、utf-32le三种编码,utf-32也同样需要bom字符。

4.4 文本编辑器怎么知道文本的编码

当一个软件打开一个文本时,它要做的第一件事是决定这个文本究竟是使用哪种字符集的哪种编码保存的。软件一般采用三种方式来决定文本的字符集和编码:     

  1. 检测文件头标识(bom)

    ef   bb   bf   utf-8      
    fe   ff   utf-16/ucs-2,   big   endian      
    ff   fe   utf-16/ucs-2,   little   endian      
    ff   fe   00   00   utf-32/ucs-4,   little   endian.      
    00   00   fe   ff   utf-32/ucs-4,   big-endian.

  2. 软件自己根据编码规则猜测当前文件的编码

  3. 提示用户自己输入当前文件的编码

5. gbk、gb2312和gb18030之间的区别

gb2312是对ascll码的扩展,占用两个字节。一个小于127的字符的意义与原来相同,但两个大于127的字符连在一起时,就表示一个汉字,前面的一个字节(他称之为高字节)从0xa1用到0xf7,后面一个字节(低字节)从0xa1到0xfe,这样我们就可以组合出大约7000多个简体汉字了。在这些编码里,我们还把数学符号、罗马希腊的字母、日文的假名们都编进去了,连在 ascii 里本来就有的数字、标点、字母都统统重新编了两个字节长的编码,这就是常说的"全角"字符,而原来在127号以下的那些就叫"半角"字符了。

gb2312能表示的字符还是不够用,于是gbk出现了。gbk是对gb1212的扩展,也是占用2个字节,gbk不再要求低字节一定是127号之后的内码,只要第一个字节是大于127就固定表示这是一个汉字的开始,不管后面跟的是不是扩展字符集里的内容。结果扩展之后的编码方案被称为 gbk 标准,gbk 包括了 gb2312 的所有内容,同时又增加了近20000个新的汉字(包括繁体字)和符号。

gb18030采用变长编码,可以是1个字节、2个字节和4个字节。是对gb2312和gbk的扩展,完全兼容两者。

经过上面介绍,我们可以看出unicode是一个世界标准,针对世界上所有语言符号制定编码表,而gbk、gb2312等则主要是针对中国的字符进行编码。

6. java中的编码问题

我们知道涉及到编码的地方一般都在字符到字节或者字节到字符的转换上,而需要这种转换的场景主要是在 i/o 的时候,这个 i/o 包括磁盘 i/o 和网络 i/o。而大部分 i/o 引起的乱码都是网络 i/o。

用户从浏览器端发起一个 http 请求,需要存在编码的地方是 url、cookie、parameter。服务器端接受到 http 请求后要解析 http 协议,其中 uri、cookie 和 post 表单参数需要解码,服务器端可能还需要读取数据库中的数据,本地或网络中其它地方的文本文件,这些数据都可能存在编码问题,当 servlet 处理完所有请求的数据后,需要将这些数据再编码通过 socket 发送到用户请求的浏览器里,再经过浏览器解码成为文本。这些过程如下图所示:

如上图所示一次 http 请求设计到很多地方需要编解码,它们编解码的规则是什么?下面将会重点阐述一下:

url 的编解码
用户提交一个 url,这个 url 中可能存在中文,因此需要编码,如何对这个 url 进行编码?根据什么规则来编码?有如何来解码?如下图一个 url:

port 对应在 tomcat 的 中配置,而 context path 在 中配置,servlet path 在 web 应用的 web.xml 中的

    <servlet-mapping> 
            <servlet-name>junshanexample</servlet-name> 
            <url-pattern>/servlets/servlet/*</url-pattern> 
     </servlet-mapping> 

中配置,pathinfo 是我们请求的具体的 servlet,querystring 是要传递的参数,注意这里是在浏览器里直接输入 url 所以是通过 get 方法请求的,如果是 post 方法请求的话,querystring 将通过表单方式提交到服务器端,这个将在后面再介绍。

上图中 pathinfo 和 querystring 出现了中文,当我们在浏览器中直接输入这个 url 时,在浏览器端和服务端会如何编码和解析这个 url 呢?为了验证浏览器是怎么编码 url 的我们选择 firefox 浏览器并通过 httpfox 插件观察我们请求的 url 的实际的内容,以下是 url:http://localhost:8080/examples/servlets/servlet/君山?author= 君山 在中文 firefox3.6.12 的测试结果:

君山的编码结果分别是:e5 90 9b e5 b1 b1,be fd c9 bd,查阅上一届的编码可知,pathinfo 是 utf-8 编码而 querystring 是经过 gbk 编码,至于为什么会有“%”?查阅 url 的编码规范 rfc3986 可知浏览器编码 url 是将非 ascii 字符按照某种编码格式编码成 16 进制数字然后将每个 16 进制表示的字节前加上“%”,所以最终的 url 就成了上图的格式了。

从上面测试结果可知浏览器对 pathinfo 和 querystring 的编码是不一样的,不同浏览器对 pathinfo 也可能不一样,这就对服务器的解码造成很大的困难,下面我们以 tomcat 为例看一下,tomcat 接受到这个 url 是如何解码的。

protected void converturi(messagebytes uri, request request) 
 throws exception { 
        bytechunk bc = uri.getbytechunk(); 
        int length = bc.getlength(); 
        charchunk cc = uri.getcharchunk(); 
        cc.allocate(length, -1); 
        string enc = connector.geturiencoding(); 
        if (enc != null) { 
            b2cconverter conv = request.geturiconverter(); 
            try { 
                if (conv == null) { 
                    conv = new b2cconverter(enc); 
                    request.seturiconverter(conv); 
                } 
            } catch (ioexception e) {...} 
            if (conv != null) { 
                try { 
                    conv.convert(bc, cc, cc.getbuffer().length - 
 cc.getend()); 
                    uri.setchars(cc.getbuffer(), cc.getstart(), 
 cc.getlength()); 
                    return; 
                } catch (ioexception e) {...} 
            } 
        } 
        // default encoding: fast conversion 
        byte[] bbuf = bc.getbuffer(); 
        char[] cbuf = cc.getbuffer(); 
        int start = bc.getstart(); 
        for (int i = 0; i < length; i++) { 
            cbuf[i] = (char) (bbuf[i + start] & 0xff); 
        } 
        uri.setchars(cbuf, 0, length); 
 }

从上面的代码中可以知道对 url 的 uri 部分进行解码的字符集是在connector的 中定义的,如果没有定义,那么将以默认编码 iso-8859-1 解析。所以如果有中文 url 时最好把 uriencoding 设置成 utf-8 编码。

querystring 又如何解析? get 方式 http 请求的 querystring 与 post 方式 http 请求的表单参数都是作为 parameters 保存,都是通过 request.getparameter 获取参数值。对它们的解码是在 request.getparameter 方法第一次被调用时进行的。request.getparameter 方法被调用时将会调用 org.apache.catalina.connector.request 的 parseparameters 方法。这个方法将会对 get 和 post 方式传递的参数进行解码,但是它们的解码字符集有可能不一样。post 表单的解码将在后面介绍,querystring 的解码字符集是在哪定义的呢?它本身是通过 http 的 header 传到服务端的,并且也在 url 中,是否和 uri 的解码字符集一样呢?从前面浏览器对 pathinfo 和 querystring 的编码采取不同的编码格式不同可以猜测到解码字符集肯定也不会是一致的。的确是这样 querystring 的解码字符集要么是 header 中 contenttype 中定义的 charset 要么就是默认的 iso-8859-1,要使用 contenttype 中定义的编码就要设置 connector 的 中的 usebodyencodingforuri 设置为 true。这个配置项的名字有点让人产生混淆,它并不是对整个 uri 都采用 bodyencoding 进行解码而仅仅是对 querystring 使用 bodyencoding 解码,这一点还要特别注意。

从上面的 url 编码和解码过程来看,比较复杂,而且编码和解码并不是我们在应用程序中能完全控制的,所以在我们的应用程序中应该尽量避免在 url 中使用非 ascii 字符,不然很可能会碰到乱码问题,当然在我们的服务器端最好设置 中的 uriencoding 和 usebodyencodingforuri 两个参数。

http header 的编解码
当客户端发起一个 http 请求除了上面的 url 外还可能会在 header 中传递其它参数如 cookie、redirectpath 等,这些用户设置的值很可能也会存在编码问题,tomcat 对它们又是怎么解码的呢?

对 header 中的项进行解码也是在调用 request.getheader 是进行的,如果请求的 header 项没有解码则调用 messagebytes 的 tostring 方法,这个方法将从 byte 到 char 的转化使用的默认编码也是 iso-8859-1,而我们也不能设置 header 的其它解码格式,所以如果你设置 header 中有非 ascii 字符解码肯定会有乱码。

我们在添加 header 时也是同样的道理,不要在 header 中传递非 ascii 字符,如果一定要传递的话,我们可以先将这些字符用 org.apache.catalina.util.urlencoder 编码然后再添加到 header 中,这样在浏览器到服务器的传递过程中就不会丢失信息了,如果我们要访问这些项时再按照相应的字符集解码就好了。

post 表单的编解码
在前面提到了 post 表单提交的参数的解码是在第一次调用 request.getparameter 发生的,post 表单参数传递方式与 querystring 不同,它是通过 http 的 body 传递到服务端的。当我们在页面上点击 submit 按钮时浏览器首先将根据 contenttype 的 charset 编码格式对表单填的参数进行编码然后提交到服务器端,在服务器端同样也是用 contenttype 中字符集进行解码。所以通过 post 表单提交的参数一般不会出现问题,而且这个字符集编码是我们自己设置的,可以通过 request.setcharacterencoding(charset) 来设置。

另外针对 multipart/form-data 类型的参数,也就是上传的文件编码同样也是使用 contenttype 定义的字符集编码,值得注意的地方是上传文件是用字节流的方式传输到服务器的本地临时目录,这个过程并没有涉及到字符编码,而真正编码是在将文件内容添加到 parameters 中,如果用这个编码不能编码时将会用默认编码 iso-8859-1 来编码。

http body 的编解码
当用户请求的资源已经成功获取后,这些内容将通过 response 返回给客户端浏览器,这个过程先要经过编码再到浏览器进行解码。这个过程的编解码字符集可以通过 response.setcharacterencoding 来设置,它将会覆盖 request.getcharacterencoding 的值,并且通过 header 的 content-type 返回客户端,浏览器接受到返回的 socket 流时将通过 content-type 的 charset 来解码,如果返回的 http header 中 content-type 没有设置 charset,那么浏览器将根据 html 的 中的 charset 来解码。如果也没有定义的话,那么浏览器将使用默认的编码来解码。

其他需要注意编码的地方
除了 url 和参数编码问题外,在服务端还有很多地方可能存在编码,如可能需要读取 xml、velocity 模版引擎、jsp 或者从数据库读取数据等。

xml 文件可以通过设置头来制定编码格式

    <?xml version="1.0" encoding="utf-8"?> 

velocity 模版设置编码格式:

services.velocityservice.input.encoding=utf-8 

jsp 设置编码格式:

<%@page contenttype="text/html; charset=utf-8"%>

访问数据库都是通过客户端 jdbc 驱动来完成,用 jdbc 来存取数据要和数据的内置编码保持一致,可以通过设置 jdbc url 来制定如 mysql:

url="jdbc:mysql://localhost:3306/db?useunicode=true&characterencoding=gbk"

8. 乱码问题分析

下面看一下,当我们碰到一些乱码时,应该怎么处理这些问题?出现乱码问题唯一的原因都是在 char 到 byte 或 byte 到 char 转换中编码和解码的字符集不一致导致的,由于往往一次操作涉及到多次编解码,所以出现乱码时很难查找到底是哪个环节出现了问题。根据自己的经验,往往从最源头开始一步步查原因是最快的。

9. 参考

为什么java最多只能标识65535个字符

unicode本身只是一个标准,不是具体实现,并没有限定字节数。目前用于实用的 unicode 版本对应于 ucs-2,使用16位的编码空间,因此最大能表示65535个字符。unicode是发展的,6万个确实不够,事实上现在的unicode已经支持超过10万个字符(第10万个于2005年被采纳,为马来亚拉姆语。当前的unicode版本为6.3,2013年9月30日制定。java中使用的仍是ucs-2。

如对本文有疑问, 点击进行留言回复!!

相关文章:

验证码:
移动技术网