深入底层探究并发编程Bug罪魁祸首——可见性、原子性、有序性( 二 )


循环 10000 次 count+=1 操作如果改为循环 1 亿次,你会发现效果更明显,最终 count的值接近 1 亿,而不是 2 亿 。如果循环 10000 次,count 的值接近 20000,原因是两个线程不是同时启动的,有一个时差 。

深入底层探究并发编程Bug罪魁祸首——可见性、原子性、有序性

文章插图
变量 count 在 CPU 缓存和内存的分布图
源头之二:线程切换带来的原子性问题由于 IO 太慢,早期的操作系统就发明了多进程,即便在单核的 CPU 上我们也可以一边听着歌,一边写 Bug,这个就是多进程的功劳 。
操作系统允许某个进程执行一小段时间,例如 50 毫秒,过了 50 毫秒操作系统就会重新选择一个进程来执行(我们称为“任务切换”),这个 50 毫秒称为“时间片” 。
深入底层探究并发编程Bug罪魁祸首——可见性、原子性、有序性

文章插图
线程切换示意图
在一个时间片内,如果一个进程进行一个 IO 操作,例如读个文件,这个时候该进程可以把自己标记为“休眠状态”并出让 CPU 的使用权,待文件读进内存,操作系统会把这个休眠的进程唤醒,唤醒后的进程就有机会重新获得 CPU 的使用权了 。
这里的进程在等待 IO 时之所以会释放 CPU 使用权,是为了让 CPU 在这段等待时间里可以做别的事情,这样一来 CPU 的使用率就上来了;此外,如果这时有另外一个进程也读文件,读文件的操作就会排队,磁盘驱动在完成一个进程的读操作后,发现有排队的任务,就会立即启动下一个读操作,这样 IO 的使用率也上来了 。
是不是很简单的逻辑?但是,虽然看似简单,支持多进程分时复用在操作系统的发展史上却具有里程碑意义,Unix 就是因为解决了这个问题而名噪天下的 。
早期的操作系统基于进程来调度 CPU,不同进程间是不共享内存空间的,所以进程要做任务切换就要切换内存映射地址,而一个进程创建的所有线程,都是共享一个内存空间的,所以线程做任务切换成本就很低了 。现代的操作系统都基于更轻量的线程来调度,现在我们提到的“任务切换”都是指“线程切换” 。
JAVA 并发程序都是基于多线程的,自然也会涉及到任务切换,也许你想不到,任务切换竟然也是并发编程里诡异 Bug 的源头之一 。任务切换的时机大多数是在时间片结束的时候,我们现在基本都使用高级语言编程,高级语言里一条语句往往需要多条 CPU 指令完成,例如上面代码中的count += 1,至少需要三条 CPU 指令 。
  • 指令 1:首先,需要把变量 count 从内存加载到 CPU 的寄存器;
  • 指令 2:之后,在寄存器中执行 +1 操作;
  • 指令 3:最后,将结果写入内存(缓存机制导致可能写入的是 CPU 缓存而不是内存) 。
操作系统做任务切换,可以发生在任何一条CPU 指令执行完,是的,是 CPU 指令,而不是高级语言里的一条语句 。对于上面的三条指令来说,我们假设 count=0,如果线程 A 在指令 1 执行完后做线程切换,线程 A 和线程 B 按照下图的序列执行,那么我们会发现两个线程都执行了 count+=1 的操作,但是得到的结果不是我们期望的 2,而是 1 。
深入底层探究并发编程Bug罪魁祸首——可见性、原子性、有序性

文章插图
非原子操作的执行路径示意图
我们潜意识里面觉得 count+=1 这个操作是一个不可分割的整体,就像一个原子一样,线程的切换可以发生在 count+=1 之前,也可以发生在 count+=1 之后,但就是不会发生在中间 。我们把一个或者多个操作在 CPU 执行的过程中不被中断的特性称为原子性 。CPU能保证的原子操作是 CPU 指令级别的,而不是高级语言的操作符,这是违背我们直觉的地方 。因此,很多时候我们需要在高级语言层面保证操作的原子性 。
源头之三:编译优化带来的有序性问题那并发编程里还有没有其他有违直觉容易导致诡异 Bug 的技术呢?有的,就是有序性 。顾名思义,有序性指的是程序按照代码的先后顺序执行 。编译器为了优化性能,有时候会改变程序中语句的先后顺序,例如程序中:“a=6;b=7;”编译器优化后可能变成“b=7;a=6;”,在这个例子中,编译器调整了语句的顺序,但是不影响程序的最终结果 。不过有时候编译器及解释器的优化可能导致意想不到的 Bug 。
在 Java 领域一个经典的案例就是利用双重检查创建单例对象,例如下面的代码:在获取实例 getInstance() 的方法中,我们首先判断 instance 是否为空,如果为空,则锁定Singleton.class 并再次检查 instance 是否为空,如果还为空则创建 Singleton 的一个实例 。


推荐阅读