即使是单核处理器也支持多线程执行代码,cpu 通过给每个线程分配 cpu 时间片来执行任务,当前任务执行一个时间片后会切换到下一个任务,所以 cpu 通过不停的切换线程执行。
并发执行如果没有达到一定的数量级,速度反而会比串行执行要慢。这是因为线程有创建和上下文切换的开销。
如何减少线程创建和上下文切换的开销?(“vmstat 1” 的 cs 参数,查看线程切换的次数)
如何避免死锁?
在java se 1.6中,锁一共有4种状态,级别从低到高依次是:无锁状态、偏向锁状态、轻量级锁状态和重量级锁(也称互斥锁)状态,这几个状态会随着竞争情况逐渐升级。锁可以升级但不能降级,这种策略的目的是为了提高获得锁和释放锁的效率。有意思的是除了偏向锁,jvm 实现锁的方式都用了循环 cas,即当一个线程想进入同步块的时候使用循环 cas 的方式来获取锁,当它退出同步块的时候使用循环 cas 释放锁。
如果只有一个线程进入同步代码块,那么它首先会获得“偏向锁”;当存在线程间竞争的时候,“偏向锁”会撤销,从而使用“轻量级锁”;当线程通过自旋方式始终获取不到“轻量级锁”时(获取锁的线程执行时间过长等原因),那么“轻量级锁”会膨胀成“重量级锁”。
jmm(java 内存模型)采用共享内存模型,通过控制主内存(main memory)与每个线程的本地内存(local memory)之间的交互,来为 java 程序员提供内存可见性保证。
从 java 源代码到最终实际执行的指令序列,会分别经历“编译器优化的重排序”、“指令级并行的重排序”、“内存系统的重排序”,前一个属于编译器重排序,后两个属于处理器重排序,这些重排序会导致多线程程序出现内存可见性问题。为了保证内存可见性,java 编译器在生成指令序列的适当位置会插入内存屏障指令来禁止特定类型的处理器重排序。jmm 把内存屏障分为四类:
happens-before 是 jmm 最核心的概念。happens-before 规则对应于一个或多个编译器和处理器重排序规则,jmm 通过 happens-before 规则隐藏了复杂的重排序规则以及这些规则的具体实现,而程序员在 happens-before 规则上编程,从而保证内存可见性。
顺序一致性内存模型是一个理论参考模型,jmm 和处理器内存模型在设计时通常会以顺序一致性内存模型为参照。
顺序一致性模型、jmm、处理器内存模型,内存模型设计由强变弱,因为越是追求性能,内存模型就会设计的越弱,以此减少内存模型对它们的束缚。
理解 volatile 特性的一个好方法是把对 volatile 变量的单个读/写,看成是使用同一个锁对这些单个读/写操作做了同步。简而言之,volatile 变量自身具有下列特性:
volatile 关键字如何保证可见性?volatile 的内存语义?
volatile 关键字如何保证有序性?
为什么 jdk 文档说 cas 同时具有 volatile 读和 volatile 写的内存语义?
synchonized 关键字的原理?jvm 基于进入和退出 monitor 对象来实现方法同步和代码块同步,但两者的实现细节不一样。代码块同步是使用 monitorenter 和 monitorexit 指令实现的,而方法同步是使用另外一种方式实现的,细节在 jvm 规范里并没有详细说明。
锁的释放和获取的内存语义?
对于 final 变量,编译器和处理器要遵守两个重排序规则(对象引用不在构造函数中“溢出”的情况下):
final 变量的内存语义?
在构造函数内部,不能让这个被构造对象的引用为其他线程所见,也就是对象引用不能在构造函数中“溢出”。因为 jmm 无法保证在构造函数中“对变量的写”和“被构造对象的引用” 这两者之间是否会被重排序。
jps 和 jstack 命令?
jstack 18023 > /home/wwwroot/dump18023
grep java.lang.thread.state dump18023 | awk '{print $2$3$4$5}' | sort | uniq -c
可以使用odps、hadoop 或者自己搭建服务器集群来解决硬件资源限制的问题。
一个对象的引用占 4 个字节。
如对本文有疑问, 点击进行留言回复!!
[JVM学习之路]一、初识JVM,了解其结构、模型及生命周期
【JAVA并发编程】LinkedBlockingQueue原理
网友评论