【叶凡网络】对于JVM锁机制的深入synchronized
- 2014-02-19 14:41:42 | 新闻来源:叶凡网络 | 点击量:840
synchron底层实现主要依靠Lock-Fre队列,通过上面的介绍可以看出。基本思路是自旋后阻塞,竞争切换后继续竞争锁,稍微牺牲了公平性,但获得了高吞吐量。其作者是大名鼎鼎的并发专家DougLea本文并不比较synchron与Lock孰优孰劣,目前在Java中存在两种锁机制:synchron和LockLock接口及其实现类是JDK5增加的内容。只是介绍二者的实现原理那锁的同步又依赖谁?synchron给出的答案是软件层面依赖JVM而Lock给出的方案是硬件层面依赖特殊的CPU指令,数据同步需要依赖锁。大家可能会进一步追问:JVM底层又是如何实现synchron
下面首先介绍synchron实现:本文所指说的JVM指Hotspot6u23版本。
因此即使有了Lock接口,synrhron关键字简洁、清晰、语义明确。使用的还是非常广泛。其应用层的语义是可以把任何一个非null对象作为"锁"当synchron作用在方法上时,锁住的便是对象实例(thi当作用在静态方法时锁住的便是对象对应的Class实例,因为Class数据存在于永久带,因此静态方法锁相当于该类的一个全局锁;当synchron作用于某一个对象实例时,锁住的便是对应的代码块。HotSpotJVM实现中,锁有个专门的名字:对象监视器。
1.线程状态及状态转换
对象监视器会设置几种状态用来区分请求的线程:当多个线程同时请求某个对象监视器时。
◆ ContentList所有请求锁的线程将被首先放置到该竞争队列。
◆ EntryListContentList中那些有资格成为候选人的线程被移到EntryList
◆ WaitSet那些调用wait方法被阻塞的线程被放置到WaitSet
该线程称为OnDeck,OnDeck任何时刻最多只能有一个线程正在竞争锁。
◆ Owner获得锁的线程称为Owner
◆ !Owner释放锁的线程。
当某个拥有锁的线程(Owner状态)调用unlock之后,新请求锁的线程将首先被加入到ConetentionList中。如果发现EntryList为空则从ContentionList中移动线程到EntryList下面说明下ContentionList和EntryList实现方式:
原因在于ContentionList由Node及其next指针逻辑构成,ContentionList并不是一个真正的Queue而只是一个虚拟队列。并不存在一个Queue数据结构。ContentionList一个后进先出(LIFO队列,每次新加Node时都会在队头进行,通过CA S改变第一个节点的指针为新增节点,同时设置新增节点的next指向后续节点,而取得操作则发生在队尾。显然,该结构其实是个Lock-Fre队列。也即线程出列操作无争用,因为只有Owner线程才干从队尾取元素。当然也就避免了CA SABA 问题。
ContentionList会被线程并发访问,EntryList与ContentionList逻辑上同属等待队列。为了降低对ContentionList队尾的争用,而建立EntryListOwner线程在unlock时会从ContentionList中迁移线程到EntryList并会指定EntryList中的某个线程(一般为Head为ReadiOnDeck线程。Owner线程并不是把锁传递给OnDeck线程,只是把竞争锁的权利交给OnDeckOnDeck线程需要重新竞争锁。这样做虽然牺牲了一定的公平性,但极大的提高了整体吞吐量,Hotspot中把OnDeck选择行为称之为“竞争切换”
无法获得锁则会依然留在EntryList中,OnDeck线程获得锁后即变为owner线程。考虑到公平性,EntryList中的位置不发生变化(依然在队头)如果Owner线程被wait方法阻塞,则转移到WaitSet队列;如果在某个时刻被notify/notifyA l唤醒,则再次转移到EntryList,阻塞操作由操作系统完成(Linxu下通过pthread_mutex_lock函数)线程被阻塞后便进入内核(Linux调度状态,那些处于ContetionListEntryListWaitSet中的线程均处于阻塞状态。这个会导致系统在用户态与内核态之间来回切换,严重影响锁的性能。
其原理是当发生争用时,缓解上述问题的方法便是自旋。若Owner线程能在很短的时间内释放锁,则那些正在争用线程可以稍微等一等(自旋)Owner线程释放锁后,争用线程可能会立即得到锁,从而防止了系统阻塞。但Owner运行的时间可能会超出了临界值,争用线程自旋一段时间后还是无法获得锁,这时争用线程则会停止自旋进入阻塞状态(后退)基本思路就是自旋,不成功再阻塞,尽量降低阻塞的可能性,这对那些执行时间很短的代码块来说有非常重要的性能提高。自旋锁有个更贴切的名字:自旋-指数后退锁,也即复合锁。很显然,自旋在多处置器上才有意义。可以执行几次for循环,还有个问题是线程自旋时做些啥?其实啥都不做。可以执行几条空的汇编指令,目的占着CPU不放,等待获取锁的机会。所以说,自旋是把双刃剑,如果旋的时间过长会影响整体性能,时间过短又达不到延迟阻塞的目的显然,自旋的周期选择显得非常重要,但这与操作系统、硬件体系、系统的负载等诸多场景相关,很难选择,如果选择不当,不但性能得不到提高,可能还会下降,因此大家普遍认为自旋锁不具有扩展性。HotSpot认为最佳时间应是一个线程上下文切换的时间,对自旋锁周期的选择上。但目前并没有做到经过调查,目前只是通过汇编暂停了几个CPU周期,除了自旋周期选择,HotSpot还进行许多其他自旋优化策略,具体如下:
◆ 如果平均负载小于CPU则一直自旋。
则后来线程直接阻塞,如果有超过(CPUs/2个线程正在自旋。
◆ 如果正在自旋的线程发现Owner发生了变化则延迟自旋时间(自旋计数)或进入阻塞。
◆ 如果CPU处于节电模式则停止自旋。
CPUB得知这个数据直接的时间差),自旋时间的最坏情况是CPU存储延迟(CPUA存储了一个数据。
◆ 自旋时会适当放弃线程优先级之间的差别。
也即第一步操作前。线程在进入等待队列时首先进行自旋尝试获得锁,那synchron实现何时使用了自旋锁?答案是线程进入ContentionList时。如果不成功再进入等待队列。这对那些已经在等待队列中的线程来说,稍微显得不公平。还有一个不公平的地方是自旋线程可能会抢占了Readi线程的锁。自旋锁由每个监视对象维护,每个监视对象一个。
偏向锁主要解决无竞争下的锁性能问题,JVM1.6中引入了偏向锁。首先我看下无竞争下锁存在什么问题:依照之前的HotSpot设计,现在几乎所有的锁都是可重入的也即已经获得锁的线程可以多次锁住/解锁监视对象。每次加锁/解锁都会涉及到一些CA S操作(比如对等待队列的CA S操作)CA S操作会延迟外地调用,因此偏向锁的想法是一旦线程第一次获得了监视对象,之后让监视对象“偏向”这个线程,之后的多次调用则可以避免CA S操作,说白了就是置个变量,如果发现为true则无需再走各种加锁/解锁流程。但还有很多概念需要解释、很多引入的问题需要解决。
各核相对于BUS对称分布,其意思是所有的CPU会共享一条系统总线(BUS靠此总线连接主存。每个核都有自己的一级缓存。因此这种结构称为“对称多处理器”,其作用是让CPU比较后原子地更新某个位置的值,而CA S全称为Compare-A nd-Swap一条CPU原子指令。经过调查发现,其实现方式是基于硬件平台的汇编指令,就是说CA S靠硬件实现的JVM只是封装了汇编调用,那些AtomicInteg类便是使用了这些封装后的接口。当Core1自己的L1Cach中修改这个位置的值时,Core1和Core2可能会同时把主存中某个位置的值Load自己的L1Cach中。会通过总线,使Core2中L1Cach对应的值“失效”而Core2一旦发现自己L1Cach中的值失效(称为Cach命中缺失)则会通过总线从内存中加载该地址最新的值,大家通过总线的来回通信称为“Cach一致性流量”因为总线被设计为固定的通信能力”如果Cach一致性流量过大,总线将成为瓶颈。而当Core1和Core2中的值再次一致时,称为“Cach一致性”从这个层面来说,锁设计的终极目标便是减少Cach一致性流量。
如果有很多线程都共享同一个对象,而CA S恰好会导致Cach一致性流量。当某个CoreCA S胜利时肯定会引起总线风暴,这就是所谓的外地延迟,实质上偏向锁就是为了消除CA S降低Cach一致性流量。
Cach一致性:
其实是有协议支持的现在通用的协议是MESI最早由Intel开始支持)
Cach一致性流量的例外情况:
这跟Cach一致性协议有关,其实也不是所有的CA S都会导致总线风暴。
NUMA NonUniformMemoriAccessAchitectur架构:
现在主要应用在一些高端处理器上,与SMP对应还有非对称多处置器架构。主要特点是没有总线,没有公用主存,每个Core有自己的内存,针对这种结构此处不做讨论。如果另外一个线程争用偏向对象,偏向锁引入的一个重要问题是多争用的场景下。拥有者需要释放偏向锁,而释放的过程会带来一些性能开销,但总体说来偏向锁带来的好处还是大于CA S代价的JVM中还引入了一些其他技术比如锁膨胀等,关于锁。这些与自旋锁、偏向锁相比影响不是很大,这里就不做介绍。
上一篇:【叶凡网络】中国欢迎张美芳副总领事到任驻纽约总领馆
下一篇:【叶凡网络】简阳死者有两处碾轧伤痕,醉驾镇干部近日将被起诉