针对阿里开发规范编程规约并发处理:HashMap 在容量不够进行 resize 时由于高并发可能出现死链,导致 CPU 飙升,在开发过程中可以使用其它数据结构或加锁来规避此风险。

分析造成原因:

当新增后的链表length大于Load factor(负载因子)*length时hashMap会就行重新扩容、位置进行rehash计算,当然在单线程的情况下扩容不会出现问题,真正出现问题是在多线程情况下,同时进行扩容,链表会形成环,这就导致了死链的问题。

JDK1.8之前造成HashMap死链问题
JDK1.8之前造成HashMap死链问题
JDK1.8之前造成HashMap死链问题
主要看Transfer()方法

假设原本某一hashMap的Load factor(负载因子)为0.75,长度为4。
table[i]–>a–>b–>null进行扩容时,会先读取(包括插入都是先读取头部的)。

假设线程A 进行扩容时newTable[i]–>a–>null,之后线程被挂起或者置后。

此时线程B被调度,再进行扩容,先是 newTable[i]–>a–>null,之后再将b添加进来newTable[i]–>b–>a–null。 可见扩容后链表值的位置变成了逆序的了。

此时线程A再继续执行,此时e=a,next=b,即a.next=b执行e=next。而线程

分类:

技术点:

相关文章: