HashMap是Java中非常重要且被广泛使用的数据结构,其内部实现充满了有趣而复杂的算法。我们研究下HashMap内部的一些核心算法,包括哈希冲突的解决、扩容策略、树化与树退化等。
1. 容量计算方法
即tableSizeFor方法。其主要目的是确保HashMap的容量始终是2的幂次方,这一特性对HashMap的哈希算法和扩容策略都至关重要。
// cap为用户传入的map初始化大小,将返回一个大于该数的,距离最近的2的幂次方
static final int tableSizeFor(int cap) {
int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1);
return (n = MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
- Integer.numberOfLeadingZeros(cap - 1): 这个方法返回参数cap - 1的二进制表示中,从最高位开始连续的零的个数。这个值实际上表示了cap的二进制表示中,最高位的位置(不包括符号位)。
- -1 >>> Integer.numberOfLeadingZeros(cap - 1): 这一步通过将-1右移numberOfLeadingZeros位,实际上将最高位至numberOfLeadingZeros位之间的所有位都置为1,其余位为0。这样做的目的是为了确保在后续的计算中,得到的值是一个2的幂次方减1的形式。
- (n = MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1: 这一步对上述得到的值进行判断和修正。如果计算结果小于0,说明cap为0,因此将容量设为1;如果计算结果超过了MAXIMUM_CAPACITY,即HashMap的最大容量限制,将容量设为MAXIMUM_CAPACITY;否则,将容量设为n + 1。这里的n + 1保证了返回的容量是2的幂次方。
总的来说,tableSizeFor方法确保了HashMap的容量始终是2的幂次方。这种容量设置的方式有助于提高哈希算法的性能,同时与HashMap的扩容策略密切相关。这样的设计使得HashMap在进行哈希计算时,可以通过位运算,取代一些昂贵的除法运算,从而提高计算效率。
2. 哈希冲突:链表和红黑树
在HashMap中,哈希冲突是指不同的键可能映射到相同的索引位置的情况。为了解决冲突,HashMap采用了拉链法,即将具有相同哈希码的键值对存储在同一个数组位置,以链表的形式。
class Node {
final int hash;
final K key;
V value;
Node next;
Node(int hash, K key, V value, Node next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
}
上述Node类表示HashMap中的一个节点,包含了键、值、哈希码以及指向下一个节点的引用。当冲突的链表长度超过一定阈值(默认为8)时,HashMap会将链表转换为红黑树,以提高查找效率。
static final int TREEIFY_THRESHOLD = 8;
// 当链表长度达到8时,将链表转换为红黑树
void treeifyBin(Node[] tab, int hash) {
// ...
if (n >= TREEIFY_THRESHOLD) {
// 执行转换为红黑树的操作
treeifyBin(tab, hash);
// ...
}
// ...
}
3. 扩容:2 的幂次方扩容
当HashMap的元素数量达到一定负载因子时(默认为0.75),为了避免链表过长,会触发扩容操作。在扩容时,HashMap将数组容量扩大至原来的两倍,并重新计算所有元素的索引位置。
void resize() {
int oldCap = table.length;
int newCap = oldCap >> 16);
}
这里的hash方法通过异或运算和无符号右移等位运算,将键的哈希码进行扰动,增加哈希码的随机性。
5. 树化与树退化
为了提高查找效率,当链表长度超过一定阈值(默认为8)时,HashMap会将链表转化成红黑树。而在删除或链表长度过短时,红黑树又可能退化成链表。
static final int UNTREEIFY_THRESHOLD = 6;
// 将红黑树退化为链表
void untreeify(Node[] tab) {
// ...
if ((n = threshold) && (null != table[bucketIndex])) {
// 执行重新哈希的操作
resize();
// ...
}
// ...
}
DEFAULT_LOAD_FACTOR是一个默认的负载因子,表示当元素数量达到容量的75%时,触发扩容。
通过这些代码示例,我们可以稍微了解到HashMap内部的一些核心算法。这些算法保证了HashMap在面对不同场景时能够保持高效的性能,同时保证了数据结构的稳定性。深入了解这些算法不仅有助于我们理解HashMap的内部工作原理,还能够在需要的情况下更好地优化我们的代码。希望通过这次的有趣之旅,大家对HashMap内部的奥秘有了更深层次的理解。