若文章内容或图片失效,请留言反馈。部分素材来自网络,若不小心影响到您的利益,请联系博主删除。
文章目录
0.前言
我自己是根据黑马官网公布的《Java 八股文面试题教程_Java 面试八股文宝典》 的资料来学习的
黑马官方公开的免费资源的链接
推荐博客(推荐理由:关于视频里的分析过程,该博主记录的非常详细)
写这篇博客的目的是制作笔记,方便个人在线阅览,以巩固知识。
博客的内容主要摘抄自视频内容和资料中提供的学习笔记。
1.查找和排序
1.1. 二分查找
要求
- 能够用自己语言描述二分查找算法
- 能够手写二分查找代码
- 能够解答一些变化后的考法
算法描述
- 前提:有已排序数组 A(假设已经做好)
- 定义左边界 L、右边界 R,确定搜索范围,循环执行二分查找(3、4两步)
- 获取中间索引 M = Floor( (L + R) / 2 )
- 中间索引的值 A[M] 与待搜索的值 T 进行比较
- A[M] == T 表示找到,返回中间索引
- A[M] > T,中间值右侧的其它元素都大于 T,无需比较,中间索引左边去找,M - 1 设置为右边界,重新查找
- A[M] < T,中间值左侧的其它元素都小于 T,无需比较,中间索引右边去找, M + 1 设置为左边界,重新查找
- 当 L > R 时,表示没有找到,应结束循环
更形象的描述请参考:binary_search.html
对应视频演示:基础篇_02_二分查找_演示
算法实现
public static int binarySearch(int[] a, int t) {
int l = 0, r = a.length - 1, m;
while (l <= r) {
m = (l + r) / 2;
if (a[m] == t) {
return m;
} else if (a[m] > t) {
r = m - 1;
} else {
l = m + 1;
}
}
return -1;
}
测试代码
public static void main(String[] args) {
int[] array = {1, 5, 8, 11, 19, 22, 31, 35, 40, 45, 48, 49, 50};
int target = 47;
int idx = binarySearch(array, target);
System.out.println(idx);
}
解决整数溢出问题
当 l 和 r 都较大时,l + r
有可能超过整数范围,造成运算错误
解决方法有两种
- 第一种:
int m = l + (r - l) / 2;
- 第二种:
int m = (l + r) >>> 1;
其他考法
问题
- 有一个有序表为 1,5,8,11,19,22,31,35,40,45,48,49,50 当二分查找值为 48 的结点时,查找成功需要比较的次数 (答:4 次)
- 使用二分法在序列 1,4,6,7,15,33,39,50,64,78,75,81,89,96 中查找元素 81 时,需要经过( )次比较(答:4 次)
- 在拥有 128 个元素的数组中二分查找一个数,需要比较的次数最多不超过多少次(答:27=128,故 7+1=8 次)
解决方法
- 对于前两个题目,记得一个简要判断口诀:奇数二分取中间,偶数二分取中间靠左。(都是指索引)
- 对于后一道题目,需要知道该公式: n = l o g 2 N = l o g 10 N / l o g 10 2 n = log_2N = log_{10}N/log_{10}2 n=log2N=log10N/log102(其中 n 为查找次数,N 为元素个数)
- 若为整数,则(该 整数 + 1)是最终结果
- 若为小数,则舍去小数部分,(整数 + 1)是最终结果
注意
- 目前介绍的二分查找是以 JDK 中 Arrays.binary 的实现作为讲解示范,后续选择题的答案的解答思路也是以此为准。
- 实际上,二分查找有诸多变体,一旦使用变体的实现代码,则左右边界的选取会有变化,进而会影响之前选择题的答案选择
1.2.冒泡排序
要求
- 能够用自己语言描述冒泡排序算法
- 能够手写冒泡排序代码
- 了解一些冒泡排序的优化手段
算法描述
- 依次比较数组中相邻两个元素大小
- 若 a[j] > a[j+1],则交换两个元素,两两都比较一遍 称为 一轮冒泡
- 结果是让最大的元素排至最后
- 重复以上步骤,直到整个数组有序
更形象的描述请参考:bubble_sort.html
对应视频演示:基础篇_09_冒泡排序_演示
算法实现
public static void bubble(int[] a) {
for (int j = 0; j < a.length - 1; j++) {
// 一轮冒泡
boolean swapped = false; // swapped:是否发生了交换
for (int i = 0; i < a.length - 1 - j; i++) {
System.out.println("比较次数" + i);
if (a[i] > a[i + 1]) {
swap(a, i, i + 1);
swapped = true;
}
}
System.out.println("第" + j + "轮冒泡" + Arrays.toString(a));
if (!swapped) {
break;
}
}
}
public static void swap(int[] a, int i, int j) {
int temp = a[i];
a[i] = a[j];
a[j] = temp;
}
- 优化点 1:每经过一轮冒泡,内层循环就可以减少一次
- 优化点 2:如果某一轮冒泡没有发生交换,则表示所有数据有序,可以结束外层循环
进一步优化
public static void bubble_v2(int[] a) {
int n = a.length - 1;
while (true) {
int last = 0; // 表示最后一次交换时的索引位置
for (int i = 0; i < n; i++) {
System.out.println("比较次数" + i);
if (a[i] > a[i + 1]) {
Utils.swap(a, i, i + 1); // 交换函数(具体实现省略)
last = i;
}
}
n = last;
System.out.println("排序情况" + Arrays.toString(a));
if (n == 0) {
break;
}
}
}
- 每轮冒泡时,最后一次交换索引可以作为下一轮冒泡的比较次数,如果这个值为零,表示整个数组有序,直接退出外层循环即可
对应视频演示:基础篇_13_冒泡排序_优化_进一步优化比较次数
1.3.选择排序
要求
- 能够用自己语言描述选择排序算法
- 能够比较选择排序与冒泡排序
- 理解非稳定排序与稳定排序
算法描述
- 将数组分为两个子集,排序的和未排序的
每一轮从未排序的子集中选出最小的元素,放入排序子集 - 重复以上步骤,直到整个数组有序
更形象的描述请参考:selection_sort.html
对应视频演示:基础篇_16_选择排序_演示
算法实现
public static void selection(int[] a) {
for (int i = 0; i < a.length - 1; i++) {
// i 代表每轮选择最小元素要交换到的目标索引
// s 代表最小元素的索引
int s = i;
for (int j = s + 1; j < a.length; j++) {
if (a[s] > a[j]) { // j 元素比 s 元素还要小, 更新 s
s = j;
}
}
if (s != i) {
swap(a, s, i);
}
System.out.println(Arrays.toString(a));
}
}
- 优化点:为减少交换次数,每一轮可以先找最小的索引,在每轮最后再交换元素
选择排序与冒泡排序的比较
- 二者平均时间复杂度都是 O ( n 2 ) O(n^2) O(n2)
- 选择排序一般要快于冒泡,因为其交换次数少
- 但如果集合有序度高,冒泡优于选择
- 冒泡属于稳定排序算法,而选择属于不稳定排序
- 稳定排序指,按对象中不同字段进行多次排序,不会打乱同值元素的顺序
- 不稳定排序则反之
稳定排序与不稳定排序
System.out.println("=================不稳定================");
Card[] cards = getStaticCards();
System.out.println(Arrays.toString(cards));
selection(cards, Comparator.comparingInt((Card a) -> a.sharpOrder).reversed());
System.out.println(Arrays.toString(cards));
selection(cards, Comparator.comparingInt((Card a) -> a.numberOrder).reversed());
System.out.println(Arrays.toString(cards));
System.out.println("=================稳定=================");
cards = getStaticCards();
System.out.println(Arrays.toString(cards));
bubble(cards, Comparator.comparingInt((Card a) -> a.sharpOrder).reversed());
System.out.println(Arrays.toString(cards));
bubble(cards, Comparator.comparingInt((Card a) -> a.numberOrder).reversed());
System.out.println(Arrays.toString(cards));
都是先按照花色排序(♠♥♣♦),再按照数字排序(AKQJ…)
不稳定排序算法按数字排序时,会打乱原本同值的花色顺序
[[♠7], [♠2], [♠4], [♠5], [♥2], [♥5]] [[♠7], [♠5], [♥5], [♠4], [♥2], [♠2]]
原来 ♠2 在前 ♥2 在后,按数字再排后,他俩的位置变了
稳定排序算法按数字排序时,会保留原本同值的花色顺序,如下所示 ♠2 与 ♥2 的相对位置不变
[[♠7], [♠2], [♠4], [♠5], [♥2], [♥5]] [[♠7], [♠5], [♥5], [♠4], [♠2], [♥2]]
1.4.插入排序
要求
- 能够用自己语言描述插入排序算法
- 能够比较插入排序与选择排序
算法描述
- 将数组分为两个区域,排序区域和未排序区域
每一轮从未排序区域中取出第一个元素,插入到排序区域(需保证顺序) - 重复以上步骤,直到整个数组有序
更形象的描述请参考:insertion_sort.html
相关演示视频:基础篇_19_插入排序_演示
优化方式
- 待插入元素进行比较时,遇到比自己小的元素,就代表找到了插入位置,无需进行后续比较
- 插入时可以直接移动元素,而不是交换元素
算法实现
// 修改了代码与希尔排序一致
public static void insert(int[] a) {
// i 代表待插入元素的索引
// t 代表待插入的元素值
// j-1 代表已排序区域的元素索引
for (int i = 1; i < a.length; i++) {
int t = a[i];
int j = i;
System.out.println(j);
while (j >= 1) {
if (t < a[j - 1]) { // j-1 是上一个元素索引,如果 a[j-1] > t,后移
a[j] = a[j - 1];
j--;
} else { // 如果已经是 a[j-1] <= t, 则 j 就是插入位置
break;
}
}
a[j] = t;
System.out.println(Arrays.toString(a) + " " + j);
}
}
与选择排序比较
- 二者平均时间复杂度都是 O ( n 2 ) O(n^2) O(n2)
- 大部分情况下,插入都略优于选择
- 有序集合插入的时间复杂度为 O ( n ) O(n) O(n)
- 插入属于稳定排序算法,而选择属于不稳定排序
提示:插入排序通常被同学们所轻视,其实它的地位非常重要。小数据量排序,都会优先选择插入排序
一般对于冒泡排序会直接考查代码情况,而其他排序一般会要求推导某一轮排序结果,或者是阐明算法的实现思路
- 问:使用直接插入排序算法对序列 18,23,19,9,23,15 进行排序,第三趟排序后的结果是?
- 答:9 18 19 23 23 15
18 23 19 9 23 15 18 19 23 9 23 15 9 18 19 23 23 15
- 问:使用直接选择排序算法对序列 18,23,19,9,23,15 进行排序,第三趟排序后的结果是?
- 答: 9 15 18 19 23 23
9 23 19 18 23 15 9 15 19 18 23 23 9 15 18 19 23 23
1.5.希尔排序
要求
- 能够用自己语言描述希尔排序算法
算法描述
- 首先选取一个间隙序列,如(n/2,n/4 … 1),n 为数组长度
- 每一轮将间隙相等的元素视为一组,对组内元素进行插入排序,目的有二:
- 少量元素插入排序速度很快
- 让组内值较大的元素更快地移动到后方
- 当间隙逐渐减少,直至为 1 时,即可完成排序
更形象的描述请参考:shell_sort.html
相关视频演示请见:基础篇_22_希尔排序_演示
算法实现
private static void shell(int[] a) {
int n = a.length;
for (int gap = n / 2; gap > 0; gap /= 2) {
// i 代表待插入元素的索引
for (int i = gap; i < n; i++) {
int t = a[i]; // 代表待插入的元素值
int j = i;
while (j >= gap) {
// 每次与上一个间隙为 gap 的元素进行插入排序
if (t < a[j - gap]) { // j-gap 是上一个元素索引,如果 > t,后移
a[j] = a[j - gap];
j -= gap;
} else { // 如果 j-1 已经 <= t, 则 j 就是插入位置
break;
}
}
a[j] = t;
System.out.println(Arrays.toString(a) + " gap:" + gap);
}
}
}
1.6.快速排序
要求
- 能够用自己语言描述快速排序算法
- 掌握手写单边循环、双边循环代码之一
- 能够说明快排特点
- 了解洛穆托与霍尔两种分区方案的性能比较
算法描述
- 每一轮排序选择一个 基准点(pivot)进行分区
- 让小于基准点的元素的进入一个分区,大于基准点的元素的进入另一个分区
- 当分区完成时,基准点元素的位置就是其最终位置
- 在子分区内重复以上过程,直至子分区元素个数少于等于 1,这体现的是分而治之的思想 (divide-and-conquer)
- 从以上描述可以看出,一个关键在于分区算法,常见的有洛穆托分区方案、双边循环分区方案、霍尔分区方案
更形象的描述请参考:quick_sort.html
相关视频描述:基础篇_24_快速排序_描述
单边循环快排(lomuto 洛穆托分区方案)
- 选择最右元素作为基准点元素
- j 指针负责找到比基准点小的元素,一旦找到则与 i 进行交换
- i 指针维护小于基准点元素的边界,也是每次交换的目标索引
- 最后基准点与 i 交换,i 即为分区位置
相关视频描述:基础篇_25_快速排序_单边循环_演示
// 递归
public static void quick(int[] a, int l, int h) {
if (l >= h) {
return;
}
int p = partition(a, l, h); // p 索引值
quick(a, l, p - 1); // 左边分区的范围确定
quick(a, p + 1, h); // 左边分区的范围确定
}
// 分区
private static int partition(int[] a, int l, int h) {
int pv = a[h]; // 基准点元素
int i = l;
for (int j = l; j < h; j++) {
if (a[j] < pv) {
if (i != j) {
swap(a, i, j);
}
i++;
}
}
if (i != h) {
swap(a, h, i);
}
System.out.println(Arrays.toString(a) + " i=" + i);
// 返回值代表了基准点元素所在的正确索引,用它确定下一轮分区的边界
return i;
}
双边循环快排(不完全等价于 hoare 霍尔分区方案)
- 选择最左元素作为基准点元素
- j 指针负责从右向左找比基准点小的元素,i 指针负责从左向右找比基准点大的元素
一旦找到二者交换,直至 i,j 相交 - 最后基准点与 i(此时 i 与 j 相等)交换,i 即为分区位置
相关视频描述:基础篇_28_快速排序_双边循环_演示
要点
- 基准点在左边,并且要先 j 后 i
- while( i < j && a[j] > pv ) j–
- while ( i < j && a[i] <= pv ) i++
private static void quick(int[] a, int l, int h) {
if (l >= h) {
return;
}
int p = partition(a, l, h);
quick(a, l, p - 1);
quick(a, p + 1, h);
}
private static int partition(int[] a, int l, int h) {
int pv = a[l];
int i = l;
int j = h;
/* 下方必须是先进行 j 的循环,再进行 i 的循环
* 因为此处进行的是从小到大的排序(左边区域比基准值小,右边区域比基准值大)
* 如果先找小的元素(i 的循环),最后 i=j 停的位置的元素的值是一定大于等于基准点的
* 最终大的元素会被交换到基准点,从而导致整个方法的逻辑不正确 */
while (i < j) {
/* 在下方的 while 循环中仍然需要加入 i < j 的条件
* 不加该条件会出现 i=j 但循环不会停止的情况(比如 i 仍然继续查找比基准值大的值) */
while (i < j && a[j] > pv) { // j 从右找小的
j--;
}
while (i < j && a[i] <= pv) { // i 从左找大的
/* 因为 i 最开始指向的就是基准点
* 所以在第一次 j 的查找循环退出后,没有进入到 i 的循环
* 直接和 a[j] 交换掉了基准点的值
* 故必须要加入 = 来避免基准点被交换的情况出现 */
i++;
}
swap(a, i, j);
}
swap(a, l, j);
System.out.println(Arrays.toString(a) + " j=" + j);
return j;
}
快排特点
- 平均时间复杂度是 O ( n l o g 2 n ) O(nlog_2n ) O(nlog2n),最坏时间复杂度 O ( n 2 ) O(n^2) O(n2)
- 数据量较大时,优势非常明显
- 属于不稳定排序
洛穆托分区方案 vs 霍尔分区方案
- 霍尔的移动次数平均来讲比洛穆托少 3 倍
https://qastack.cn/cs/11458/quicksort-partitioning-hoare-vs-lomuto
以下为资料中提供的补充代码说明
- day01.sort.QuickSort3 演示了空穴法改进的双边快排,比较次数更少
- day01.sort.QuickSortHoare 演示了霍尔分区的实现
- day01.sort.LomutoVsHoare 对四种分区实现的移动次数比较
2.集合
2.1.ArrayList
要求
- 掌握 ArrayList 扩容规则
扩容规则
- ArrayList() 会使用长度为零的数组
- ArrayList(int initialCapacity) 会使用指定容量的数组
- public ArrayList(Collection<? extends E> c) 会使用 c 的大小作为数组容量
- add(Object o) 首次扩容为 10,再次扩容为上次容量的 1.5 倍
- addAll(Collection c) 没有元素时,扩容为 Math.max(10, 实际元素个数) (比较括号内俩参数,谁大选谁)
addAll(Collection c) 有元素时,扩容为 Math.max(原容量 1.5 倍, 实际元素个数) (比较括号内俩参数,谁大选谁)
其实看源码可以知道核心在于: elementData 和 size + numNew
其中第 4 点必须知道,其它几点视个人情况而定
idea 快捷键:Ctrl + F12
ArrayList 的三个构造方法
public ArrayList() {
this.elementData = DEFAULTCAPACITY_EMPTY_ELEMENTDATA;
}
public ArrayList(int initialCapacity) {
if (initialCapacity > 0) {
this.elementData = new Object[initialCapacity];
} else if (initialCapacity == 0) {
this.elementData = EMPTY_ELEMENTDATA;
} else {
throw new IllegalArgumentException("Illegal Capacity: " + initialCapacity);
}
}
public ArrayList(Collection<? extends E> c) {
elementData = c.toArray();
if ((size = elementData.length) != 0) {
// c.toArray might (incorrectly) not return Object[] (see 6260652)
if (elementData.getClass() != Object[].class)
elementData = Arrays.copyOf(elementData, size, Object[].class);
} else {
// replace with empty array.
this.elementData = EMPTY_ELEMENTDATA;
}
}
ArrayList 的 add 方法
public boolean add(E e) {
ensureCapacityInternal(size + 1); // Increments modCount!!
elementData[size++] = e;
return true;
}
public void add(int index, E element) {
rangeCheckForAdd(index);
ensureCapacityInternal(size + 1); // Increments modCount!!
System.arraycopy(elementData, index, elementData, index + 1, size - index);
elementData[index] = element;
size++;
}
ArrayList 的 addAll 方法
public boolean addAll(Collection<? extends E> c) {
Object[] a = c.toArray();
int numNew = a.length;
ensureCapacityInternal(size + numNew); // Increments modCount
System.arraycopy(a, 0, elementData, size, numNew);
size += numNew;
return numNew != 0;
}
public boolean addAll(int index, Collection<? extends E> c) {
rangeCheckForAdd(index);
Object[] a = c.toArray();
int numNew = a.length;
ensureCapacityInternal(size + numNew); // Increments modCount
int numMoved = size - index;
if (numMoved > 0)
System.arraycopy(elementData, index, elementData, index + numNew, numMoved);
System.arraycopy(a, 0, elementData, index, numNew);
size += numNew;
return numNew != 0;
}
提示
- 测试代码见资料中提供的 day01.list.TestArrayList,这里不再列出
- 注意:示例中用反射方式来更直观地反映 ArrayList 的扩容特征
- 但从 JDK 9 由于模块化的影响,对反射做了较多限制
需要在运行测试代码时添加 VM 参数:--add-opens java.base/java.util=ALL-UNNAMED
才能运行通过,后面的例子都有相同问题
- 但从 JDK 9 由于模块化的影响,对反射做了较多限制
代码说明
- day01.list.TestArrayList#arrayListGrowRule 演示了 add(Object) 方法的扩容规则,输入参数 n 代表打印多少次扩容后的数组长度
src/main/java/day01/list/TestArrayList.java
private static List<Integer> arrayListGrowRule(int n) {
List<Integer> list = new ArrayList<>();
int init = 0;
list.add(init);
if (n >= 1) {
init = 10;
list.add(init);
}
for (int i = 1; i < n; i++) {
init += (init) >> 1;
list.add(init);
}
return list;
}
2.2.Iterator
要求
- 掌握什么是 Fail-Fast、什么是 Fail-Safe
- fail-fast 一旦发现遍历的同时,其它人来修改,则立刻抛异常
- fail-safe 发现遍历的同时,其它人来修改,应当能有应对策略。例如牺牲一致性来让整个遍历运行完成
Fail-Fast 与 Fail-Safe
ArrayList 是 fail-fast 的典型代表,遍历的同时不能修改,尽快失败
CopyOnWriteArrayList 是 fail-safe 的典型代表,遍历的同时可以修改,原理是读写分离
提示
- 测试代码见 day01.list.FailFastVsFailSafe,这里不再列出
相关分析视频
2.3.LinkedList 对比 ArrayList
要求
- 能够说清楚 LinkedList 对比 ArrayList 的区别,并重视纠正部分错误的认知
LinkedList
- 基于双向链表,无需连续内存
- 随机访问慢(要沿着链表遍历)
- 头尾插入删除性能高
LinkedList 中间插入的性能其实是很低的,因为需要不断调用 next 来找到下一个中间的定位地址 - 占用内存多
ArrayList
- 基于数组,需要连续内存
- 随机访问快(指根据下标访问)
- 尾部插入、删除性能可以,其它部分插入、删除都会移动数据,因此性能会低
- 可以利用 cpu 缓存,局部性原理来提升性能
代码说明
- day01.list.ArrayListVsLinkedList#randomAccess 对比随机访问性能
- day01.list.ArrayListVsLinkedList#addMiddle 对比向中间插入性能
- day01.list.ArrayListVsLinkedList#addFirst 对比头部插入性能
- day01.list.ArrayListVsLinkedList#addLast 对比尾部插入性能
- day01.list.ArrayListVsLinkedList#linkedListSize 打印一个 LinkedList 占用内存
- day01.list.ArrayListVsLinkedList#arrayListSize 打印一个 ArrayList 占用内存
2.4.HashMap
要求
- 掌握 HashMap 的基本数据结构
- 掌握树化
- 理解索引计算方法、二次 hash 的意义、容量对索引计算的影响
- 掌握 put 流程、扩容、扩容因子
- 理解并发使用 HashMap 可能导致的问题
- 理解 key 的设计
2.4.1.基本数据结构
HashMap 的底层数据结构,1.7 与 1.8 的区别
- 1.7:数组 + 链表
- 1.8:数组 + (链表 | 红黑树)
更形象的演示,见资料中的 hash-demo.jar,运行环境是 jdk 14 及以上版本,进入 jar 包目录,执行下面命令
java -jar --add-exports java.base/jdk.internal.misc=ALL-UNNAMED hash-demo.jar
2.4.2.树化与退化
当 hashmap 中的元素个数大于当前 数组容量 * 负载因子(默认 0.75),就会进行数组扩容。
例:默认情况下数组大小为 16,那么当 hashmap 中的元素个数超过 12 个时 ,就会对当前数组进行扩容。
为何要使用红黑树?为何不一开始就树化?树化阈值为何是 8?何时会树化?何时会退化为链表?
树化意义
- 红黑树用来避免 DoS 攻击,防止链表超长时性能下降,树化应当是偶然情况,是保底策略
- hash 表的查找,更新的时间复杂度是 O ( 1 ) O(1) O(1)
而红黑树的查找,更新的时间复杂度是 O ( l o g 2 n ) O(log_2n ) O(log2n),TreeNode 占用空间也比普通 Node 的大
如非必要,尽量还是使用链表 - hash 值如果足够随机,则在 hash 表内按泊松分布
- 在负载因子 0.75 的情况下,长度超过 8 的链表出现概率是 0.00000006
树化阈值选择 8 就是为了让树化几率足够小
- 在负载因子 0.75 的情况下,长度超过 8 的链表出现概率是 0.00000006
- hash 表的查找,更新的时间复杂度是 O ( 1 ) O(1) O(1)
树化规则
- 当链表长度超过 树化阈值 8 时,先尝试扩容来减少链表长度,如果 数组容量 >= 64,才会进行树化
退化规则
- 情况 1:在扩容时如果拆分树时,树元素个数 <= 6 则会退化链表
- 情况 2:remove 树节点时,若 root、root.left、root.right、root.left.left 有一个为 null ,也会退化为链表
2.4.3.索引计算
索引如何计算?HashCode 都有了,为何还要提供 hash() 方法?数组容量为何是 2 的 n 次幂?
索引计算方法
- 首先,计算对象的 hashCode()
- 再进行调用 HashMap 的 hash() 方法进行二次哈希
- 二次 hash() 是为了综合高位数据,让哈希分布更为均匀
- 最后 & (capacity – 1) 得到索引
数组容量为何是 2 的 n 次幂
- 计算索引时效率更高:如果是 2 的 n 次幂可以使用位与运算代替取模
- 扩容时重新计算索引效率更高: hash & oldCap == 0 的元素留在原来位置 ,否则 新位置 = 旧位置 + oldCap
注意
- 二次 hash 是为了配合 容量是 2 的 n 次幂 这一设计前提,如果 hash 表的容量不是 2 的 n 次幂,则不必二次 hash
- 容量是 2 的 n 次幂 这一设计计算索引效率更好,但 hash 的分散性就不好,需要二次 hash 来作为补偿
没有采用这一设计的典型例子是 Hashtable
2.4.4.put 与扩容
put 流程
- HashMap 是懒惰创建数组的,首次使用才创建数组
- 计算索引(桶下标)
- 如果桶下标还没人占用,创建 Node 占位返回
- 如果桶下标已经有人占用
- 已经是 TreeNode 走红黑树的添加或更新逻辑
- 是普通 Node,走链表的添加或更新逻辑,如果链表长度超过树化阈值,走树化逻辑
- 返回前检查容量是否超过阈值,一旦超过进行扩容
1.7 与 1.8 的区别
- 链表插入节点时,1.7 是头插法,1.8 是尾插法
- 1.7 是大于等于阈值且没有空位时才扩容,而 1.8 是大于阈值就扩容
- 1.8 在扩容计算 Node 索引时,会优化
扩容(加载)因子为何默认是 0.75f
- 在空间占用与查询时间之间取得较好的权衡
- 大于这个值,空间节省了,但链表就会比较长影响性能
- 小于这个值,冲突减少了,但扩容就会更频繁,空间占用也更多
2.4.5.并发问题
扩容死链(1.7 会存在)
1.7 源码如下:
void transfer(Entry[] newTable, boolean rehash) {
int newCapacity = newTable.length;
for (Entry<K,V> e : table) {
while(null != e) {
Entry<K,V> next = e.next;
if (rehash) {
e.hash = null == e.key ? 0 : hash(e.key);
}
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i];
newTable[i] = e;
e = next;
}
}
}
- e 和 next 都是局部变量,用来指向当前节点和下一个节点
- 线程 1(绿色)的临时变量 e 和 next 刚引用了这俩节点,还未来得及移动节点,发生了线程切换,由线程 2(蓝色)完成扩容和迁移
- 线程 2 扩容完成,由于头插法,链表顺序颠倒。但线程 1 的临时变量 e 和 next 还引用了这俩节点,还要再来一遍迁移
- 第一次循环
- 循环接着线程切换前运行,注意此时 e 指向的是节点 a,next 指向的是节点 b
- e 头插 a 节点,注意图中画了两份 a 节点,但事实上只有一个(为了不让箭头特别乱画了两份)
- 当循环结束是 e 会指向 next 也就是 b 节点
- 第二次循环
- next 指向了节点 a
- e 头插节点 b
- 当循环结束时,e 指向 next 也就是节点 a
- 第三次循环
- next 指向了 null
- e 头插节点 a,a 的 next 指向了 b(之前 a.next 一直是 null),b 的 next 指向 a,死链已成
- 当循环结束时,e 指向 next 也就是 null,因此第四次循环时会正常退出
数据错乱(1.7,1.8 都会存在)
- 代码参考
day01.map.HashMapMissData
,具体调试步骤参考视频
补充代码说明
- day01.map.HashMapDistribution 演示 map 中链表长度符合泊松分布
- day01.map.DistributionAffectedByCapacity 演示容量及 hashCode 取值对分布的影响
- day01.map.DistributionAffectedByCapacity#hashtableGrowRule 演示了 Hashtable 的扩容规律
- day01.sort.Utils#randomArray 如果 hashCode 足够随机,容量是否是 2 的 n 次幂影响不大
- day01.sort.Utils#lowSameArray 如果 hashCode 低位一样的多,容量是 2 的 n 次幂会导致分布不均匀
- day01.sort.Utils#evenArray 如果 hashCode 偶数的多,容量是 2 的 n 次幂会导致分布不均匀
- 由此得出对于容量是 2 的 n 次幂的设计来讲,二次 hash 非常重要
- day01.map.HashMapVsHashtable 演示了对于同样数量的单词字符串放入 HashMap 和 Hashtable 分布上的区别
2.4.6.key 的设计
key 的设计要求
- HashMap 的 key 可以为 null,但 Map 的其他实现则不然
- 作为 key 的对象,必须实现 hashCode 和 equals,并且 key 的内容不能修改(不可变)
- key 的 hashCode 应该有良好的散列性
如果 key 可变,例如修改了 age 会导致再次查询时查询不到
public class HashMapMutableKey {
public static void main(String[] args) {
HashMap<Student, Object> map = new HashMap<>();
Student stu = new Student("张三", 18);
map.put(stu, new Object());
System.out.println(map.get(stu));
stu.age = 19;
System.out.println(map.get(stu));
}
static class Student {
String name;
int age;
public Student(String name, int age) {
this.name = name;
this.age = age;
}
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public int getAge() {
return age;
}
public void setAge(int age) {
this.age = age;
}
@Override
public boolean equals(Object o) {
if (this == o) return true;
if (o == null || getClass() != o.getClass()) return false;
Student student = (Student) o;
return age == student.age && Objects.equals(name, student.name);
}
@Override
public int hashCode() {
return Objects.hash(name, age);
}
}
}
String 对象的 hashCode() 设计
- 目标是达到较为均匀的散列效果,每个字符串的 hashCode 足够独特
- 字符串中的每个字符都可以表现为一个数字,称为 S i S_i Si,其中 i 的范围是 0 ~ n - 1
- 散列公式为: S 0 ∗ 3 1 ( n − 1 ) + S 1 ∗ 3 1 ( n − 2 ) + … S i ∗ 3 1 ( n − 1 − i ) + … S ( n − 1 ) ∗ 3 1 0 S_0∗31^{(n-1)}+ S_1∗31^{(n-2)}+ … S_i ∗ 31^{(n-1-i)}+ …S_{(n-1)}∗31^0 S0∗31(n−1)+S1∗31(n−2)+…Si∗31(n−1−i)+…S(n−1)∗310
- 31 代入公式有较好的散列特性,并且 31 * h 可以被优化为
- 即 32 ∗ h − h 32 ∗h -h 32∗h−h
- 即 2 5 ∗ h − h 2^5 ∗h -h 25∗h−h
- 即 h ≪ 5 − h h≪5 -h h≪5−h
3. 单例模式
要求
- 掌握五种单例模式的实现方式
- 理解为何 DCL 实现时要使用 volatile 修饰静态变量
- 了解 jdk 中用到单例的场景
单例模式(Singleton Pattern)是 Java 中最简单的设计模式之一。
这种类型的设计模式属于创建型模式,它提供了一种创建对象的最佳方式。
这种模式涉及到一个单一的类,该类负责创建自己的对象,同时确保只有单个对象被创建。
这个类提供了一种访问其唯一的对象的方式,可以直接访问,不需要实例化该类的对象。
结构
单例模式的主要有以下角色:
- 单例类。只能创建一个实例的类
- 访问类。使用单例类
实现
单例设计模式分类两种:
- 饿汉式:类加载就会导致该单实例对象被创建
- 懒汉式:类加载不会导致该单实例对象被创建,而是首次使用该对象时才会创建
3.1.饿汉式
该方式在成员位置声明 Singleton 类型的静态变量,并创建 Singleton 类的对象 instance。
instance 对象是随着类的加载而创建的。
如果该对象足够大的话,而一直没有使用就会造成内存的浪费。
public class Singleton1 implements Serializable {
// 构造方法私有
private Singleton1() {
if (INSTANCE != null) {
throw new RuntimeException("单例对象不能重复创建");
}
System.out.println("private Singleton1()");
}
// 在成员(静态成员变量)位置创建该类的对象 --- (静态变量方式)
private static final Singleton1 INSTANCE = new Singleton1();
// 对外提供静态方法获取该对象
public static Singleton1 getInstance() {
return INSTANCE;
}
public static void otherMethod() {
System.out.println("otherMethod()");
}
public Object readResolve() {
return INSTANCE;
}
}
- 构造方法抛出异常是防止反射破坏单例
readResolve()
是防止反序列化破坏单例
3.2.枚举饿汉式
枚举类实现单例模式是极力推荐的单例实现模式
因为枚举类型是线程安全的,并且只会装载一次
设计者充分的利用了枚举的这个特性来实现单例模式,枚举的写法非常简单
而且枚举类型是所用单例实现中唯一一种不会被破坏的单例实现模式。(其实 Unsafe 依旧可以破坏)
public enum Singleton2 {
INSTANCE;
private Singleton2() {
System.out.println("private Singleton2()");
}
@Override
public String toString() {
return getClass().getName() + "@" + Integer.toHexString(hashCode());
}
public static Singleton2 getInstance() {
return INSTANCE;
}
public static void otherMethod() {
System.out.println("otherMethod()");
}
}
- 枚举饿汉式能天然防止反射、反序列化破坏单例
3.3.懒汉式
该方式也实现了懒加载效果,同时又解决了线程安全问题。
但是在 getInstance() 方法上添加了 synchronized 关键字,导致该方法的执行效果特别低。
其实就是在初始化 instance 的时候才会出现线程安全问题,一旦初始化完成就不存在了。
public class Singleton3 implements Serializable {
// 私有构造方法
private Singleton3() {
System.out.println("private Singleton3()");
}
// 在成员位置创建该类的对象
private static Singleton3 INSTANCE = null;
// 对外提供静态方法获取该对象 Singleton3.class
// 在方法上加上 synchronized 关键字,即给该线程加锁,从而获得线程安全保护
public static synchronized Singleton3 getInstance() {
if (INSTANCE == null) {
INSTANCE = new Singleton3();
}
return INSTANCE;
}
public static void otherMethod() {
System.out.println("otherMethod()");
}
}
- 其实只有首次创建单例对象时才需要同步,但该代码实际上每次调用都会同步
- 因此有了下面的双检锁改进
3.4.双检锁懒汉式
对于 getInstance()
方法来说,绝大部分的操作都是读操作,读操作是线程安全的
所以我们没必让每个线程必须持有锁才能调用该方法,我们需要调整加锁的时机。
由此也产生了一种新的实现模式:双重检查锁模式
双重检查锁模式是一种非常好的单例实现模式,解决了单例、性能、线程安全问题。
但双重检测锁模式也存在问题:在多线程的情况下,可能会出现空指针问题。
出现空指针问题的原因是 JVM 在实例化对象的时候会进行优化和指令重排序操作。
要解决双重检查锁模式带来空指针异常的问题,只需要使用 volatile
关键字, volatile
关键字可以保证可见性和有序性。
添加 volatile
关键字之后的双重检查锁模式是一种比较好的单例实现模式,能够保证在多线程的情况下线程安全也不会有性能问题。
public class Singleton4 implements Serializable {
private Singleton4() {
System.out.println("private Singleton4()");
}
private static volatile Singleton4 INSTANCE = null; // 可见性,有序性(阻止指令重排)
public static Singleton4 getInstance() {
if (INSTANCE == null) {
synchronized (Singleton4.class) {
if (INSTANCE == null) {
INSTANCE = new Singleton4();
}
}
}
return INSTANCE;
}
public static void otherMethod() {
System.out.println("otherMethod()");
}
}
为何必须加 volatile:
INSTANCE = new Singleton4()
不是原子的,分成 3 步:- 创建对象、调用构造、给静态变量赋值。
- 其中后两步可能被指令重排序优化,变成先赋值、再调用构造
- 如果线程1 先执行了赋值,线程2 执行到第一个
INSTANCE == null
时发现INSTANCE已经不为null,此时就会返回一个未完全构造的对象
3.5.内部类懒汉式
静态内部类单例模式中实例由内部类创建
由于 JVM 在加载外部类的过程中,是不会加载静态内部类的
只有内部类的 属性/方法 被调用时才会被加载, 并初始化其静态属性。
静态属性由于被 static
修饰,保证只被实例化一次,并且严格保证实例化顺序。
第一次加载 Singleton 类时不会去初始化 INSTANCE
只有第一次调用 getInstance,虚拟机加载 SingletonHolder,才会初始化 INSTANCE
这样不仅能确保线程安全,也能保证 Singleton 类的唯一性。
静态内部类单例模式是一种优秀的单例模式,是开源项目中比较常用的一种单例模式。
在没有加任何锁的情况下,保证了多线程下的安全,并且没有任何性能影响和空间的浪费。
public class Singleton5 implements Serializable {
private Singleton5() {
System.out.println("private Singleton5()");
}
/* 静态内部类 */
private static class Holder {
static Singleton5 INSTANCE = new Singleton5();
}
public static Singleton5 getInstance() {
return Holder.INSTANCE;
}
public static void otherMethod() {
System.out.println("otherMethod()");
}
}
- 避免了双检锁的缺点
3.6.JDK 中单例的体现
在项目中使用单例模式是非常容易出错的,一般是库中才会用到单例模式(JDK 是其中的典型代表)
- Runtime 体现了饿汉式单例
- System 类中的 Console 对象体现了双检锁懒汉式单例
- Collections 类中的 EmptyNavigableSet 体现了 内部类懒汉式单例
- Collections 类中的 ReverseComparator.REVERSE_ORDER 体现了 内部类懒汉式单例
- Collections 类中的 Comparators.NaturalOrderComparator.INSTANCE 体现了 枚举饿汉式单例
- Runtime 体现了饿汉式单例
- System 类中的 Console 对象体现了双检锁懒汉式单例
- Collections 类中的 EmptyNavigableSet 体现了 内部类懒汉式单例
- Collections 类中的 ReverseComparator.REVERSE_ORDER 体现了 内部类懒汉式单例
- Collections 类中的 Comparators.NaturalOrderComparator.INSTANCE 体现了 枚举饿汉式单例