目录
- 1. 概念 引入
- 2. 冲突
-
- 2.1 概念
- 2.2 避免
- 2.3 冲突-避免-哈希函数设计
- 2.4 冲突-避免-负载因子调节(重点)
- 2.5 冲突-解决
-
- 2.5.1 闭散列
- 2.6 冲突-解决-开散列/哈希桶 (数组+链表)
- 2.7 冲突严重时的解决办法
- 3. key-val值假设都为int型的代码实现
- 4. 性能分析
- 5.与Java类集的关系(代码举列)
1. 概念 引入 顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O( logN),搜索的效率取决于搜索过程中
元素的比较次数。
理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。
当向该结构中
- 插入元素 :根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放
- 搜索元素:对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功
【Java学习之旅|【数据结构】 哈希表 详解】例如:数据集合{1,7,6,4,5,9};
哈希函数设置为:hash(key) = key % capacity; capacity为存储元素底层空间总的大小。
文章图片
用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快
2. 冲突 2.1 概念 对于两个数据元素的关键字 和 (i != j),有 != ,但有:Hash( ) == Hash( ),即:不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。把具有不同关键码而具有相同哈希地址的数据元素称为“同义词”。
2.2 避免 首先,我们需要明确一点,由于我们哈希表底层数组的容量往往是小于实际要存储的关键字的数量的,这就导致一个问题,冲突的发生是必然的,但我们能做的应该是尽量的降低冲突率。
2.3 冲突-避免-哈希函数设计 引起哈希冲突的一个原因可能是:哈希函数设计不够合理。 哈希函数设计原则:
- 哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有m个地址时,其值域必须在0到m-1之间
- 哈希函数计算出来的地址能均匀分布在整个空间中
- 哈希函数应该比较简单
- 直接定制法–(常用)
取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B 优点:简单、均匀 缺点:需要事先知道关键字的分布情况 使用场景:适合查找比较小且连续的情况 面试题:字符串中第一个只出现一次字符 - 除留余数法–(常用)
设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,按照哈希函数:
Hash(key) = key% p(p<=m),将关键码转换成哈希地址 - 平方取中法–(了解)
假设关键字为1234,对它平方就是1522756,抽取中间的3位227作为哈希地址; 再比如关键字为4321,对它平方就是18671041,抽取中间的3位671(或710)作为哈希地址 平方取中法比较适合:不知道关键字的分布,而位数又不是很大的情况 - 折叠法–(了解)
折叠法是将关键字从左到右分割成位数相等的几部分(最后一部分位数可以短些),然后将这几部分叠加求和,并按散列表表长,取后几位作为散列地址。
折叠法适合事先不需要知道关键字的分布,适合关键字位数比较多的情况 - 随机数法–(了解)
选择一个随机函数,取关键字的随机函数值为它的哈希地址,即H(key) = random(key),其中random为随机数函数。
通常应用于关键字长度不等时采用此法 - 数学分析法–(了解)
设有n个d位数,每一位可能有r种不同的符号,这r种不同的符号在各位上出现的频率不一定相同,可能在某些位上分布比较均匀,每种符号出现的机会均等,在某些位上分布不均匀只有某几种符号经常出现。可根据散列表的大小,选择其中各种符号分布均匀的若干位作为散列地址。
哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突
2.4 冲突-避免-负载因子调节(重点)
文章图片
文章图片
所以当冲突率达到一个无法忍受的程度时,我们需要通过降低负载因子来变相的降低冲突率。
已知哈希表中已有的关键字个数是不可变的,那我们能调整的就只有哈希表中的数组的大小。
2.5 冲突-解决 解决哈希冲突两种常见的方法是:闭散列和开散列
2.5.1 闭散列
闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。
寻找下一个空位置的方法 :
- 线性探测
比如上面的场景,现在需要插入元素44,先通过哈希函数计算哈希地址,下标为4,因此44理论上应该插在该位置,但是该位置已经放了值为4的元素,即发生哈希冲突。
- 插入
- 通过哈希函数获取待插入元素在哈希表中的位置
- 如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突,使用线性探测找到下一个空位置,插入新元素
文章图片
- 采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。
- 二次探测(采用特定公式避免数据紧挨在一起放置)
线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:Hi = ( H0+i^2 )% m, 或者:Hi
= (H0 -i^2 )% m。其中:i = 1,2,3…, H0是通过散列函数Hash(x)对元素的关键码 key 进行计算得到的位置,m是表的大小。
因此:比散列最大的缺陷就是空间利用率比较低,这也是哈希的缺陷。
2.6 冲突-解决-开散列/哈希桶 (数组+链表) 开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。
文章图片
2.7 冲突严重时的解决办法 哈希桶其实可以看作将大集合的搜索问题转化为小集合的搜索问题了,那如果冲突严重,就意味着小集合的搜索性能其实也时不佳的,这个时候我们就可以将这个所谓的小集合搜索问题继续进行转化,例如:
- 每个桶的背后是另一个哈希表
- 每个桶的背后是一棵搜索树
public class HashBuck {
static class Node{
public int key;
public int val;
public Node next;
public Node(int key,int val){
this.key=key;
this.val=val;
}
}public Node[] array;
public int usedSize;
public static final double DEFAULT_LOAD_FACTOR=0.75;
public HashBuck(){
this.array=new Node[10];
}/**
* put函数
* @param key
* @param val
*/
public void put(int key,int val){
//1.找到key所在的位置
int index=key%this.array.length;
//2.遍历这个下标的链表,看是不是有相同的key 有 更新val值
Node cur=array[index];
while (cur!=null){
if (cur.key==key){
cur.val=val;
//更新val的值
return;
}
cur=cur.next;
}
//3.没有这个key的话,采用头插法插入
Node node=new Node(key,val);
node.next=array[index];
array[index]=node;
this.usedSize++;
//4.插入元素成功后,检查当前散列表的负载因子
if (loadFactor()>=DEFAULT_LOAD_FACTOR){}}private void resize(){
Node[] newArray=new Node[array.length*2];
//扩容之后所有的元素需要重新哈希
for (int i = 0;
i < array.length;
i++) {
Node cur=array[i];
while (cur!=null){
int index=cur.key%newArray.length;
//获取新的下标
//重新哈希:就是把cur这个节点,以头插/尾插的形式 插入到新的数组对应下标的链表当中
Node curNext=cur.next;
cur.next=newArray[index];
//先绑定后面
newArray[index]=cur;
//再绑定前面
cur=curNext;
}
}
array=newArray;
}private double loadFactor(){
return 1.0*usedSize/array.length;
}/**
* get函数
* 根据key获取val的值
* @param key
* @return
*/
public int get(int key){
//1.找到key所在的位置
int index=key%this.array.length;
//2.获取val
Node cur=array[index];
while (cur!=null){
if (cur.key==key){
return cur.val;
}
cur=cur.next;
}
return -1;
}
}
扩容前:
文章图片
扩容后:(重新哈希后再放置元素 )
文章图片
4. 性能分析 虽然哈希表一直在和冲突做斗争,但在实际使用过程中,我们认为哈希表的冲突率是不高的,冲突个数是可控的,也就是每个桶中的链表的长度是一个常数,所以,通常意义下,我们认为哈希表的插入/删除/查找时间复杂度是
O(1) 。
5.与Java类集的关系(代码举列)
- HashMap 和 HashSet 即 java 中利用哈希表实现的 Map 和 Set
- java 中使用的是哈希桶方式解决冲突的
- java 会在冲突链表长度大于一定阈值后,将链表转变为搜索树(红黑树)
- java 中计算哈希值实际上是调用的类的 hashCode 方法,进行 key 的相等性比较是调用 key 的 equals 方法。所以如果要用自定义类作为 HashMap 的 key 或者 HashSet 的值,必须重写 hashCode 和 equals 方 法,而且要做到 equals 相等的对象,hashCode 一定是一致的;
- hashcode一样,equals不一定一样!
- equals一样,hashcode一定一样!
import java.util.HashMap;
import java.util.Objects;
/**
* Created with IntelliJ IDEA.
* User: 12629
* Date: 2022/2/22
* Time: 21:32
* Description:
*/
class Person { //自定义person类
public String ID;
public Person(String ID) {
this.ID = ID;
}@Override // 重写equals方法
public boolean equals(Object o) {
if (this == o) return true;
if (o == null || getClass() != o.getClass()) return false;
Person person = (Person) o;
return Objects.equals(ID, person.ID);
}@Override //重写hashcode方法
public int hashCode() {
return Objects.hash(ID);
}@Override
public String toString() {
return "Person{" +
"ID='" + ID + '\'' +
'}';
}
}
public class HashBuck2 {static class Node {
public K key;
public V val;
public Node next;
public Node(K key,V val) {
this.val = val;
this.key = key;
}
}public Node[] array = (Node[])new Node[10];
public int usedSize;
public void put(K key,V val) {
int hash = key.hashCode();
//转换为一个整数
int index = hash % array.length;
Node cur = array[index];
while (cur != null) {
if(cur.key.equals(key)) {
cur.val = val;
//更新val值
return;
}
cur = cur.next;
}
Node node = new Node<>(key, val);
node.next = array[index];
array[index] = node;
this.usedSize++;
}public V get(K key) {
int hash = key.hashCode();
//转换为一个整数
int index = hash % array.length;
Node cur = array[index];
while (cur != null) {
if(cur.key.equals(key)) {
//更新val值
return cur.val;
}
cur = cur.next;
}
return null;
}public static void main(String[] args) {//我们认为 身份证ID一样的两个人是同一个人
//通过对hashcode和equals方法的重写 可以实现这一逻辑
//重写hashcode之后,字符串类型的ID相同的话生成的整数就是相同的
//实现了ID一样的两个人是同一人这一逻辑Person person1 = new Person("123");
Person person2 = new Person("123");
HashBuck2 hashBuck2 = new HashBuck2<>();
hashBuck2.put(person1,"love");
System.out.println(hashBuck2.get(person2));
}}
因为person1和person2是同一个人
所以get person2的val其实就是放入person1的love
文章图片
- over
推荐阅读
- 算法|JavaScript数据结构与算法 - 哈希表详解
- 数据结构|哈希表详解
- leetcode|集合和数组互转,list,array
- 数据结构与算法|【Java数据结构】哈希表详解
- 哈希表|哈希表2--Hashmap的实现详解
- 《C语言杂俎》|证明堆排序的时间复杂度
- 指针|【发际线大作战】C++学习记录之用户自定义数据类型
- C++|set、map及AVL树
- 蓝桥真题|【蓝桥真题3】蓝桥改革变难,想进国赛这些能力你可缺一不可