> 文章列表 > 解析hash(散列)数据结构

解析hash(散列)数据结构

解析hash(散列)数据结构

前言

在学习完map、set这两个由红黑树构成的容器后,我们来到了这里hash,首先我们要有一个基础的认知——哈希和map与set的仅在使用时的差别区别:前者内部的元素没有序,而后者有序,其它的都相同,这里我们可以通过STL标准库对应的unordered_map和unordered_set的两个名字就能看出,那hash存在的意义在哪里?底层的数据结构又是如何实现的呢?


一、存在的意义(应用场景)

1.1 hash与红黑树(map、set)

程序员的第一准则“绝不制造重复的轮子”下,明明有了map、set比hash(对应容器unordered_map和unordered_set)还能排序的容器,为啥我们还要添加它呢?我们使用时直接忽略有序不是一样用吗?

其实前人们也是这样想的,所以一开始是没有hash的对应标准容器的。

 见上图,我们可以看到直到C++11标准unordered_map和unordered_set才推出。

1.2 hash的优势

其实hash推出的原因其实,我们可以类比List和Vector这两个容器,虽然这两容器的应用高度重叠,但是这两个容器由于本身的底层的结构不同在面对相同需求时,其效率相差甚远,所以这两个容器谁也替代不了对方。

hash的底层机构不像map、set的红黑树插入时需要排序旋转、但是由于其结构的特别又保留了查询的效率,所以相比红黑树的两个容器,hash的优势是大数据的查找。(为何有这些优势在下文结构介绍中)而红黑树的优势是自带排序和去重,还兼顾了查找效率

二、底层结构

2.1 哈希概念

注:

  • 关键码(key)可以理解为可以代表元素成员变量的唯一代表值,就如我们的身份证号一样。
  • 哈希函数:将元素转化为关键码的方法。

顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素
时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即
O(log_2 N),搜索的效率取决于搜索过程中元素的比较次数。

理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。
如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立
一一映射的关系,那么在查找时通过该函数可以很快找到该元素。

该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称
为哈希表(Hash Table)(或者称散列表)。
 

举个生活的栗子:大家使用字典时,会根据字的拼音字母依次翻到对应页数,而每个字母在字典上的映射页数都是已知可查的,直接跳到对应页数即可。(在下文的进一步解析中,我们将以vector来作为“字典”)。

当向该结构中

  • 插入元素

根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放

  • 搜索元素

对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置
取元素比较,若关键码相等,则搜索成功。

例如:数据集合{1,7,6,4,5,9};
哈希函数设置为:hash(key) = key % capacity; capacity(哈希函数:将元素转化为关键码的方法)为存储元素底层空间总的大小。

用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快。

问题:按照上述哈希方式,向集合中插入元素44,会出现什么问题?(答案在下个标题)

2.2 哈希冲突与哈希函数

①哈希冲突

对于两个数据元素的关键字k_i和 k_j,有k_i != k_j,但有:Hash(k_i) == Hash(k_j),即:不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞

具有不同关键码而具有相同哈希地址的数据元素称为“同义词”
发生哈希冲突该如何处理呢?

②哈希函数

引起哈希冲突的一个重要原因可能是:哈希函数设计不够合理。

哈希函数设计原则:

  • 哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有m(capacity)个地址时,其值域必须在0到m-1之间。
  • 哈希函数计算出来的地址能均匀分布在整个空间中
  • 哈希函数应该比较简单(哈希函数需要被对应容器频繁调用,不能因为它将hash的效率降下去)

string的哈希函数的算法https://www.cnblogs.com/-clq/archive/2012/05/31/2528153.html

常见哈希函数
1. 直接定址法--(常用)
        取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B
        优点:简单、均匀
        缺点:需要事先知道关键字的分布情况
        使用场景:适合查找比较小且连续的情况

2. 除留余数法--(常用)
        设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,
        按照哈希函数:Hash(key) = key% p(p<=m),将关键码转换成哈希地址。(上面的例子就是)

3. 平方取中法
        假设关键字为1234,对它平方就是1522756,抽取中间的3位227作为哈希地址;
        再比如关键字为4321,对它平方就是18671041,抽取中间的3位671(或710)作为哈希地址
        平方取中法比较适合:不知道关键字的分布,而位数又不是很大的情况

4.数学分析法
利用不同的元素的概率分布情况,制定出对应的哈希函数。

例如:设有n个d位数,每一位可能有r种不同的符号,这r种不同的符号在各位上出现的频率不一定
相同,可能在某些位上分布比较均匀,每种符号出现的机会均等,在某些位上分布不均匀只
有某几种符号经常出现。可根据散列表的大小,选择其中各种符号分布均匀的若干位作为散
列地址。

数字分析法通常适合处理关键字位数比较大的情况,如果事先知道关键字的分布且关键字的
若干位分布较均匀的情况
 

注意

  • 哈希函数设计的越精妙,产生哈希冲突的可能性就越低
  • 由于不同的哈希函数对于关键码的生成方式不同,带来的冲突结果也不同
  • 哈希冲突在理论上是不可避免的,举几个栗子:

        1、我们将10个成员放入到capacity只有9的哈希表中,至少有一个会冲突。

        2、由于数据分布集中而hash函数实现没有将集中的元素分开,就会导致冲突加重。

既然哈希函数无法从根本的解决哈希冲突,那遇到它时该如何解决呢?

2.3 哈希冲突解决

解决哈希冲突两种常见的方法是:闭散列和开散列(哈希桶)。

①结构:闭散列

也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有
空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。那如何寻找下一个空位置
呢?

②结构:开散列/哈希桶(常用)

1. 开散列概念
开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地
址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链
接起来,各链表的头结点存储在哈希表中。

 从上图可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。

template<class V>
struct HashBucketNode
{HashBucketNode(const V& data): _pNext(nullptr), _data(data){}HashBucketNode<V>* _pNext;V _data;
};
// 本文所实现的哈希桶中key是唯一的
template<class V>
class HashBucket
{typedef HashBucketNode<V> Node;typedef Node* PNode;
public:HashBucket(size_t capacity = 3) : _size(0){_ht.resize(GetNextPrime(capacity), nullptr);}// 哈希桶中的元素不能重复PNode* Insert(const V& data){// 确认是否需要扩容。。。// _CheckCapacity();// 1. 计算元素所在的桶号size_t bucketNo = HashFunc(data);// 2. 检测该元素是否在桶中PNode pCur = _ht[bucketNo];while (pCur){if (pCur->_data == data)return pCur;pCur = pCur->_pNext;}// 3. 插入新元素pCur = new Node(data);pCur->_pNext = _ht[bucketNo];_ht[bucketNo] = pCur;_size++;return pCur;}// 删除哈希桶中为data的元素(data不会重复),返回删除元素的下一个节点PNode* Erase(const V& data){size_t bucketNo = HashFunc(data);PNode pCur = _ht[bucketNo];PNode pPrev = nullptr, pRet = nullptr;while (pCur){if (pCur->_data == data){if (pCur == _ht[bucketNo])_ht[bucketNo] = pCur->_pNext;elsepPrev->_pNext = pCur->_pNext;pRet = pCur->_pNext;delete pCur;_size--;return pRet;}}return nullptr;}PNode* Find(const V& data);size_t Size()const;bool Empty()const;void Clear();bool BucketCount()const;void Swap(HashBucket<V, HF>& ht;~HashBucket();
private:size_t HashFunc(const V& data){return data % _ht.capacity();}
private:vector<PNode*> _ht;size_t _size; // 哈希表中有效元素的个数
};

③开散列增容

桶的个数是一定的,随着元素的不断插入,每个桶中元素的个数不断增多,极端情况下,可
能会导致一个桶中链表节点非常多,会影响的哈希表的性能,因此在一定条件下需要对哈希
表进行增容,那该条件怎么确认呢?开散列最好的情况是:每个哈希桶中刚好挂一个节点,
再继续插入元素时,每一次都会发生哈希冲突,因此,在元素个数刚好等于桶的个数时,可
以给哈希表增容。
 

void _CheckCapacity()
{size_t bucketCount = BucketCount();if (_size == bucketCount){HashBucket<V, HF> newHt(bucketCount);for (size_t bucketIdx = 0; bucketIdx < bucketCount; ++bucketIdx){PNode pCur = _ht[bucketIdx];while (pCur){// 将该节点从原哈希表中拆出来_ht[bucketIdx] = pCur->_pNext;// 将该节点插入到新哈希表中size_t bucketNo = newHt.HashFunc(pCur->_data);pCur->_pNext = newHt._ht[bucketNo];newHt._ht[bucketNo] = pCur;pCur = _ht[bucketIdx];}}newHt._size = _size;this->Swap(newHt);}
}

④ 开散列与闭散列比较

应用链地址法处理溢出,需要增设链接指针,似乎增加了存储开销。事实上:由于开地址法必须保持大量的空闲空间以确保搜索效率,如二次探查法要求装载因子a <=0.7(见下文),而表项所占空间又比指针大的多,所以使用链地址法反而比开地址法节省存储空间
 


1. 探测方式:线性探测

比如2.1中的场景,现在需要插入元素44,先通过哈希函数计算哈希地址,hashAddr为4,
因此44理论上应该插在该位置,但是该位置已经放了值为4的元素,即发生哈希冲突。
线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止。

  • 插入

通过哈希函数获取待插入元素在哈希表中的位置
如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突,
使用线性探测找到下一个空位置,插入新元素

  •  删除

采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素
会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影
响。因此线性探测采用标记的伪删除法来删除一个元素。

线性探测 + 闭散列的实现:

// 哈希表每个空间给个标记
// EMPTY此位置空, EXIST此位置已经有元素, DELETE元素已经删除
enum State
{EMPTY, EXIST, DELETE
};// 注意:假如实现的哈希表中元素唯一,即key相同的元素不再进行插入
// 为了实现简单,此哈希表中我们将比较直接与元素绑定在一起
template<class K, class V>
class HashTable
{struct Elem{pair<K, V> _val;State _state;};
public:HashTable(size_t capacity = 3): _ht(capacity), _size(0){for (size_t i = 0; i < capacity; ++i)_ht[i]._state = EMPTY;}bool Insert(const pair<K, V>& val){// 检测哈希表底层空间是否充足// _CheckCapacity();size_t hashAddr = HashFunc(key);// size_t startAddr = hashAddr;while (_ht[hashAddr]._state != EMPTY){if (_ht[hashAddr]._state == EXIST && _ht[hashAddr]._val.first== key)return false;hashAddr++;if (hashAddr == _ht.capacity())hashAddr = 0;/*// 转一圈也没有找到,注意:动态哈希表,该种情况可以不用考虑,哈希表中元素个数到达一定的数量,哈希冲突概率会增大,需要扩容来降低哈希冲突,因此哈希表中元素是不会存满的if(hashAddr == startAddr)return false;*/}// 插入元素_ht[hashAddr]._state = EXIST;_ht[hashAddr]._val = val;_size++;return true;}int Find(const K& key){size_t hashAddr = HashFunc(key);while (_ht[hashAddr]._state != EMPTY){if (_ht[hashAddr]._state == EXIST && _ht[hashAddr]._val.first== key)return hashAddr;hashAddr++;}return hashAddr;}bool Erase(const K& key){int index = Find(key);if (-1 != index){_ht[index]._state = DELETE;_size++;return true;}return false;}size_t Size()const;bool Empty() const;void Swap(HashTable<K, V, HF>& ht);
private:size_t HashFunc(const K& key){return key % _ht.capacity();}
private:vector<Elem> _ht;size_t _size;
};

线性探测优点:实现非常简单,
线性探测缺点:一旦发生哈希冲突,所有的冲突连在一起,容易产生数据“堆积”,即:不同
关键码占据了可利用的空位置,使得寻找某关键码的位置需要许多次比较,导致搜索效率降
低。如何缓解呢?

2.探测方式: 二次探测

线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位
置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为(平方数):H_i = (H_0 + i^2 )% m, 或者:H_i = (H_0 - i^2 )% m。其中:i =1,2,3…, H_0是通过散列函数Hash(x)对元素的关键码 key 进行计算得到的位置,m是表的大小。


小结:哈希(unordered_map、unordered_set)作为以“映射”的方式储存内容,具备了高效的搜索和较低存储代价的特点,和强大的红黑树对应的set、map容器做到了再次补充。


我的博客即将同步至腾讯云+社区,邀请大家一同入驻:https://cloud.tencent.com/developer/support-plan?invite_code=1omyl741mq270