承接国内外服务器租用托管、定制开发、网站代运营、网站seo优化托管接单、网站代更新,新老站点皆可!!咨询QQ:3787320601

Redis大key多key拆分实现方法解析

管理员 2023-05-25 07:57:52 网站建设 36 ℃ 0 评论 7347字 收藏

背景

业务场景中常常会有各种大key多key的情况, 比如:

1:单个简单的key存储的value很大

2:hash, set,zset,list 中存储过量的元素(以万为单位)

3:一个集群存储了上亿的key,Key 本身过量也带来了更多的空间占用

(如无意外,文章中所提及的hash,set等数据结构均指redis中的数据结构 )

由于redis是单线程运行的,如果一次操作的value很大会对全部redis的响应时间造成负面影响,所以,业务上能拆则拆,下面举几个典型的分拆方案。

一、单个简单的key存储的value很大

i:该对象需要每次都整存整取

可以尝试将对象分拆成几个key-value, 使用multiGet获得值,这样分拆的意义在于分拆单次操作的压力,将操作压力平摊到多个redis实例中,下降对单个redis的IO影响;

ii:该对象每次只需要存取部份数据

可以像第一种做法一样,分拆成几个key-value, 也能够将这个存储在一个hash中,每一个field代表一个具体的属性,

使用hget,hmget来获得部份的value,使用hset,hmset来更新部份属性

二、value中存储过量的元素

类似于场景一种的第一个做法,可以将这些元素分拆。

以hash为例,本来的正常存取流程是 hget(hashKey, field) ; hset(hashKey, field, value)

现在,固定一个桶的数量,比如 10000, 每次存取的时候,先在本地计算field的hash值,模除 10000, 肯定了该field落在哪一个key上。

newHashKey = hashKey + (set, zset, list 也能够类似上述做法

但有些不合适的场景,比如,要保证 lpop 的数据的确是最早push到list中去的,这个就需要一些附加的属性,或是在 key的拼接上做一些工作(比如list依照时间来分拆)。

三、一个集群存储了上亿的key

如果key的个数过量会带来更多的内存空间占用,

i:key本身的占用(每一个key 都会有一个Category前缀)

ii:集群模式中,服务端需要建立一些slot2key的映照关系,这其中的指针占用在key多的情况下也是浪费巨大空间

这两个方面在key个数上亿的时候消耗内存十分明显(Redis 3.2及以下版本均存在这个问题,4.0有优化);

所以减少key的个数可以减少内存消耗,可以参考的方案是转Hash结构存储,即本来是直接使用Redis String 的结构存储,现在将多个key存储在一个Hash结构中,具体场景参考以下:

1:key 本身就有很强的相关性,比如多个key 代表一个对象,每一个key是对象的一个属性,这类可直接依照特定对象的特点来设置一个新Key——Hash结构, 本来的key则作为这个新Hash 的field。

举例说明:

本来存储的三个key

user.zhangsan-id = 123;

user.zhangsan-age = 18;

user.zhangsan-country = china;

这三个key本身就具有很强的相关特性,转成Hash存储就像这样key = user.zhangsan

field:id = 123;

field:age = 18;

field:country = china;

即redis中存储的是一个key :user.zhangsan, 他有三个 field, 每一个field + key 就对应本来的一个key。

2:key 本身没有相关性,预估一下总量,采取和上述第二种场景类似的方案,预分一个固定的桶数量

比如现在预估key 的总数为 2亿,依照一个hash存储 100个field来算,需要 2亿 / 100 = 200W 个桶 (200W 个key占用的空间很少,2亿可能有将近 20G )

本来比如有三个key :

user.123456789

user.987654321

user.678912345

现在依照200W 固定桶分就是先计算出桶的序号 hash(123456789) % 200W , 这里最好保证这个 hash算法的值是个正数,否则需要调剂下模除的规则;

这样算出三个key 的桶分别是 1 , 2, 2。 所以存储的时候调用API hset(key, field, value),读取的时候使用 hget (key, field)

注意两个地方:1,hash 取模对负数的处理; 2,预分桶的时候, 一个hash 中存储的值最好不要超过 512 ,100 左右较为适合

四、大Bitmap或布隆过滤器(Bloom )拆分

使用bitmap或布隆过滤器的场景,常常是数据量极大的情况,在这类情况下,Bitmap和布隆过滤器使用空间也比较大,比如用于公司userid匹配的布隆过滤器,就需要512MB的大小,这对redis来讲是绝对的大value了。

这类场景下,我们就需要对其进行拆分,拆分为足够小的Bitmap,比如将512MB的大Bitmap拆分为1024个512KB的Bitmap。不过拆分的时候需要注意,要将每一个key落在一个Bitmap上。有些业务只是把Bitmap 拆开, 但或者当作一个整体的bitmap看, 所以一个 key 或者落在多个 Bitmap 上,这样就有可能致使一个key要求需要查询多个节点、多个Bitmap。

以下图,被要求的值被hash到多个Bitmap上,也就是redis的多个key上,这些key还有可能在区别节点上,这样拆分明显大大下降了查询的效力。

因此我们所要做的是把所有拆分后的Bitmap当作独立的bitmap,然后通过hash将区别的key分配给区别的bitmap上,而不是把所有的小Bitmap当作一个整体。这样做后每次要求都只要取redis中一个key便可。

有同学可能会问,通过这样拆分后,相当于Bitmap变小了,是不是增加布隆过滤器的误判率?实际上是不会的,布隆过滤器的误判率是哈希函数个数k,集合元素个数n,和Bitmap大小m所决定的,其约等于

因此如果我们在第一步,也就是在分配key给区别Bitmap时,能够尽量均匀的拆分,那末n/m的值几近是一样的,误判率也就不会改变。具体的误判率推导可以参考wiki:Bloom_filter

同时,客户端也提供便利的api (>=2.3.4版本), setBits/ getBits 用于一次操作同一个key的多个bit值 。

建议 :k 取 13 个, 单个bloomfilter控制在 512KB 以下

以上方案仅供参考,欢迎大家提供其他的优秀方案。

本篇文章到此结束,如果您有相关技术方面疑问可以联系我们技术人员远程解决,感谢大家支持本站!

文章来源:丸子建站

文章标题:Redis大key多key拆分实现方法解析

https://www.wanzijz.com/view/42386.html

X

截屏,微信识别二维码

微信号:weimawl

(点击微信号复制,添加好友)

打开微信