新网创想网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
标签: Redis Redis数据结构 Redis内存管理策略 Redis数据类型 Redis类型映射
成都创新互联公司是专业的铜鼓网站建设公司,铜鼓接单;提供网站设计制作、网站制作,网页设计,网站设计,建网站,PHP网站建设等专业做网站服务;采用PHP框架,可快速的进行铜鼓网站开发网页制作和功能扩展;专业做搜索引擎喜爱的网站,专业的做网站团队,希望更多企业前来合作!
redis为我们提供了 5种数据类型,基本上我们使用频率最高的就是 string,而对其他四种数据类型使用的频次稍弱于 string。
一方面是由于 string使用起来比较简单,可以方便存储复杂大对象,使用场景比较多。还有一个原因就是由于 redis expire time只能设置在 key上,像 list、hash、set、zset属于集合类型,会管理一组 item,我们无法在这些集合的 item上设置过期时间,所以使用 expire time来处理集合的 cache失效会变得稍微复杂些。但是 string使用 expire time来管理过期策略会比较简单,因为它包含的项少。这里说的集合是宽泛的类似集合。
导致我们习惯性的使用 string而忽视其他四种数据类型的另一个深层次原因,大多是由于我们对另外四种数据类型的使用和原理不是太了解。这个时候往往会忽视在特定场景下使用某种数据类型可能会比 string性能高出很多,比如使用 hash结构来提高某个实体的某个项的修改等。
这里我们不打算罗列这 5种数据类型的使用方法,这些资料网上有很多。我们主要讨论这 5种数据类型的功能特点,这些特点分别适合用于处理哪些现实的业务场景,最重要的是我们如何组合性的使用这 5种数据类型来解决复杂的 cache问题。
string是 redis提供的字符串类型。可以针对 string类型独立设置 expire time。通常用来存储长字符串数据,比如,某个对象的 json字符串。
string类型我们在使用上最巧妙的是可以动态拼接 key。通常我们可以将一组 id放在 set里,然后动态查找 string还是否存在,如果不存在说明已经过期或者由于数据修改主动 delete了,需要再做一次 cache数据 load。
虽然 set无法设置 item的过期时间,但是我们可以将 set item与 string key关联来达到相同的效果。
上图中的左边是一个 key为 set:order:ids的 set集合,它可能是一个全量集合,也可能是某个查询条件获取出来的一个集合。
有时候复杂点的场景需要多个 set集合来支撑计算,在 redis 服务器里可能会有很多类似这样的集合。
这些集合我们可以称为 功能数据,这些数据是用来辅助 cache计算的,当进行各种集合运算之后会得出当前查询需要返回的子集,最后我们才会去获取某个订单真正的数据。
这些 string:order:{orderId}字符串 key并不一定是为了服务一种场景,而是整个系统最底层的数据,各种场景最后都需要获取这些数据。那些 set集合可以认为是查询条件数据,用来辅助查询条件的计算。
redis为我们提供了 TYPE命令来查看某个 key的数据类型,如:string类型:
SET string:order:100 order-100
TYPE string:order:100
string
list在提高 throughput的场景中非常适用,因为它特有的 LPUSH、RPUSH、LPOP、RPOP功能可以无缝的支持生产者、消费者架构模式。
这非常适合实现类似 Java ConcurrencyFork/Join框架中的 work-stealing 算法 (工作窃取)。
java fork/join框架使用并行来提高性能,但是会带来由于并发 take task带来的 race condition (竞态条件)问题,所以采用 work-stealing 算法来解决由于竞争问题带来的性能损耗。
上图中模拟了一个典型的支付 callback峰值场景。在峰值出现的地方一般我们都会使用加 buffer的方式来加快请求处理速度,这样才能提高并发处理能力,提高 throughput。
支付gateway收到 callback之后不做任何处理直接交给 分发器。分发器是一个无状态的 cluster,每个 node通过向 注册中心pull handler queue list,也就是获取下游处理器注册到注册中心里的消息通道。
每一个分发器 node会维护一个本地 queue list,然后顺序推送消息到这些 queue list即可。这里会有点小问题,就是 支付gateway调用分发器的时候是如何做 load balance,如果不是平均负载可能会有某个 queue list高出其他 queue list。
而分发器不需要做 soft load balance,因为哪怕某个 queue list比其他 queue list多也无所谓,因为下游 message handler会根据 work-stealing算法来窃取其他消费慢的 queue list。
redis list 的 LPUSH、RPUSH、LPOP、RPOP特性确实可以在很多场景下提高这种横向扩展计算能力。
hash数据类型很明显是基于 hash算法的,对于项的查找时间复杂度是 O(1)的,在极端情况下可能出现项 hash冲突问题,redis内部是使用链表加 key判断来解决的。具体 redis内部的数据结构我们在后面有介绍,这里就不展开了。
hash数据类型的特点通常可以用来解决带有映射关系,同时又需要对某些项进行更新或者删除等操作。如果不是某个项需要维护,那么一般可以通过使用 string来解决。
如果有需要对某个字段进行修改,使用 string很明显是会多出很多开销,需要读取出来反序列化成对象然后操作,然后再序列化写回 redis,这中间可能还有并发问题。
那我们可以使用 redis hash提供的实体属性 hash存储特性,我们可以认为 hash value是一个 hash table,实体的每一个属性都是通过 hash得到属性的最终数据索引。
上图使用 hash数据类型来记录页面的 a/b metrics,左边的是首页 index的各个区域的统计,右边是营销 marketing的各个区域统计。
在程序里我们可以很方便的使用 redis的 atomic特性对 hash某个项进行累加操作。
HMSET hash:mall:page:ab:metrics:index topbanner 10 leftbanner 5 rightbanner 8 bottombanner 20 productmore 10 topshopping 8
OK
HGETALL hash:mall:page:ab:metrics:index
1) "topbanner"
2) "10"
3) "leftbanner"
4) "5"
5) "rightbanner"
6) "8"
7) "bottombanner"
8) "20"
9) "productmore"
10) "10"
11) "topshopping"
12) "8"
HINCRBY hash:mall:page:ab:metrics:index topbanner 1
(integer) 11
使用 redis hash increment进行原子增加操作。HINCRBY命令可以原子增加任何给定的整数,也可以通过 HINCRBYFLOAT来原子增加浮点类型数据。
set集合数据类型可以支持集合运算,不能存储重复数据。
set最大的特点就是集合的计算能力,inter 交集、union 并集、diff 差集,这些特点可以用来做高性能的交叉计算或者剔除数据。
set集合在使用场景上还是比较多和自由的。举个简单的例子,在应用系统中比较常见的就是商品、活动类场景。用一个 set缓存有效商品集合,再用一个 set缓存活动商品集合。如果商品出现上下架操作只需要维护有效商品 set,每次获取活动商品的时候需要过滤下是否有下架商品,如果有就需要从活动商品中剔除。
当然,下架的时候可以直接删除缓存的活动商品,但是活动是从 marketing系统中 load出来的,就算我将 cache里的活动商品删除,当下次再从 marketing系统中 load活动商品时候还是会有下架商品。当然这只是举例,一个场景有不同的实现方法。
上图中左右两边是两个不同的集合,左边是营销域中的可用商品ids集合,右边是营销域中活动商品ids集合,中间计算出两个集合的交集。
SADD set:marketing:product:available:ids 1000100 1000120 1000130 1000140 1000150 1000160
SMEMBERS set:marketing:product:available:ids
1) "1000100"
2) "1000120"
3) "1000130"
4) "1000140"
5) "1000150"
6) "1000160"
SADD set:marketing:activity:product:ids 1000100 1000120 1000130 1000140 1000200 1000300
SMEMBERS set:marketing:activity:product:ids
1) "1000100"
2) "1000120"
3) "1000130"
4) "1000140"
5) "1000200"
6) "1000300"
SINTER set:marketing:product:available:ids set:marketing:activity:product:ids
1) "1000100"
2) "1000120"
3) "1000130"
4) "1000140"
在一些复杂的场景中,也可以使用 SINTERSTORE命令将交集计算后的结果存储在一个目标集合中。 这在使用 pipeline命令管道中特别有用,将 SINTERSTORE命令包裹在 pipeline命令串中可以重复使用计算出来的结果集。
由于 redis是 Signle-Thread 单线程模型,基于这个特性我们就可以使用 redis提供的 pipeline 管道来提交一连串带有逻辑的命令集合,这些命令在处理期间不会被其他客户端的命令干扰。
zset排序集合与 set集合类似,但是 zset提供了排序的功能。在介绍 set集合的时候我们知道 set集合中的成员是无序的,zset填补了集合可以排序的空隙。
zset最强大的功能就是可以根据某个 score 比分值进行排序,这在很多业务场景中非常急需。比如,在促销活动里根据商品的销售数量来排序商品,在旅游景区里根据流入人数来排序热门景点等。
基本上人们在做任何事情都需要根据某些条件进行排序。
其实 zset在我们应用系统中能用到地方到处都是,这里我们举一个简单的例子,在团购系统中我们通常需要根据参团人数来排序成团列表,大家都希望参加那些即将成团的团。
上图是一个根据团购code创建的zset,score 分值就是参团人数累加和。
ZADD zset:marketing:groupon:group:codes 5 G_PXYJY9QQFA 8 G_4EXMT6NZJQ 20 G_W7BMF5QC2P 10 G_429DHBTGZX 8 G_KHZGH9U4PP
ZREVRANGEBYSCORE zset:marketing:groupon:group:codes 1000 0
1) "G_W7BMF5QC2P"
2) "G_ZMZ69HJUCB"
3) "G_429DHBTGZX"
4) "G_KHZGH9U4PP"
5) "G_4EXMT6NZJQ"
6) "G_PXYJY9QQFA"
ZREVRANGEBYSCORE zset:marketing:groupon:group:codes 1000 0 withscores
1) "G_W7BMF5QC2P"
2) "20"
3) "G_ZMZ69HJUCB"
4) "10"
5) "G_429DHBTGZX"
6) "10"
7) "G_KHZGH9U4PP"
8) "8"
9) "G_4EXMT6NZJQ"
10) "8"
11) "G_PXYJY9QQFA"
12) "5"
zset本身提供了很多方法用来进行集合的排序,如果需要 score分值可以使用 withscore字句带出每一项的分值。
在一些比较特殊的场合可能需要组合排序,可能有多个 zset分别用来对同一个实体在不同维度的排序,按时间排序、按人数排序等。这个时候就可以组合使用 zset带来的便捷性,利用 pipeline再结合多个 zset最终得出组合排序集合。
我们总结了 redis提供的 5种数据类型的各自特点和一般的使用场景。但是我们不仅仅可以分开使用这些数据类型,我们完全可以综合使用这些数据类型来完成复杂的 cache场景。
下面我们分享一个使用多个 zset、string来优化 团购系统前台接口的例子。由于篇幅和时间限制,这里只介绍跟本次案例相关的信息。
hot-top接口是指热点、排名接口的意思,表示它的浏览量、并发量比较高,一般大促的时候都会有几个这种性能要求比较高的接口。
我们先来分析一个查询接口所包含的常规信息。
首先一个查询接口肯定是有 query condition 查询条件,然后是 sort 排序信息 、最后是page 分页信息。这是一般接口所承担的基本职责,当然,特殊场景下还需要支持 master/slave replication时关于数据 session 一致性的要求,需要提供跟踪标记来回 master查询数据,这里就不展开了。
我们可以抽象出这几个维度的信息:
query condition
查询条件,companyid=100,sellerid=1010101 诸如此类。
sort
排序信息,一般是默认一个列排序,但是在复杂的场景下会有可能让接口使用者定制排序字段,比如一些租户信息列。
page
分页信息,简单理解就是数据记录排完序之后的第几行到第几行。
由于这里我们纯粹用 redis来提高 cache能力,不涉及到有关于任何搜索的能力,所以这里忽略其他复杂查询的情况。其实我们在复杂的地方使用了 elastcsearch来提高搜索能力。
上述我们分析总结出了一个查询接口的基本信息,这里还有一个有关于高并发接口的设计原则就是将 hot-top接口和一般 search接口分离开,因为只有分而治之才能分别根据特点选用不同的技术。如果我们不分职责将所有的查询场景封装在一个接口里,那么在后面优化接口性能的时候基本就很麻烦了,有些场景是无法或者很难用 cache来解决的,因为接口里耦合了各种场景逻辑,就算勉强能实现性能也不会高。
前面做这些铺垫是为了能在介绍案例的时候达成一个基本的共识。现在我们来看下这个团购系统的 hot-top接口的具体逻辑。
在大促的时候需要展现团购列表,这个接口的访问量是非常大的,团购活动需要根据参团人数倒序排序,并且分页返回指定数量的团列表。
我们假设这个接口名为 getTopGroups(getTopGroupsRequest request)
我们来仔细分析下,首先不同的查询条件从 DB里查询出来的数据是不一样的,也就是说查询出来的团列表是不一样的,可能有 company 公司、channel 渠道等过滤条件。由于一个团购活动下不会有太多团,顶多上百个是极限了,所以一个查询条件出来的团列表也顶多几十个,而且根据场景分析热点查询条件不会超过十个,所以我们选择将 查询条件 hash出一个 code来缓存本次查询条件的全量团列表集合,但是这些结果集是没有任何排序的。
再看根据参团人数排序问题,我们立刻就可以想到使用 zset来处理团排序问题,因为只有一个排序维度,所以一个 zset就够了。我们使用一个 zset来缓存所有团的参团人数集合,它是一个全量的团排序集合。
那么我们如何将用户的查询条件出来的团列表根据参团人数排序尼,刚好可以使用 zset的交集运算直接计算出当前这个集合的 zset子集。
通过对已经排序之后的团列表 zset使用 zrange来获取出分页集合。
我们来看下完整的流程,如何处理查询、排序、分页的。
上图从 query condition计算 hash code,然后通过 DB查询出当前条件全量团列表。
zset:marketing:groupon:hottop:available:group key表示全量团的参团人数,用一个 zset来缓存。接着将这两个 zset计算交集,就可以得出当前查询所需要的带有参团人数的 zset,最后在使用 zrevrange获取分页区间。
ZADD zset:marketing:groupon:hottop:condition:2986080 0 G4ZD5732YZQ 0 G5VW3YF42UC 0 GF773FEJ7CC 0 GFW8DUEND8S 0 GKPKKW8XEY9 0 GL324DGWMZM
(integer) 6
ZADD zset:marketing:groupon:hottop:available:group 5 GN7KQH36ZWK 10 GS7VB22AWD4 15 GF773FEJ7CC 17 G5VW3YF42UC 18 G4ZD5732YZQ 32 GTYJKCEJBRR 40 GKPKKW8XEY9 45 GL324DGWMZM 50 GFW8DUEND8S 60 GYTKY4ACWLT
(integer) 10
ZINTERSTORE zset:marketing:groupon:hottop:condition:interstore 2 zset:marketing:groupon:hottop:condition:2986080 zset:marketing:groupon:hottop:available:group
(integer) 6
ZRANGE zset:marketing:groupon:hottop:condition:interstore 0 -1 withscores
1) "GF773FEJ7CC"
2) "15"
3) "G5VW3YF42UC"
4) "17"
5) "G4ZD5732YZQ"
6) "18"
7) "GKPKKW8XEY9"
8) "40"
9) "GL324DGWMZM"
10) "45"
11) "GFW8DUEND8S"
12) "50"
ZREVRANGE zset:marketing:groupon:hottop:condition:interstore 2 4 withscores
1) "GKPKKW8XEY9"
2) "40"
3) "G4ZD5732YZQ"
4) "18"
5) "G5VW3YF42UC"
6) "17"
有了返回的团 code集合之后就可以通过 mget来批量获取 string类型的团详情信息,这里就不贴出代码了。
由于篇幅和时间关系,这里就不展开太多的业务场景介绍了。这其中还涉及到计算 cache过期时间的问题,这也跟促销活动的运营规则有关系,还涉及到有可能 query condition hash冲突问题等,但是这些已经不与我们本节主题相关。
我们已经了解了 redis提供的 5种数据类型,那么 redis内部到底是如何支持这 5种数据类型的,也就是说 redis到底是使用什么样的数据结构来存储、查找我们设置在内存中的数据。
虽然我们使用 5种数据类型来缓存数据,但是 redis会根据我们存储数据的不同而选用不同的数据结构和编码。
我们日常使用的是 redis提供的 5种数据类型,但是这 5种数据类型在内存中的数据结构和编码有很多种。随着我们存储的数据类型的不同、数据量的大小不同都会引起内存数据结构的动态调整。
本节只是做数据结构和编码的一般性介绍,不做过多细节讨论,一方面是关于 redis源码分析的资料网上有很多,还有一个原因就是 redis每一个版本的实现有很大差异,一旦展开细节讨论每一个点每一个数据结构都会很复杂,所以我们这里就不展开讨论这些,只是起到抛砖引玉作用。
我们知道使用 type命令可以查看某个 key是否是 5种数据类型之一,但是当我们想查看某个 key底层是使用哪种数据结构和编码来存储的时候可以使用 OBJECT encoding命令。
SET string:orderid:10101010 10101010
OK
OBJECT encoding string:orderid:10101010
"int"
SET string:orderid:10101010 "orderid:10101010"
OK
OBJECT encoding string:orderid:10101010
"embstr"
同样一个 key,但是由于我们设置的值不同而 redis选用了不同的内存数据结构和编码。虽然 redis提供的 string数据类型,但是 redis会自动识别我们 cache的数据类型是 int还是 string。
如果我们设置的是字符串,且这个字符串长度不大于 39字节那么将使用 embstr来编码,如果大于 39字节将使用 raw来编码。redis 4.0将这个阀值扩大了 45个字节。
除了使用 OBJECT encoding命令外,我们还可以使用 DEBUG OBJECT命令来查看更多详细信息。
DEBUG OBJECT string:orderid:10101010
Value at:0x7fd190500210 refcount:1 encoding:int serializedlength:5 lru:6468044 lru_seconds_idle:8
DEBUG OBJECT string:orderid:10101010
Value at:0x7fd19043be60 refcount:1 encoding:embstr serializedlength:17 lru:6465804 lru_seconds_idle:1942
DEBUG OBJECT能看到这个对象的 refcount 引用计数、serializedlength 长度、_lru_secondsidle 时间,这些信息决定了这个 key缓存清除策略。
简单动态字符串简称 SDS,在 redis中所有涉及到字符串的地方都是使用 SDS实现,当然这里不包括字面量。 SDS与传统 C字符串的区别就是 SDS是结构化的,它可以高效的处理分配、回收、长度计算等问题。
struct sdshdr {
unsigned int len;
unsigned int free;
char buf[];
};
这是 redis 3.0版本的 sds.h头文件定义,3.0.0之后变化比较大。len表示字符串长度,free表示空间长度,buf数组表示字符串。
SDS有很多优点,比如,获取长度的时间复杂度 O(1),不需要遍历所有 char buf[]组数,直接返回 len值。
static inline size_t sdslen(const sds s) {
struct sdshdr *sh = (void*)(s-(sizeof(struct sdshdr)));
return sh->len;
}
当然还有空间分配检查、空间预分配、空间惰性释放等,这些都是 SDS结构化字符串带来的强大的扩展能力。
链表数据结构我们是比较熟悉的,最大的特点就是节点的增、删非常灵活。redis List数据类型底层就是基于链表来实现。这是 redis 3.0实现。
typedef struct list {
listNode *head;
listNode *tail;
void *(*dup)(void *ptr);
void (*free)(void *ptr);
int (*match)(void *ptr, void *key);
unsigned long len;
} list;
typedef struct listNode {
struct listNode *prev;
struct listNode *next;
void *value;
} listNode;
在 redis 3.2.0版本的时候引入了 quicklist链表结构,结合了 linkedlist和 ziplist的优势。
typedef struct quicklist {
quicklistNode *head;
quicklistNode *tail;
unsigned long count; /* total count of all entries in all ziplists */
unsigned int len; /* number of quicklistNodes */
int fill : 16; /* fill factor for individual nodes */
unsigned int compress : 16; /* depth of end nodes not to compress;0=off */
} quicklist;
typedef struct quicklistNode {
struct quicklistNode *prev;
struct quicklistNode *next;
unsigned char *zl;
unsigned int sz; /* ziplist size in bytes */
unsigned int count : 16; /* count of items in ziplist */
unsigned int encoding : 2; /* RAW==1 or LZF==2 */
unsigned int container : 2; /* NONE==1 or ZIPLIST==2 */
unsigned int recompress : 1; /* was this node previous compressed? */
unsigned int attempted_compress : 1; /* node can't compress; too small */
unsigned int extra : 10; /* more bits to steal for future usage */
} quicklistNode;
quicklist提供了灵活性同时也兼顾了 ziplist的压缩能力,quicklist->encoding指定了两种压缩算法。 quicklist->compress表示我们可以进行 quicklist node的深度压缩能力。redis 提供了两个有关于压缩的配置。
list-max-ziplist-size:ziplist长度控制
list-compress-depth:控制链表两端节点的压缩个数,越是靠近两端的节点被访问的机率越大,所以可以将访问机率大的节点不压缩,其他节点进行压缩
对比 redis 3.2的 quicklist与 redis 3.0,很明显 quicklist提供了更加丰富的压缩功能。redis 3.0的版本是每个 listnode直接缓存值,而 quicklistnode还有强大的有关于压缩能力。
LPUSH list:products:mall 100 200 300
(integer) 3
OBJECT encoding list:products:mall
"quicklist"