网站建设怎么添加评论,宁波优化网页基本流程,seo技巧,鼓楼机关建设网站NoSQL数据库简介 技术发展
技术的分类
1、解决功能性的问题#xff1a;Java、Jsp、RDBMS、Tomcat、HTML、Linux、JDBC、SVN
2、解决扩展性的问题#xff1a;Struts、Spring、SpringMVC、Hibernate、Mybatis
3、解决性能的问题#xff1a;NoSQL、Java线程、Hadoop、Nginx…
NoSQL数据库简介 技术发展
技术的分类
1、解决功能性的问题Java、Jsp、RDBMS、Tomcat、HTML、Linux、JDBC、SVN
2、解决扩展性的问题Struts、Spring、SpringMVC、Hibernate、Mybatis
3、解决性能的问题NoSQL、Java线程、Hadoop、Nginx、MQ、ElasticSearch Web1.0时代
Web1.0的时代数据访问量很有限用一夫当关的高性能的单点服务器可以解决大部分问题。 正在上传…重新上传取消 Web2.0时代
随着Web2.0的时代的到来用户访问量大幅度提升同时产生了大量的用户数据。加上后来的智能移动设备的普及所有的互联网平台都面临了巨大的性能挑战。 正在上传…重新上传取消 解决CPU及内存压力 正在上传…重新上传取消 解决IO压力 正在上传…重新上传取消 NoSQL数据库 NoSQL数据库概述
NoSQL(NoSQL Not Only SQL )意即“不仅仅是SQL”泛指非关系型的数据库。
NoSQL 不依赖业务逻辑方式存储而以简单的key-value模式存储。因此大大的增加了数据库的扩展能力。
不遵循SQL标准。不支持ACID。远超于SQL的性能。 NoSQL适用场景
对数据高并发的读写海量数据的读写对数据高可扩展性的 NoSQL不适用场景
需要事务支持基于sql的结构化查询存储处理复杂的关系,需要即席查询。用不着sql的和用了sql也不行的情况请考虑用NoSql Memcache 正在上传…重新上传取消 很早出现的NoSql数据库数据都在内存中一般不持久化支持简单的key-value模式支持类型单一一般是作为缓存数据库辅助持久化的数据库 Redis 正在上传…重新上传取消 几乎覆盖了Memcached的绝大部分功能数据都在内存中支持持久化主要用作备份恢复除了支持简单的key-value模式还支持多种数据结构的存储比如 list、set、hash、zset等。一般是作为缓存数据库辅助持久化的数据库 MongoDB 正在上传…重新上传取消 高性能、开源、模式自由(schema free)的文档型数据库数据都在内存中 如果内存不足把不常用的数据保存到硬盘虽然是key-value模式但是对value尤其是json提供了丰富的查询功能支持二进制数据及大型对象可以根据数据的特点替代RDBMS 成为独立的数据库。或者配合RDBMS存储特定的数据。 行式存储数据库大数据时代 行式数据库 正在上传…重新上传取消 列式数据库 正在上传…重新上传取消 Hbase 正在上传…重新上传取消
HBase是Hadoop项目中的数据库。它用于需要对大量的数据进行随机、实时的读写操作的场景中。
HBase的目标就是处理数据量非常庞大的表可以用普通的计算机处理超过10亿行数据还可处理有数百万列元素的数据表。 Cassandra[kəˈsændrə] 正在上传…重新上传取消
Apache Cassandra是一款免费的开源NoSQL数据库其设计目的在于管理由大量商用服务器构建起来的庞大集群上的海量数据集(数据量通常达到PB级别)。在众多显著特性当中Cassandra最为卓越的长处是对写入及读取操作进行规模调整而且其不强调主集群的设计思路能够以相对直观的方式简化各集群的创建与扩展流程。 计算机存储单位 计算机存储单位一般用BKBMBGBTBEBZBYBBB来表示它们之间的关系是 位 bit (比特)(Binary Digits)存放一位二进制数即 0 或 1最小的存储单位。 字节 byte8个二进制位为一个字节(B)最常用的单位。 1KB (Kilobyte 千字节)1024B 1MB (Megabyte 兆字节 简称“兆”)1024KB 1GB (Gigabyte 吉字节 又称“千兆”)1024MB 1TB (Trillionbyte 万亿字节 太字节)1024GB其中10242^10 ( 2 的10次方) 1PBPetabyte 千万亿字节 拍字节1024TB 1EBExabyte 百亿亿字节 艾字节1024PB 1ZB (Zettabyte 十万亿亿字节 泽字节) 1024 EB, 1YB (Jottabyte 一亿亿亿字节 尧字节) 1024 ZB, 1BB (Brontobyte 一千亿亿亿字节) 1024 YB. 注“兆”为百万级数量单位。 图关系型数据库 正在上传…重新上传取消
主要应用社会关系公共交通网络地图及网络拓谱(n*(n-1)/2) 正在上传…重新上传取消 DB-Engines 数据库排名
DB-Engines Ranking - popularity ranking of database management systems 正在上传…重新上传取消 Redis概述安装
Redis是一个开源的key-value存储系统。和Memcached类似它支持存储的value类型相对更多包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash哈希类型。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作而且这些操作都是原子性的。在此基础上Redis支持各种不同方式的排序。与memcached一样为了保证效率数据都是缓存在内存中。区别的是Redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件。并且在此基础上实现了master-slave(主从)同步。 应用场景 配合关系型数据库做高速缓存
高频次热门访问的数据降低数据库IO分布式架构做session共享 正在上传…重新上传取消 多样的数据结构存储持久化数据 正在上传…重新上传取消 Redis安装 Redis官方网站 Redis中文官方网站 Redis http://redis.cn/ 正在上传…重新上传取消 正在上传…重新上传取消 安装版本6.2.1 for Linuxredis-6.2.1.tar.gz不用考虑在windows环境下对Redis的支持 正在上传…重新上传取消 安装步骤 准备工作下载安装最新版的gcc编译器
安装C 语言的编译环境
yum install centos-release-scl scl-utils-build
yum install -y devtoolset-8-toolchain
scl enable devtoolset-8 bash
测试 gcc版本
gcc --version 正在上传…重新上传取消 下载redis-6.2.1.tar.gz放/opt目录解压命令tar -zxvf redis-6.2.1.tar.gz解压完成后进入目录cd redis-6.2.1在redis-6.2.1目录下再次执行make命令只是编译好如果没有准备好C语言编译环境make 会报错—Jemalloc/jemalloc.h没有那个文件 正在上传…重新上传取消 解决方案运行make distclean 正在上传…重新上传取消 在redis-6.2.1目录下再次执行make命令只是编译好 正在上传…重新上传取消 跳过make test 继续执行: make install 正在上传…重新上传取消 安装目录/usr/local/bin
查看默认安装目录
redis-benchmark:性能测试工具可以在自己本子运行看看自己本子性能如何
redis-check-aof修复有问题的AOF文件rdb和aof后面讲
redis-check-dump修复有问题的dump.rdb文件
redis-sentinelRedis集群使用
redis-serverRedis服务器启动命令
redis-cli客户端操作入口 前台启动不推荐
前台启动命令行窗口不能关闭否则服务器停止 正在上传…重新上传取消 后台启动推荐 备份redis.conf
拷贝一份redis.conf到其他目录
cp /opt/redis-3.2.5/redis.conf /myredis 后台启动设置daemonize no改成yes
修改redis.conf(128行)文件将里面的daemonize no 改成 yes让服务在后台启动 Redis启动
redis-server/myredis/redis.conf 正在上传…重新上传取消 用客户端访问redis-cli 正在上传…重新上传取消 多个端口可以redis-cli -p6379测试验证 ping 正在上传…重新上传取消 Redis关闭
单实例关闭redis-cli shutdown 正在上传…重新上传取消
也可以进入终端后再关闭 正在上传…重新上传取消
多实例关闭指定端口关闭redis-cli -p 6379 shutdown Redis介绍相关知识 端口6379从何而来 Alessia Merz 正在上传…重新上传取消 默认16个数据库类似数组下标从0开始初始默认使用0号库 使用命令 select dbid来切换数据库。如: select 8 统一密码管理所有库同样密码。 dbsize查看当前数据库的key的数量 flushdb清空当前库 flushall通杀全部库
Redis是单线程多路IO复用技术
多路复用是指使用一个线程来检查多个文件描述符Socket的就绪状态比如调用select和poll函数传入多个文件描述符如果有一个文件描述符就绪则返回否则阻塞直到超时。得到就绪状态后进行真正的操作可以在同一个线程里执行也可以启动线程执行比如使用线程池
串行 vs 多线程锁memcached vs 单线程多路IO复用(Redis)
与Memcache三点不同: 支持多数据类型支持持久化单线程多路IO复用 正在上传…重新上传取消 常用五大数据类型
哪里去获得redis常见数据类型操作命令http://www.redis.cn/commands.html Redis键(key)
keys *查看当前库所有key (匹配keys *1)
exists key判断某个key是否存在
type key 查看你的key是什么类型
del key 删除指定的key数据
unlink key 根据value选择非阻塞删除
仅将keys从keyspace元数据中删除真正的删除会在后续异步操作。
expire key 10 10秒钟为给定的key设置过期时间
ttl key 查看还有多少秒过期-1表示永不过期-2表示已过期 select命令切换数据库
dbsize查看当前数据库的key的数量
flushdb清空当前库
flushall通杀全部库 Redis字符串(String) 简介
String是Redis最基本的类型你可以理解成与Memcached一模一样的类型一个key对应一个value。
String类型是二进制安全的。意味着Redis的string可以包含任何数据。比如jpg图片或者序列化的对象。
String类型是Redis最基本的数据类型一个Redis中字符串value最多可以是512M 常用命令 set keyvalue添加键值对 正在上传…重新上传取消
*NX当数据库中key不存在时可以将key-value添加数据库
*XX当数据库中key存在时可以将key-value添加数据库与NX参数互斥
*EXkey的超时秒数
*PXkey的超时毫秒数与EX互斥 get key查询对应键值
append keyvalue将给定的value 追加到原值的末尾
strlen key获得值的长度
setnx keyvalue只有在 key 不存在时 设置 key 的值 incr key
将 key 中储存的数字值增1
只能对数字值操作如果为空新增值为1
decr key
将 key 中储存的数字值减1
只能对数字值操作如果为空新增值为-1
incrby / decrby key步长将 key 中储存的数字值增减。自定义步长。 原子性 正在上传…重新上传取消 所谓原子操作是指不会被线程调度机制打断的操作 这种操作一旦开始就一直运行到结束中间不会有任何 context switch 切换到另一个线程。 1在单线程中 能够在单条指令中完成的操作都可以认为是原子操作因为中断只能发生于指令之间。 2在多线程中不能被其它进程线程打断的操作就叫原子操作。 Redis单命令的原子性主要得益于Redis的单线程。 案例 java中的i是否是原子操作不是 i0;两个线程分别对i进行100次,值是多少 2~200 i0 i i99 i1 i i2 i0 i i1 i i100
mset key1value1key2value2 .....
同时设置一个或多个 key-value对
mget key1key2key3 .....
同时获取一个或多个 value
msetnx key1value1key2value2 .....
同时设置一个或多个 key-value 对当且仅当所有给定 key 都不存在。
原子性有一个失败则都失败 getrange key起始位置结束位置
获得值的范围类似java中的substring前包后包
setrange key起始位置value
用 value 覆写key所储存的字符串值从起始位置开始(索引从0开始)。 setex key过期时间value
设置键值的同时设置过期时间单位秒。
getset keyvalue
以新换旧设置了新值同时获得旧值。 数据结构
String的数据结构为简单动态字符串(Simple Dynamic String,缩写SDS)。是可以修改的字符串内部结构实现上类似于Java的ArrayList采用预分配冗余空间的方式来减少内存的频繁分配. 正在上传…重新上传取消
如图中所示内部为当前字符串实际分配的空间capacity一般要高于实际字符串长度len。当字符串长度小于1M时扩容都是加倍现有的空间如果超过1M扩容时一次只会多扩1M的空间。需要注意的是字符串最大长度为512M。 Redis列表(List) 简介
单键多值
Redis 列表是简单的字符串列表按照插入顺序排序。你可以添加一个元素到列表的头部左边或者尾部右边。
它的底层实际是个双向链表对两端的操作性能很高通过索引下标的操作中间的节点性能会较差。 正在上传…重新上传取消 常用命令
lpush/rpush keyvalue1value2value3 .... 从左边/右边插入一个或多个值。
lpop/rpop key从左边/右边吐出一个值。值在键在值光键亡。 rpoplpush key1key2从key1列表右边吐出一个值插到key2列表左边。 lrange keystartstop
按照索引下标获得元素(从左到右)
lrange mylist 0 -1 0左边第一个-1右边第一个0-1表示获取所有
lindex keyindex按照索引下标获得元素(从左到右)
llen key获得列表长度 linsert key before valuenewvalue在value的后面插入newvalue插入值
lrem keynvalue从左边删除n个value(从左到右)
lsetkeyindexvalue将列表key下标为index的值替换成value 数据结构
List的数据结构为快速链表quickList。
首先在列表元素较少的情况下会使用一块连续的内存存储这个结构是ziplist也即是压缩列表。
它将所有的元素紧挨着一起存储分配的是一块连续的内存。
当数据量比较多的时候才会改成quicklist。
因为普通的链表需要的附加指针空间太大会比较浪费空间。比如这个列表里存的只是int类型的数据结构上还需要两个额外的指针prev和next。 正在上传…重新上传取消
Redis将链表和ziplist结合起来组成了quicklist。也就是将多个ziplist使用双向指针串起来使用。这样既满足了快速的插入删除性能又不会出现太大的空间冗余。 Redis集合(Set) 简介
Redis set对外提供的功能与list类似是一个列表的功能特殊之处在于set是可以自动排重的当你需要存储一个列表数据又不希望出现重复数据时set是一个很好的选择并且set提供了判断某个成员是否在一个set集合内的重要接口这个也是list所不能提供的。
Redis的Set是string类型的无序集合。它底层其实是一个value为null的hash表所以添加删除查找的复杂度都是O(1)。
一个算法随着数据的增加执行时间的长短如果是O(1)数据增加查找数据的时间不变 常用命令 sadd keyvalue1value2 .....
将一个或多个 member 元素加入到集合 key 中已经存在的 member 元素将被忽略
smembers key取出该集合的所有值。
sismember keyvalue判断集合key是否为含有该value值有1没有0
scardkey返回该集合的元素个数。
srem keyvalue1value2 .... 删除集合中的某个元素。
spop key随机从该集合中吐出一个值。
srandmember keyn随机从该集合中取出n个值。不会从集合中删除 。
smove sourcedestinationvalue把集合中一个值从一个集合移动到另一个集合
sinter key1key2返回两个集合的交集元素。
sunion key1key2返回两个集合的并集元素。
sdiff key1key2返回两个集合的差集元素(key1中的不包含key2中的) 数据结构
Set数据结构是dict字典字典是用哈希表实现的。
Java中HashSet的内部实现使用的是HashMap只不过所有的value都指向同一个对象。Redis的set结构也是一样它的内部也使用hash结构所有的value都指向同一个内部值。 Redis哈希(Hash) 简介
Redis hash 是一个键值对集合。
Redis hash是一个string类型的field和value的映射表hash特别适合用于存储对象。
类似Java里面的MapString,Object
用户ID为查找的key存储的value用户对象包含姓名年龄生日等信息如果用普通的key/value结构来存储
主要有以下2种存储方式 正在上传…重新上传取消 每次修改用户的某个属性需要先反序列化改好后再序列化回去。开销较大。 正在上传…重新上传取消 用户ID数据冗余 正在上传…重新上传取消 通过 key(用户ID) field(属性标签) 就可以操作对应属性数据了既不需要重复存储数据也不会带来序列化和并发修改控制的问题 常用命令 hset keyfieldvalue给key集合中的 field键赋值value
hget key1field从key1集合field取出 value
hmset key1field1value1field2value2... 批量设置hash的值
hexistskey1field查看哈希表 key 中给定域 field 是否存在。
hkeys key列出该hash集合的所有field
hvals key列出该hash集合的所有value
hincrby keyfieldincrement为哈希表 key 中的域 field 的值加上增量 1 -1
hsetnx keyfieldvalue将哈希表 key 中的域 field 的值设置为 value 当且仅当域 field 不存在 . 数据结构
Hash类型对应的数据结构是两种ziplist压缩列表hashtable哈希表。当field-value长度较短且个数较少时使用ziplist否则使用hashtable。 Redis有序集合Zset(sorted set) 简介
Redis有序集合zset与普通集合set非常相似是一个没有重复元素的字符串集合。
不同之处是有序集合的每个成员都关联了一个评分score,这个评分score被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的但是评分可以是重复了 。
因为元素是有序的, 所以你也可以很快的根据评分score或者次序position来获取一个范围的元素。
访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。 常用命令 zadd keyscore1value1score2value2…
将一个或多个 member 元素及其 score 值加入到有序集 key 当中。
zrange keystartstop [WITHSCORES]
返回有序集 key 中下标在startstop之间的元素
带WITHSCORES可以让分数一起和值返回到结果集。
zrangebyscore key minmax [withscores] [limit offset count]
返回有序集 key 中所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列。
zrevrangebyscore key maxmin [withscores] [limit offset count]
同上改为从大到小排列。
zincrby keyincrementvalue 为元素的score加上增量
zrem keyvalue删除该集合下指定值的元素
zcount keyminmax统计该集合分数区间内的元素个数
zrank keyvalue返回该值在集合中的排名从0开始。
案例如何利用zset实现一个文章访问量的排行榜 正在上传…重新上传取消 数据结构
SortedSet(zset)是Redis提供的一个非常特别的数据结构一方面它等价于Java的数据结构MapString, Double可以给每一个元素value赋予一个权重score另一方面它又类似于TreeSet内部的元素会按照权重score进行排序可以得到每个元素的名次还可以通过score的范围来获取元素的列表。
zset底层使用了两个数据结构
1hashhash的作用就是关联元素value和权重score保障元素value的唯一性可以通过元素value找到相应的score值。
2跳跃表跳跃表的目的在于给元素value排序根据score的范围获取元素列表。 跳跃表跳表
1、简介 有序集合在生活中比较常见例如根据成绩对学生排名根据得分对玩家排名等。对于有序集合的底层实现可以用数组、平衡树、链表等。数组不便元素的插入、删除平衡树或红黑树虽然效率高但结构复杂链表查询需要遍历所有效率低。Redis采用的是跳跃表。跳跃表效率堪比红黑树实现远比红黑树简单。
2、实例 对比有序链表和跳跃表从链表中查询出51
有序链表 正在上传…重新上传取消
要查找值为51的元素需要从第一个元素开始依次查找、比较才能找到。共需要6次比较。
跳跃表 正在上传…重新上传取消
从第2层开始1节点比51节点小向后比较。
21节点比51节点小继续向后比较后面就是NULL了所以从21节点向下到第1层
在第1层41节点比51节点小继续向后61节点比51节点大所以从41向下
在第0层51节点为要查找的节点节点被找到共查找4次。 从此可以看出跳跃表比有序链表效率要高 Redis配置文件介绍
自定义目录/myredis/redis.conf ###Units单位###
配置大小单位,开头定义了一些基本的度量单位只支持bytes不支持bit
大小写不敏感 正在上传…重新上传取消 ###INCLUDES包含### 正在上传…重新上传取消
类似jsp中的include多实例的情况可以把公用的配置文件提取出来 ###网络相关配置 ### bind
默认情况bind127.0.0.1只能接受本机的访问请求
不写的情况下无限制接受任何ip地址的访问
生产环境肯定要写你应用服务器的地址服务器是需要远程访问的所以需要将其注释掉
如果开启了protected-mode那么在没有设定bind ip且没有设密码的情况下Redis只允许接受本机的响应 正在上传…重新上传取消
保存配置停止服务重启启动查看进程不再是本机访问了。 正在上传…重新上传取消 protected-mode
将本机访问保护模式设置no 正在上传…重新上传取消 Port
端口号默认 6379 正在上传…重新上传取消 tcp-backlog
设置tcp的backlogbacklog其实是一个连接队列backlog队列总和未完成三次握手队列 已经完成三次握手队列。
在高并发环境下你需要一个高backlog值来避免慢客户端连接问题。
注意Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值128所以需要确认增大/proc/sys/net/core/somaxconn和/proc/sys/net/ipv4/tcp_max_syn_backlog128两个值来达到想要的效果 正在上传…重新上传取消 timeout
一个空闲的客户端维持多少秒会关闭0表示关闭该功能。即永不关闭。 正在上传…重新上传取消 tcp-keepalive
对访问客户端的一种心跳检测每个n秒检测一次。
单位为秒如果设置为0则不会进行Keepalive检测建议设置成60 正在上传…重新上传取消 ###GENERAL通用### daemonize
是否为后台进程设置为yes
守护进程后台启动 正在上传…重新上传取消 pidfile
存放pid文件的位置每个实例会产生一个不同的pid文件 正在上传…重新上传取消 loglevel
指定日志记录级别Redis总共支持四个级别debug、verbose、notice、warning默认为notice
四个级别根据使用阶段来选择生产环境选择notice 或者warning 正在上传…重新上传取消 logfile
日志文件名称 正在上传…重新上传取消 databases 16
设定库的数量 默认16默认数据库为0可以使用SELECT dbid命令在连接上指定数据库id 正在上传…重新上传取消 ###SECURITY安全### 设置密码 正在上传…重新上传取消
访问密码的查看、设置和取消
在命令中设置密码只是临时的。重启redis服务器密码就还原了。
永久设置需要再配置文件中进行设置。 正在上传…重新上传取消 #### LIMITS限制 ### maxclients设置redis同时可以与多少个客户端进行连接。默认情况下为10000个客户端。如果达到了此限制redis则会拒绝新的连接请求并且向这些连接请求方发出“max number of clients reached”以作回应。 正在上传…重新上传取消 maxmemory 建议必须设置否则将内存占满造成服务器宕机设置redis可以使用的内存量。一旦到达内存使用上限redis将会试图移除内部数据移除规则可以通过maxmemory-policy来指定。如果redis无法根据移除规则来移除内存中的数据或者设置了“不允许移除”那么redis则会针对那些需要申请内存的指令返回错误信息比如SET、LPUSH等。但是对于无内存申请的指令仍然会正常响应比如GET等。如果你的redis是主redis说明你的redis有从redis那么在设置内存使用上限时需要在系统中留出一些内存空间给同步队列缓存只有在你设置的是“不移除”的情况下才不用考虑这个因素。 正在上传…重新上传取消 maxmemory-policyvolatile-lru使用LRU算法移除key只对设置了过期时间的键最近最少使用allkeys-lru在所有集合key中使用LRU算法移除keyvolatile-random在过期集合中移除随机的key只对设置了过期时间的键allkeys-random在所有集合key中移除随机的keyvolatile-ttl移除那些TTL值最小的key即那些最近要过期的keynoeviction不进行移除。针对写操作只是返回错误信息 正在上传…重新上传取消 maxmemory-samples设置样本数量LRU算法和最小TTL算法都并非是精确的算法而是估算值所以你可以设置样本的大小redis默认会检查这么多个key并选择其中LRU的那个。一般设置3到7的数字数值越小样本越不准确但性能消耗越小。 正在上传…重新上传取消 Redis的发布和订阅 什么是发布和订阅
Redis 发布订阅 (pub/sub) 是一种消息通信模式发送者 (pub) 发送消息订阅者 (sub) 接收消息。 Redis 客户端可以订阅任意数量的频道。 Redis的发布和订阅
1、客户端可以订阅频道如下图 正在上传…重新上传取消
2、当给这个频道发布消息后消息就会发送给订阅的客户端 正在上传…重新上传取消 发布订阅命令行实现打开一个客户端订阅channel1
SUBSCRIBE channel1 正在上传…重新上传取消
2、打开另一个客户端给channel1发布消息hello
publish channel1 hello 正在上传…重新上传取消
返回的1是订阅者数量
3、打开第一个客户端可以看到发送的消息 正在上传…重新上传取消
注发布的消息没有持久化如果在订阅的客户端收不到hello只能收到订阅后发布的消息 Redis新数据类型 Bitmaps 简介
现代计算机用二进制位 作为信息的基础单位 1个字节等于8位 例如“abc”字符串是由3个字节组成 但实际在计算机存储时将其用二进制表示 “abc”分别对应的ASCII码分别是97、 98、 99 对应的二进制分别是01100001、 01100010和01100011如下图 正在上传…重新上传取消
合理地使用操作位能够有效地提高内存使用率和开发效率。 Redis提供了Bitmaps这个“数据类型”可以实现对位的操作 Bitmaps本身不是一种数据类型 实际上它就是字符串key-value 但是它可以对字符串的位进行操作。Bitmaps单独提供了一套命令 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。 可以把Bitmaps想象成一个以位为单位的数组 数组的每个单元只能存储0和1 数组的下标在Bitmaps中叫做偏移量。 正在上传…重新上传取消 命令
1、setbit
1格式
setbitkeyoffsetvalue设置Bitmaps中某个偏移量的值0或1 正在上传…重新上传取消
*offset:偏移量从0开始 2实例
每个独立用户是否访问过网站存放在Bitmaps中 将访问的用户记做1 没有访问的用户记做0 用偏移量作为用户的id。
设置键的第offset个位的值从0算起 假设现在有20个用户userid1 6 11 15 19的用户对网站进行了访问 那么当前Bitmaps初始化结果如图 正在上传…重新上传取消
unique:users:20201106代表2020-11-06这天的独立访问用户的Bitmaps 正在上传…重新上传取消
注
很多应用的用户id以一个指定数字例如10000 开头 直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费 通常的做法是每次做setbit操作时将用户id减去这个指定数字。
在第一次初始化Bitmaps时 假如偏移量非常大 那么整个初始化过程执行会比较慢 可能会造成Redis的阻塞。 2、getbit
1格式
getbitkeyoffset获取Bitmaps中某个偏移量的值 正在上传…重新上传取消
获取键的第offset位的值从0开始算 2实例
获取id8的用户是否在2020-11-06这天访问过 返回0说明没有访问过 正在上传…重新上传取消 注因为100根本不存在所以也是返回0 3、bitcount
统计字符串被设置为1的bit数。一般情况下给定的整个字符串都会被进行计数通过指定额外的 start 或 end 参数可以让计数只在特定的位上进行。start 和 end 参数的设置都可以使用负数值比如 -1 表示最后一个位而 -2 表示倒数第二个位start、end 是指bit组的字节的下标数二者皆包含。
1格式
bitcountkey[start end] 统计字符串从start字节到end字节比特值为1的数量 正在上传…重新上传取消 2实例
计算2022-11-06这天的独立访问用户数量 正在上传…重新上传取消 start和end代表起始和结束字节数 下面操作计算用户id在第1个字节到第3个字节之间的独立访问用户数 对应的用户id是11 15 19。 正在上传…重新上传取消 举例 K1 【01000001 01000000 00000000 00100001】对应【0123】
bitcount K1 1 2 统计下标1、2字节组中bit1的个数即01000000 00000000
--》bitcount K1 1 2 --》1 bitcount K1 1 3 统计下标1、2字节组中bit1的个数即01000000 00000000 00100001
--》bitcount K1 1 3 --》3 bitcount K1 0 -2 统计下标0到下标倒数第2字节组中bit1的个数即01000001 01000000 00000000
--》bitcount K1 0 -2 --》3 注意redis的setbit设置或清除的是bit位置而bitcount计算的是byte位置。 4、bitop
(1)格式
bitop and(or/not/xor) destkey [key…] 正在上传…重新上传取消
bitop是一个复合操作 它可以做多个Bitmaps的and交集 、 or并集 、 not非 、 xor异或 操作并将结果保存在destkey中。 (2)实例
2020-11-04 日访问网站的userid1,2,5,9。
setbit unique:users:20201104 1 1
setbit unique:users:20201104 2 1
setbit unique:users:20201104 5 1
setbit unique:users:20201104 9 1 2020-11-03 日访问网站的userid0,1,4,9。
setbit unique:users:20201103 0 1
setbit unique:users:20201103 1 1
setbit unique:users:20201103 4 1
setbit unique:users:20201103 9 1 计算出两天都访问过网站的用户数量
bitop and unique:users:and:20201104_03 unique:users:20201103unique:users:20201104 正在上传…重新上传取消 正在上传…重新上传取消
计算出任意一天都访问过网站的用户数量例如月活跃就是类似这种 可以使用or求并集 正在上传…重新上传取消 Bitmaps与set对比
假设网站有1亿用户 每天独立访问的用户有5千万 如果每天用集合类型和Bitmaps分别存储活跃用户可以得到表 set和Bitmaps存储一天活跃用户对比 数据 类型 每个用户id占用空间 需要存储的用户量 全部内存量 集合 类型 64位 50000000 64位*50000000 400MB Bitmaps 1位 100000000 1位*100000000 12.5MB 很明显 这种情况下使用Bitmaps能节省很多的内存空间 尤其是随着时间推移节省的内存还是非常可观的 set和Bitmaps存储独立用户空间对比 数据类型 一天 一个月 一年 集合类型 400MB 12GB 144GB Bitmaps 12.5MB 375MB 4.5GB 但Bitmaps并不是万金油 假如该网站每天的独立访问用户很少 例如只有10万大量的僵尸用户 那么两者的对比如下表所示 很显然 这时候使用Bitmaps就不太合适了 因为基本上大部分位都是0。 set和Bitmaps存储一天活跃用户对比独立用户比较少 数据类型 每个userid占用空间 需要存储的用户量 全部内存量 集合类型 64位 100000 64位*100000 800KB Bitmaps 1位 100000000 1位*100000000 12.5MB HyperLogLog 简介
在工作当中我们经常会遇到与统计相关的功能需求比如统计网站PVPageView页面访问量,可以使用Redis的incr、incrby轻松实现。
但像UVUniqueVisitor独立访客、独立IP数、搜索记录数等需要去重和计数的问题如何解决这种求集合中不重复元素个数的问题称为基数问题。
解决基数问题有很多种方案
1数据存储在MySQL表中使用distinct count计算不重复个数
2使用Redis提供的hash、set、bitmaps等数据结构来处理
以上的方案结果精确但随着数据不断增加导致占用空间越来越大对于非常大的数据集是不切实际的。
能否能够降低一定的精度来平衡存储空间Redis推出了HyperLogLog
Redis HyperLogLog 是用来做基数统计的算法HyperLogLog 的优点是在输入元素的数量或者体积非常非常大时计算基数所需的空间总是固定的、并且是很小的。
在 Redis 里面每个 HyperLogLog 键只需要花费 12 KB 内存就可以计算接近 2^64 个不同元素的基数。这和计算基数时元素越多耗费内存就越多的集合形成鲜明对比。
但是因为 HyperLogLog 只会根据输入元素来计算基数而不会储存输入元素本身所以 HyperLogLog 不能像集合那样返回输入的各个元素。 什么是基数?
比如数据集 {1, 3, 5, 7, 5, 7, 8} 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)为5。 基数估计就是在误差可接受的范围内快速计算基数。 命令
1、pfadd
1格式
pfadd key element [element ...] 添加指定元素到 HyperLogLog 中 正在上传…重新上传取消 2实例 正在上传…重新上传取消 将所有元素添加到指定HyperLogLog数据结构中。如果执行命令后HLL估计的近似基数发生变化则返回1否则返回0。 2、pfcount
1格式
pfcountkey [key ...] 计算HLL的近似基数可以计算多个HLL比如用HLL存储每天的UV计算一周的UV可以使用7天的UV合并计算即可 正在上传…重新上传取消 2实例 正在上传…重新上传取消 3、pfmerge
1格式
pfmergedestkeysourcekey [sourcekey ...] 将一个或多个HLL合并后的结果存储在另一个HLL中比如每月活跃用户可以使用每天的活跃用户来合并计算可得 正在上传…重新上传取消 2实例 正在上传…重新上传取消 Geospatial 简介
Redis 3.2 中增加了对GEO类型的支持。GEOGeographic地理信息的缩写。该类型就是元素的2维坐标在地图上就是经纬度。redis基于该类型提供了经纬度设置查询范围查询距离查询经纬度Hash等常见操作。 命令
1、geoadd 1格式
geoaddkey longitudelatitudemember [longitude latitude member...] 添加地理位置经度纬度名称 正在上传…重新上传取消 2实例
geoadd china:city 121.47 31.23 shanghai
geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing 正在上传…重新上传取消
两极无法直接添加一般会下载城市数据直接通过 Java 程序一次性导入。
有效的经度从 -180 度到 180 度。有效的纬度从 -85.05112878 度到 85.05112878 度。
当坐标位置超出指定范围时该命令将会返回一个错误。
已经添加的数据是无法再次往里面添加的。
2、geopos 1格式
geopos keymember [member...] 获得指定地区的坐标值 正在上传…重新上传取消 2实例 正在上传…重新上传取消 3、geodist 1格式
geodistkeymember1member2 [m|km|ft|mi ] 获取两个位置之间的直线距离 正在上传…重新上传取消 2实例
获取两个位置之间的直线距离 正在上传…重新上传取消
单位
m 表示单位为米[默认值]。
km 表示单位为千米。
mi 表示单位为英里。
ft 表示单位为英尺。
如果用户没有显式地指定单位参数 那么 GEODIST 默认使用米作为单位 4、georadius
1格式
georadiuskey longitudelatituderadius m|km|ft|mi 以给定的经纬度为中心找出某一半径内的元素 正在上传…重新上传取消
经度 纬度 距离 单位 2实例 正在上传…重新上传取消 Redis_Jedis_测试 Jedis所需要的jar包 dependencygroupIdredis.clients/groupIdartifactIdjedis/artifactIdversion3.2.0/version/dependency 连接Redis注意事项
禁用Linux的防火墙Linux(CentOS7)里执行命令
systemctl stop/disable firewalld.service
redis.conf中注释掉bind 127.0.0.1 ,然后 protected-mode no Jedis常用操作 创建动态的工程 创建测试程序 package com.atguigu.jedis; import redis.clients.jedis.Jedis; public class Demo01 { public static void main(String[] args) { Jedis jedis new Jedis(192.168.137.3,6379); String pong jedis.ping(); System.out.println(连接成功pong); jedis.close(); } } 测试相关数据类型 Jedis-API: Key jedis.set(k1, v1); jedis.set(k2, v2); jedis.set(k3, v3); SetString keys jedis.keys(*); System.out.println(keys.size()); for (String key : keys) { System.out.println(key); } System.out.println(jedis.exists(k1)); System.out.println(jedis.ttl(k1)); System.out.println(jedis.get(k1)); Jedis-API: String jedis.mset(str1,v1,str2,v2,str3,v3); System.out.println(jedis.mget(str1,str2,str3)); Jedis-API: List ListString list jedis.lrange(mylist,0,-1); for (String element : list) { System.out.println(element); } Jedis-API: set jedis.sadd(orders, order01); jedis.sadd(orders, order02); jedis.sadd(orders, order03); jedis.sadd(orders, order04); SetString smembers jedis.smembers(orders); for (String order : smembers) { System.out.println(order); } jedis.srem(orders, order02); Jedis-API: hash jedis.hset(hash1,userName,lisi); System.out.println(jedis.hget(hash1,userName)); MapString,String map new HashMapString,String(); map.put(telphone,13810169999); map.put(address,atguigu); map.put(email,abc163.com); jedis.hmset(hash2,map); ListString result jedis.hmget(hash2, telphone,email); for (String element : result) { System.out.println(element); } Jedis-API: zset jedis.zadd(zset01, 100d, z3); jedis.zadd(zset01, 90d, l4); jedis.zadd(zset01, 80d, w5); jedis.zadd(zset01, 70d, z6); SetString zrange jedis.zrange(zset01, 0, -1); for (String e : zrange) { System.out.println(e); } Redis_Jedis_实例 完成一个手机验证码功能
要求
1、输入手机号点击发送后随机生成6位数字码2分钟有效
2、输入验证码点击验证返回成功或失败
3、每个手机号每天只能输入3次 正在上传…重新上传取消 Redis与Spring Boot整合
Spring Boot整合Redis非常简单只需要按如下步骤整合即可 整合步骤在pom.xml文件中引入redis相关依赖 !-- redis --dependencygroupIdorg.springframework.boot/groupIdartifactIdspring-boot-starter-data-redis/artifactId/dependency!-- spring2.X集成redis所需common-pool2--dependencygroupIdorg.apache.commons/groupIdartifactIdcommons-pool2/artifactIdversion2.6.0/version/dependency application.properties配置redis配置 #Redis服务器地址spring.redis.host192.168.140.136#Redis服务器连接端口spring.redis.port6379#Redis数据库索引默认为0spring.redis.database 0#连接超时时间毫秒spring.redis.timeout1800000#连接池最大连接数使用负值表示没有限制spring.redis.lettuce.pool.max-active20#最大阻塞等待时间(负数表示没限制)spring.redis.lettuce.pool.max-wait-1#连接池中的最大空闲连接spring.redis.lettuce.pool.max-idle5#连接池中的最小空闲连接spring.redis.lettuce.pool.min-idle0 添加redis配置类 EnableCaching Configurationpublic class RedisConfig extends CachingConfigurerSupport { Bean public RedisTemplateString, Object redisTemplate(RedisConnectionFactory factory) { RedisTemplateString, Object template new RedisTemplate(); RedisSerializerString redisSerializer new StringRedisSerializer(); Jackson2JsonRedisSerializer jackson2JsonRedisSerializer new Jackson2JsonRedisSerializer(Object.class); ObjectMapper om new ObjectMapper(); om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY); om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL); jackson2JsonRedisSerializer.setObjectMapper(om); template.setConnectionFactory(factory);//key序列化方式 template.setKeySerializer(redisSerializer);//value序列化 template.setValueSerializer(jackson2JsonRedisSerializer);//value hashmap序列化 template.setHashValueSerializer(jackson2JsonRedisSerializer); return template; } Bean public CacheManager cacheManager(RedisConnectionFactory factory) { RedisSerializerString redisSerializer new StringRedisSerializer(); Jackson2JsonRedisSerializer jackson2JsonRedisSerializer new Jackson2JsonRedisSerializer(Object.class);//解决查询缓存转换异常的问题 ObjectMapper om new ObjectMapper(); om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY); om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL); jackson2JsonRedisSerializer.setObjectMapper(om);// 配置序列化解决乱码的问题,过期时间600秒 RedisCacheConfiguration config RedisCacheConfiguration.defaultCacheConfig() .entryTtl(Duration.ofSeconds(600)) .serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer)) .serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer)) .disableCachingNullValues(); RedisCacheManager cacheManager RedisCacheManager.builder(factory) .cacheDefaults(config) .build(); return cacheManager; } } 4、测试一下
RedisTestController中添加测试方法 RestController RequestMapping(/redisTest)public class RedisTestController { Autowired private RedisTemplate redisTemplate; GetMapping public String testRedis() { //设置值到redis redisTemplate.opsForValue().set(name,lucy); //从redis获取值 String name (String)redisTemplate.opsForValue().get(name); return name; } } Redis_事务_锁机制_秒杀 Redis的事务定义 正在上传…重新上传取消
Redis事务是一个单独的隔离操作事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中不会被其他客户端发送来的命令请求所打断。
Redis事务的主要作用就是串联多个命令防止别的命令插队。 Multi、Exec、discard
从输入Multi命令开始输入的命令都会依次进入命令队列中但不会执行直到输入Exec后Redis会将之前的命令队列中的命令依次执行。
组队的过程中可以通过discard来放弃组队。 正在上传…重新上传取消
案例 正在上传…重新上传取消 组队成功提交成功 正在上传…重新上传取消 组队阶段报错提交失败 正在上传…重新上传取消 组队成功提交有成功有失败情况 事务的错误处理
组队中某个命令出现了报告错误执行时整个的所有队列都会被取消。 正在上传…重新上传取消
如果执行阶段某个命令报出了错误则只有报错的命令不会被执行而其他的命令都会执行不会回滚。 正在上传…重新上传取消 为什么要做成事务
想想一个场景有很多人有你的账户,同时去参加双十一抢购 事务冲突的问题 例子
一个请求想给金额减8000
一个请求想给金额减5000
一个请求想给金额减1000 正在上传…重新上传取消 悲观锁 正在上传…重新上传取消
悲观锁(Pessimistic Lock), 顾名思义就是很悲观每次去拿数据的时候都认为别人会修改所以每次在拿数据的时候都会上锁这样别人想拿这个数据就会block直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制比如行锁表锁等读锁写锁等都是在做操作之前先上锁。 乐观锁 正在上传…重新上传取消
乐观锁(Optimistic Lock), 顾名思义就是很乐观每次去拿数据的时候都认为别人不会修改所以不会上锁但是在更新的时候会判断一下在此期间别人有没有去更新这个数据可以使用版本号等机制。乐观锁适用于多读的应用类型这样可以提高吞吐量。Redis就是利用这种check-and-set机制实现事务的。 WATCH key [key ...]
在执行multi之前先执行watch key1 [key2],可以监视一个(或多个) key 如果在事务执行之前这个(或这些) key 被其他命令所改动那么事务将被打断。 正在上传…重新上传取消 unwatch
取消 WATCH 命令对所有 key 的监视。
如果在执行 WATCH 命令之后EXEC 命令或DISCARD 命令先被执行了的话那么就不需要再执行UNWATCH 了。
EXEC — Redis 命令参考 Redis事务三特性单独的隔离操作 事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中不会被其他客户端发送来的命令请求所打断。没有隔离级别的概念 队列中的命令没有提交之前都不会实际被执行因为事务提交前任何指令都不会被实际执行不保证原子性 事务中如果有一条命令执行失败其后的命令仍然会被执行没有回滚 Redis_事务_秒杀案例 解决计数器和人员记录的事务操作 正在上传…重新上传取消 Redis事务--秒杀并发模拟
使用工具ab模拟测试
CentOS6 默认安装
CentOS7需要手动安装 联网yum install httpd-tools无网络
1 进入cd /run/media/root/CentOS 7 x86_64/Packages路径跟centos6不同
2 顺序安装
apr-1.4.8-3.el7.x86_64.rpm
apr-util-1.5.2-6.el7.x86_64.rpm
httpd-tools-2.4.6-67.el7.centos.x86_64.rpm 测试及结果 通过ab测试
vim postfile 模拟表单提交参数,以符号结尾;存放当前目录。
内容prodid0101
ab -n 2000 -c 200 -k -p ~/postfile -T application/x-www-form-urlencoded http://192.168.2.115:8081/Seckill/doseckill 超卖 正在上传…重新上传取消 正在上传…重新上传取消 超卖问题 正在上传…重新上传取消 利用乐观锁淘汰用户解决超卖问题。 正在上传…重新上传取消 //增加乐观锁 jedis.watch(qtkey); //3.判断库存 String qtkeystr jedis.get(qtkey); if(qtkeystrnull || .equals(qtkeystr.trim())) { System.out.println(未初始化库存); jedis.close(); return false ; } int qt Integer.parseInt(qtkeystr); if(qt0) { System.err.println(已经秒光); jedis.close(); return false; } //增加事务 Transaction multi jedis.multi(); //4.减少库存 //jedis.decr(qtkey); multi.decr(qtkey); //5.加人 //jedis.sadd(usrkey, uid); multi.sadd(usrkey, uid); //执行事务 ListObject list multi.exec(); //判断事务提交是否失败 if(listnull || list.size()0) { System.out.println(秒杀失败); jedis.close(); return false; } System.err.println(秒杀成功); jedis.close(); 正在上传…重新上传取消 正在上传…重新上传取消 继续增加并发测试 连接有限制
ab -n 2000 -c 200 -k -p postfile -T application/x-www-form-urlencoded http://192.168.140.1:8080/seckill/doseckill 正在上传…重新上传取消
增加-r参数-r Dont exit on socket receive errors.
ab -n 2000 -c 100 -r -p postfile -T application/x-www-form-urlencoded http://192.168.140.1:8080/seckill/doseckill 已经秒光可是还有库存
ab -n 2000 -c 100 -p postfile -T application/x-www-form-urlencoded http://192.168.137.1:8080/seckill/doseckill
已经秒光可是还有库存。原因就是乐观锁导致很多请求都失败。先点的没秒到后点的可能秒到了。 正在上传…重新上传取消 连接超时通过连接池解决 正在上传…重新上传取消 连接池
节省每次连接redis服务带来的消耗把连接好的实例反复利用。
通过参数管理连接的行为
代码见项目中
链接池参数 MaxTotal控制一个pool可分配多少个jedis实例通过pool.getResource()来获取如果赋值为-1则表示不限制如果pool已经分配了MaxTotal个jedis实例则此时pool的状态为exhausted。maxIdle控制一个pool最多有多少个状态为idle(空闲)的jedis实例MaxWaitMillis表示当borrow一个jedis实例时最大的等待毫秒数如果超过等待时间则直接抛JedisConnectionExceptiontestOnBorrow获得一个jedis实例的时候是否检查连接可用性ping()如果为true则得到的jedis实例均是可用的 解决库存遗留问题 LUA脚本 正在上传…重新上传取消
Lua 是一个小巧的脚本语言Lua脚本可以很容易的被C/C 代码调用也可以反过来调用C/C的函数Lua并没有提供强大的库一个完整的Lua解释器不过200k所以Lua不适合作为开发独立应用程序的语言而是作为嵌入式脚本语言。
很多应用程序、游戏使用LUA作为自己的嵌入式脚本语言以此来实现可配置性、可扩展性。
这其中包括魔兽争霸地图、魔兽世界、博德之门、愤怒的小鸟等众多游戏插件或外挂。
Lua 教程_w3cschool LUA脚本在Redis中的优势
将复杂的或者多步的redis操作写为一个脚本一次提交给redis执行减少反复连接redis的次数。提升性能。
LUA脚本是类似redis事务有一定的原子性不会被其他命令插队可以完成一些redis事务性的操作。
但是注意redis的lua脚本功能只有在Redis 2.6以上的版本才可以使用。
利用lua脚本淘汰用户解决超卖问题。
redis 2.6版本以后通过lua脚本解决争抢问题实际上是redis 利用其单线程的特性用任务队列的方式解决多任务并发问题。 正在上传…重新上传取消 Redis_事务_秒杀案例_代码 项目结构 正在上传…重新上传取消 第一版简单版
老师点10次正常秒杀
同学一起点试一试秒杀也是正常的。这是因为还达不到并发的效果。
使用工具ab模拟并发测试会出现超卖情况。查看库存会出现负数。 第二版加事务-乐观锁(解决超卖),但出现遗留库存和连接超时第三版连接池解决超时问题 第四版解决库存依赖问题LUA脚本 local useridKEYS[1]; local prodidKEYS[2]; local qtkeysk:..prodid..:qt; local usersKeysk:..prodid.:usr; local userExistsredis.call(sismember,usersKey,userid); if tonumber(userExists)1 then return 2; end local num redis.call(get ,qtkey); if tonumber(num)0 then return 0; else redis.call(decr,qtkey); redis.call(sadd,usersKey,userid); end return 1;
Redis持久化之RDB 总体介绍
官网介绍http://www.redis.io 正在上传…重新上传取消
Redis 提供了2个不同形式的持久化方式。
RDBRedis DataBaseAOFAppend Of File RDBRedis DataBase 官网介绍 正在上传…重新上传取消 是什么
在指定的时间间隔内将内存中的数据集快照写入磁盘 也就是行话讲的Snapshot快照它恢复时是将快照文件直接读到内存里 备份是如何执行的
Redis会单独创建fork一个子进程来进行持久化会先将数据写入到 一个临时文件中待持久化过程都结束了再用这个临时文件替换上次持久化好的文件。 整个过程中主进程是不进行任何IO操作的这就确保了极高的性能 如果需要进行大规模数据的恢复且对于数据恢复的完整性不是非常敏感那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。 ForkFork的作用是复制一个与当前进程一样的进程。新进程的所有数据变量、环境变量、程序计数器等 数值都和原进程一致但是是一个全新的进程并作为原进程的子进程在Linux程序中fork()会产生一个和父进程完全相同的子进程但子进程在此后多会exec系统调用出于效率考虑Linux中引入了“写时复制技术”一般情况父进程和子进程会共用同一段物理内存只有进程空间的各段的内容要发生变化时才会将父进程的内容复制一份给子进程。 RDB持久化流程 正在上传…重新上传取消 dump.rdb文件
在redis.conf中配置文件名称默认为dump.rdb 正在上传…重新上传取消 配置位置
rdb文件的保存路径也可以修改。默认为Redis启动时命令行所在的目录下
dir /myredis/ 正在上传…重新上传取消 如何触发RDB快照保持策略 配置文件中默认的快照配置 正在上传…重新上传取消 命令save VS bgsave
save save时只管保存其它不管全部阻塞。手动保存。不建议。
bgsaveRedis会在后台异步进行快照操作 快照同时还可以响应客户端请求。
可以通过lastsave 命令获取最后一次成功执行快照的时间 flushall命令
执行flushall命令也会产生dump.rdb文件但里面是空的无意义 ###SNAPSHOTTING快照###Save
格式save 秒钟 写操作次数
RDB是整个内存的压缩过的SnapshotRDB的数据结构可以配置复合的快照触发条件
默认是1分钟内改了1万次或5分钟内改了10次或15分钟内改了1次。
禁用
不设置save指令或者给save传入空字符串 stop-writes-on-bgsave-error 正在上传…重新上传取消
当Redis无法写入磁盘的话直接关掉Redis的写操作。推荐yes. rdbcompression 压缩文件 正在上传…重新上传取消
对于存储到磁盘中的快照可以设置是否进行压缩存储。如果是的话redis会采用LZF算法进行压缩。
如果你不想消耗CPU来进行压缩的话可以设置为关闭此功能。推荐yes. rdbchecksum 检查完整性 正在上传…重新上传取消
在存储快照后还可以让redis使用CRC64算法来进行数据校验
但是这样做会增加大约10%的性能消耗如果希望获取到最大的性能提升可以关闭此功能
推荐yes. rdb的备份
先通过config get dir 查询rdb文件的目录
将*.rdb的文件拷贝到别的地方
rdb的恢复 关闭Redis先把备份的文件拷贝到工作目录下 cp dump2.rdb dump.rdb启动Redis, 备份数据会直接加载 优势适合大规模的数据恢复对数据完整性和一致性要求不高更适合使用节省磁盘空间恢复速度快 正在上传…重新上传取消 劣势Fork的时候内存中的数据被克隆了一份大致2倍的膨胀性需要考虑虽然Redis在fork时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能。在备份周期在一定间隔时间做一次备份所以如果Redis意外down掉的话就会丢失最后一次快照后的所有修改。 如何停止
动态停止RDBredis-cli config set save #save后给空值表示禁用保存策略 小总结 正在上传…重新上传取消 Redis持久化之AOF AOFAppend Only File 是什么
以日志的形式来记录每个写操作增量保存将Redis执行过的所有写指令记录下来(读操作不记录) 只许追加文件但不可以改写文件redis启动之初会读取该文件重新构建数据换言之redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作 AOF持久化流程
1客户端的请求写命令会被append追加到AOF缓冲区内
2AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中
3AOF文件大小超过重写策略或手动重写时会对AOF文件rewrite重写压缩AOF文件容量
4Redis服务重启时会重新load加载AOF文件中的写操作达到数据恢复的目的 正在上传…重新上传取消 AOF默认不开启
可以在redis.conf中配置文件名称默认为 appendonly.aof
AOF文件的保存路径同RDB的路径一致。 AOF和RDB同时开启redis听谁的
AOF和RDB同时开启系统默认取AOF的数据数据不会存在丢失 AOF启动/修复/恢复AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样都是拷贝备份文件需要恢复时再拷贝到Redis工作目录下启动系统即加载。正常恢复
修改默认的appendonly no改为yes将有数据的aof文件复制一份保存到对应目录(查看目录config get dir)恢复重启redis然后重新加载 异常恢复
修改默认的appendonly no改为yes如遇到AOF文件损坏通过/usr/local/bin/redis-check-aof--fix appendonly.aof进行恢复备份被写坏的AOF文件恢复重启redis然后重新加载 AOF同步频率设置
appendfsync always
始终同步每次Redis的写入都会立刻记入日志性能较差但数据完整性比较好
appendfsync everysec
每秒同步每秒记入日志一次如果宕机本秒的数据可能丢失。
appendfsync no
redis不主动进行同步把同步时机交给操作系统。 Rewrite压缩 1是什么
AOF采用文件追加方式文件会越来越大为避免出现此种情况新增了重写机制, 当AOF文件的大小超过所设定的阈值时Redis就会启动AOF文件的内容压缩 只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof
2重写原理如何实现重写
AOF文件持续增长而过大时会fork出一条新进程来将文件重写(也是先写临时文件最后再rename)redis4.0版本后的重写是指上就是把rdb 的快照以二级制的形式附在新的aof头部作为已有的历史数据替换掉原来的流水账操作。
no-appendfsync-on-rewrite
如果 no-appendfsync-on-rewriteyes ,不写入aof文件只写入缓存用户请求不会阻塞但是在这段时间如果宕机会丢失这段时间的缓存数据。降低数据安全性提高性能 如果 no-appendfsync-on-rewriteno, 还是会把数据往磁盘里刷但是遇到重写操作可能会发生阻塞。数据安全但是性能降低
触发机制何时重写
Redis会记录上次重写时的AOF大小默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发
重写虽然可以节约大量磁盘空间减少恢复时间。但是每次重写还是有一定的负担的因此设定Redis要满足一定条件才会进行重写。
auto-aof-rewrite-percentage设置重写的基准值文件达到100%时开始重写文件是原来重写后文件的2倍时触发
auto-aof-rewrite-min-size设置重写的基准值最小文件64MB。达到这个值开始重写。
例如文件达到70MB开始重写降到50MB下次什么时候开始重写100MB
系统载入时或者上次重写完毕时Redis会记录此时AOF大小设为base_size,
如果Redis的AOF当前大小 base_size base_size*100% (默认)且当前大小64mb(默认)的情况下Redis会对AOF进行重写。
3、重写流程
1bgrewriteaof触发重写判断是否当前有bgsave或bgrewriteaof在运行如果有则等待该命令结束后再继续执行。
2主进程fork出子进程执行重写操作保证主进程不会阻塞。
3子进程遍历redis内存中数据到临时文件客户端的写请求同时写入aof_buf缓冲区和aof_rewrite_buf重写缓冲区保证原AOF文件完整以及新AOF文件生成期间的新的数据修改动作不会丢失。
41).子进程写完新的AOF文件后向主进程发信号父进程更新统计信息。2).主进程把aof_rewrite_buf中的数据写入到新的AOF文件。
5使用新的AOF文件覆盖旧的AOF文件完成AOF重写。 正在上传…重新上传取消 优势 正在上传…重新上传取消
备份机制更稳健丢失数据概率更低。可读的日志文本通过操作AOF稳健可以处理误操作。 劣势比起RDB占用更多的磁盘空间。恢复备份速度要慢。每次读写都同步的话有一定的性能压力。存在个别Bug造成恢复不能。 小总结 正在上传…重新上传取消 总结(Which one) 用哪个好
官方推荐两个都启用。
如果对数据不敏感可以选单独用RDB。
不建议单独用 AOF因为可能会出现Bug。
如果只是做纯内存缓存可以都不用。 官网建议 正在上传…重新上传取消
RDB持久化方式能够在指定的时间间隔能对你的数据进行快照存储AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾.Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大只做缓存如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式.同时开启两种持久化方式在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据, 因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整.RDB的数据不实时同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢建议不要因为RDB更适合用于备份数据库(AOF在不断变化不好备份) 快速重启而且不会有AOF可能潜在的bug留着作为一个万一的手段。性能建议 因为RDB文件只用作后备用途建议只在Slave上持久化RDB文件而且只要15分钟备份一次就够了只保留save 900 1这条规则。 如果使用AOF好处是在最恶劣情况下也只会丢失不超过两秒数据启动脚本较简单只load自己的AOF文件就可以了。 代价,一是带来了持续的IO二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。 只要硬盘许可应该尽量减少AOF rewrite的频率AOF重写的基础大小默认值64M太小了可以设到5G以上。 默认超过原大小100%大小时重写可以改到适当的数值。 Redis_主从复制 是什么
主机数据更新后根据配置和策略 自动同步到备机的master/slaver机制Master以写为主Slave以读为主 能干嘛读写分离性能扩展容灾快速恢复 正在上传…重新上传取消 怎么玩主从复制
拷贝多个redis.conf文件include(写绝对路径)
开启daemonize yes
Pid文件名字pidfile
指定端口port
Log文件名字
dump.rdb名字dbfilename
Appendonly 关掉或者换名字 新建redis6379.conf填写以下内容
include /myredis/redis.conf
pidfile /var/run/redis_6379.pid
port 6379
dbfilename dump6379.rdb 正在上传…重新上传取消 新建redis6380.conf填写以下内容 正在上传…重新上传取消 新建redis6381.conf填写以下内容 正在上传…重新上传取消
slave-priority 10
设置从机的优先级值越小优先级越高用于选举主机时使用。默认100 启动三台redis服务器 正在上传…重新上传取消 查看系统进程看看三台服务器是否启动 正在上传…重新上传取消 查看三台主机运行情况
info replication
打印主从复制的相关信息 正在上传…重新上传取消 配从(库)不配主(库)
slaveof ipport
成为某个实例的从服务器
1、在6380和6381上执行: slaveof 127.0.0.1 6379 正在上传…重新上传取消
2、在主机上写在从机上可以读取数据
在从机上写数据报错 正在上传…重新上传取消
3、主机挂掉重启就行一切如初
4、从机重启需重设slaveof 127.0.0.1 6379
可以将配置增加到文件中。永久生效。 正在上传…重新上传取消 常用3招 一主二仆
切入点问题slave1、slave2是从头开始复制还是从切入点开始复制?比如从k4进来那之前的k1,k2,k3是否也可以复制
从机是否可以写set可否
主机shutdown后情况如何从机是上位还是原地待命
主机又回来了后主机新增记录从机还能否顺利复制
其中一台从机down后情况如何依照原有它能跟上大部队吗 正在上传…重新上传取消 薪火相传
上一个Slave可以是下一个slave的MasterSlave同样可以接收其他 slaves的连接和同步请求那么该slave作为了链条中下一个的master, 可以有效减轻master的写压力,去中心化降低风险。
用 slaveof ipport
中途变更转向:会清除之前的数据重新建立拷贝最新的
风险是一旦某个slave宕机后面的slave都没法备份
主机挂了从机还是从机无法写数据了 正在上传…重新上传取消 正在上传…重新上传取消 反客为主
当一个master宕机后后面的slave可以立刻升为master其后面的slave不用做任何修改。
用 slaveof no one 将从机变为主机。 正在上传…重新上传取消 复制原理Slave启动成功连接到master后会发送一个sync命令Master接到命令启动后台的存盘进程同时收集所有接收到的用于修改数据集命令 在后台进程执行完毕之后master将传送整个数据文件到slave,以完成一次完全同步全量复制而slave服务在接收到数据库文件数据后将其存盘并加载到内存中。增量复制Master继续将新的所有收集到的修改命令依次传给slave,完成同步但是只要是重新连接master,一次完全同步全量复制)将被自动执行 正在上传…重新上传取消 哨兵模式(sentinel) 是什么
反客为主的自动版能够后台监控主机是否故障如果故障了根据投票数自动将从库转换为主库 正在上传…重新上传取消 怎么玩(使用步骤) 调整为一主二仆模式6379带着6380、6381 正在上传…重新上传取消 自定义的/myredis目录下新建sentinel.conf文件名字绝不能错配置哨兵,填写内容
sentinel monitor mymaster 127.0.0.1 6379 1
其中mymaster为监控对象起的服务器名称 1 为至少有多少个哨兵同意迁移的数量。 启动哨兵
/usr/local/bin
redis做压测可以用自带的redis-benchmark工具
执行redis-sentinel /myredis/sentinel.conf 正在上传…重新上传取消 当主机挂掉从机选举中产生新的主机
(大概10秒左右可以看到哨兵窗口日志切换了新的主机)
哪个从机会被选举为主机呢根据优先级别slave-priority
原主机重启后会变为从机。 正在上传…重新上传取消 复制延时
由于所有的写操作都是先在Master上操作然后同步更新到Slave上所以从Master同步到Slave机器有一定的延迟当系统很繁忙的时候延迟问题会更加严重Slave机器数量的增加也会使这个问题更加严重。 故障恢复 正在上传…重新上传取消
优先级在redis.conf中默认slave-priority 100值越小优先级越高
偏移量是指获得原主机数据最全的
每个redis实例启动后都会随机生成一个40位的runid 主从复制 private static JedisSentinelPool jedisSentinelPoolnull;public static Jedis getJedisFromSentinel(){if(jedisSentinelPoolnull){ SetString sentinelSetnew HashSet(); sentinelSet.add(192.168.11.103:26379); JedisPoolConfig jedisPoolConfig new JedisPoolConfig(); jedisPoolConfig.setMaxTotal(10); //最大可用连接数jedisPoolConfig.setMaxIdle(5); //最大闲置连接数jedisPoolConfig.setMinIdle(5); //最小闲置连接数jedisPoolConfig.setBlockWhenExhausted(true); //连接耗尽是否等待jedisPoolConfig.setMaxWaitMillis(2000); //等待时间jedisPoolConfig.setTestOnBorrow(true); //取连接的时候进行一下测试 ping pongjedisSentinelPoolnew JedisSentinelPool(mymaster,sentinelSet,jedisPoolConfig);return jedisSentinelPool.getResource(); }else{return jedisSentinelPool.getResource(); } } Redis集群 问题
容量不够redis如何进行扩容
并发写操作 redis如何分摊
另外主从模式薪火相传模式主机宕机导致ip地址发生变化应用程序中配置需要修改对应的主机地址、端口等信息。
之前通过代理主机来解决但是redis3.0中提供了解决方案。就是无中心化集群配置。 什么是集群
Redis 集群实现了对Redis的水平扩容即启动N个redis节点将整个数据库分布存储在这N个节点中每个节点存储总数据的1/N。
Redis 集群通过分区partition来提供一定程度的可用性availability 即使集群中有一部分节点失效或者无法进行通讯 集群也可以继续处理命令请求。 删除持久化数据
将rdb,aof文件都删除掉。 制作6个实例6379,6380,6381,6389,6390,6391 配置基本信息
开启daemonize yes
Pid文件名字
指定端口
Log文件名字
Dump.rdb名字
Appendonly 关掉或者换名字 redis cluster配置修改
cluster-enabled yes 打开集群模式
cluster-config-file nodes-6379.conf 设定节点配置文件名
cluster-node-timeout 15000 设定节点失联时间超过该时间毫秒集群自动进行主从切换。 include /home/bigdata/redis.conf port 6379 pidfile /var/run/redis_6379.pid dbfilename dump6379.rdb dir /home/bigdata/redis_cluster logfile /home/bigdata/redis_cluster/redis_err_6379.log cluster-enabled yes cluster-config-file nodes-6379.conf cluster-node-timeout 15000 修改好redis6379.conf文件拷贝多个redis.conf文件 正在上传…重新上传取消 使用查找替换修改另外5个文件
例如:%s/6379/6380 启动6个redis服务 正在上传…重新上传取消 将六个节点合成一个集群
组合之前请确保所有redis实例启动后nodes-xxxx.conf文件都生成正常。 正在上传…重新上传取消
合体
cd /opt/redis-6.2.1/src redis-cli --cluster create --cluster-replicas 1 192.168.11.101:6379 192.168.11.101:6380 192.168.11.101:6381 192.168.11.101:6389 192.168.11.101:6390 192.168.11.101:6391 此处不要用127.0.0.1 请用真实IP地址
--replicas 1 采用最简单的方式配置集群一台主机一台从机正好三组。 正在上传…重新上传取消 正在上传…重新上传取消
普通方式登录
可能直接进入读主机存储数据时会出现MOVED重定向操作。所以应该以集群方式登录。 正在上传…重新上传取消 -c 采用集群策略连接设置数据会自动切换到相应的写主机 正在上传…重新上传取消 通过 cluster nodes 命令查看集群信息 正在上传…重新上传取消 redis cluster 如何分配这六个节点?
一个集群至少要有三个主节点。
选项 --cluster-replicas 1 表示我们希望为集群中的每个主节点创建一个从节点。
分配原则尽量保证每个主数据库运行在不同的IP地址每个从库和主库不在一个IP地址上。 什么是slots
[OK] All nodes agree about slots configuration. Check for open slots... Check slots coverage...
[OK] All 16384 slots covered.
一个 Redis 集群包含 16384 个插槽hash slot 数据库中的每个键都属于这 16384 个插槽的其中一个
集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 。
集群中的每个节点负责处理一部分插槽。 举个例子 如果一个集群可以有主节点 其中
节点 A 负责处理 0 号至 5460 号插槽。
节点 B 负责处理 5461 号至 10922 号插槽。
节点 C 负责处理 10923 号至 16383 号插槽。 在集群中录入值
在redis-cli每次录入、查询键值redis都会计算出该key应该送往的插槽如果不是该客户端对应服务器的插槽redis会报错并告知应前往的redis实例地址和端口。
redis-cli客户端提供了 –c 参数实现自动重定向。
如 redis-cli -c –p 6379 登入后再录入、查询键值对可以自动重定向。
不在一个slot下的键值是不能使用mget,mset等多键操作。 正在上传…重新上传取消
可以通过{}来定义组的概念从而使key中{}内相同内容的键值对放到一个slot中去。 正在上传…重新上传取消 查询集群中的值
CLUSTER GETKEYSINSLOT slotcount 返回 count 个 slot 槽中的键。 正在上传…重新上传取消 故障恢复
如果主节点下线从节点能否自动升为主节点注意15秒超时 正在上传…重新上传取消
主节点恢复后主从关系会如何主节点回来变成从机。 正在上传…重新上传取消
如果所有某一段插槽的主从节点都宕掉redis服务是否还能继续?
如果某一段插槽的主从都挂掉而cluster-require-full-coverage 为yes 那么 整个集群都挂掉
如果某一段插槽的主从都挂掉而cluster-require-full-coverage 为no 那么该插槽数据全都不能使用也无法存储。
redis.conf中的参数 cluster-require-full-coverage 集群的Jedis开发
即使连接的不是主机集群会自动切换主机存储。主机写从机读。
无中心化主从集群。无论从哪台主机写的数据其他主机上都能读到数据。 public class JedisClusterTest { public static void main(String[] args) { SetHostAndPortset new HashSetHostAndPort(); set.add(new HostAndPort(192.168.31.211,6379)); JedisCluster jedisClusternew JedisCluster(set); jedisCluster.set(k1, v1); System.out.println(jedisCluster.get(k1)); } } Redis 集群提供了以下好处
实现扩容
分摊压力
无中心配置相对简单 Redis 集群的不足
多键操作是不被支持的
多键的Redis事务是不被支持的。lua脚本不被支持
由于集群方案出现较晚很多公司已经采用了其他的集群方案而代理或者客户端分片的方案想要迁移至redis cluster需要整体迁移而不是逐步过渡复杂度较大。 Redis应用问题解决 缓存穿透 问题描述
key对应的数据在数据源并不存在每次针对此key的请求从缓存获取不到请求都会压到数据源从而可能压垮数据源。比如用一个不存在的用户id获取用户信息不论缓存还是数据库都没有若黑客利用此漏洞进行攻击可能压垮数据库。 正在上传…重新上传取消 解决方案
一个一定不存在缓存及查询不到的数据由于缓存是不命中时被动写的并且出于容错考虑如果从存储层查不到数据则不写入缓存这将导致这个不存在的数据每次请求都要到存储层去查询失去了缓存的意义。
解决方案
对空值缓存如果一个查询返回的数据为空不管是数据是否不存在我们仍然把这个空结果null进行缓存设置空结果的过期时间会很短最长不超过五分钟设置可访问的名单白名单
使用bitmaps类型定义一个可以访问的名单名单id作为bitmaps的偏移量每次访问和bitmap里面的id进行比较如果访问id不在bitmaps里面进行拦截不允许访问。
采用布隆过滤器(布隆过滤器Bloom Filter是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数哈希函数。
布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法缺点是有一定的误识别率和删除困难。)
将所有可能存在的数据哈希到一个足够大的bitmaps中一个一定不存在的数据会被 这个bitmaps拦截掉从而避免了对底层存储系统的查询压力。
进行实时监控当发现Redis的命中率开始急速降低需要排查访问对象和访问的数据和运维人员配合可以设置黑名单限制服务 缓存击穿 问题描述
key对应的数据存在但在redis中过期此时若有大量并发请求过来这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存这个时候大并发的请求可能会瞬间把后端DB压垮。 正在上传…重新上传取消 解决方案
key可能会在某些时间点被超高并发地访问是一种非常“热点”的数据。这个时候需要考虑一个问题缓存被“击穿”的问题。
解决问题
1预先设置热门数据在redis高峰访问之前把一些热门数据提前存入到redis里面加大这些热门数据key的时长
2实时调整现场监控哪些数据热门实时调整key的过期时长
3使用锁
就是在缓存失效的时候判断拿出来的值为空不是立即去load db。先使用缓存工具的某些带成功操作返回值的操作比如Redis的SETNX去set一个mutex key当操作返回成功时再进行load db的操作并回设缓存,最后删除mutex key当操作返回失败证明有线程在load db当前线程睡眠一段时间再重试整个get缓存的方法。 正在上传…重新上传取消 缓存雪崩 问题描述
key对应的数据存在但在redis中过期此时若有大量并发请求过来这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存这个时候大并发的请求可能会瞬间把后端DB压垮。
缓存雪崩与缓存击穿的区别在于这里针对很多key缓存前者则是某一个key 正常访问 正在上传…重新上传取消
缓存失效瞬间 正在上传…重新上传取消 解决方案
缓存失效时的雪崩效应对底层系统的冲击非常可怕
解决方案
构建多级缓存架构nginx缓存 redis缓存 其他缓存ehcache等使用锁或队列
用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况
设置过期标志更新缓存
记录缓存数据是否过期设置提前量如果过期会触发通知另外的线程在后台去更新实际key的缓存。
将缓存失效时间分散开
比如我们可以在原有的失效时间基础上增加一个随机值比如1-5分钟随机这样每一个缓存的过期时间的重复率就会降低就很难引发集体失效的事件。 分布式锁 问题描述
随着业务发展的需要原单体单机部署的系统被演化成分布式集群系统后由于分布式系统多线程、多进程并且分布在不同机器上这将使原单机部署情况下的并发控制锁策略失效单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问这就是分布式锁要解决的问题
分布式锁主流的实现方案
1. 基于数据库实现分布式锁
2. 基于缓存Redis等
3. 基于Zookeeper
每一种分布式锁解决方案都有各自的优缺点
1. 性能redis最高
2. 可靠性zookeeper最高
这里我们就基于redis实现分布式锁。 解决方案使用redis实现分布式锁
redis:命令
# set sku:1:info “OK” NX PX 10000
EX second 设置键的过期时间为 second 秒。 SET key value EX second 效果等同于 SETEX key second value 。
PX millisecond 设置键的过期时间为 millisecond 毫秒。 SET key value PX millisecond 效果等同于 PSETEX key millisecond value 。
NX 只在键不存在时才对键进行设置操作。 SET key value NX 效果等同于 SETNX key value 。
XX 只在键已经存在时才对键进行设置操作。 正在上传…重新上传取消
1. 多个客户端同时获取锁setnx
2. 获取成功执行业务逻辑{从db获取数据放入缓存}执行完成释放锁del
3. 其他客户端等待重试 编写代码
Redis: set num 0 GetMapping(testLock)public void testLock(){ //1获取锁setne Boolean lock redisTemplate.opsForValue().setIfAbsent(lock, 111); //2获取锁成功、查询num的值 if(lock){ Object value redisTemplate.opsForValue().get(num); //2.1判断num为空return if(StringUtils.isEmpty(value)){ return; } //2.2有值就转成成int int num Integer.parseInt(value); //2.3把redis的num加1 redisTemplate.opsForValue().set(num, num); //2.4释放锁del redisTemplate.delete(lock); }else{ //3获取锁失败、每隔0.1秒再获取 try { Thread.sleep(100); testLock(); } catch (InterruptedException e) { e.printStackTrace(); } } } 重启服务集群通过网关压力测试
ab -n 1000 -c 100 http://192.168.140.1:8080/test/testLock 正在上传…重新上传取消
查看redis中num的值 正在上传…重新上传取消
基本实现。
问题setnx刚好获取到锁业务逻辑出现异常导致锁无法释放
解决设置过期时间自动释放锁。 优化之设置锁的过期时间
设置过期时间有两种方式 1. 首先想到通过expire设置过期时间缺乏原子性如果在setnx和expire之间出现异常锁也无法释放
2. 在set时指定过期时间推荐 正在上传…重新上传取消
设置过期时间 正在上传…重新上传取消
压力测试肯定也没有问题。自行测试
问题可能会释放其他服务器的锁。 场景如果业务逻辑的执行时间是7s。执行流程如下
index1业务逻辑没执行完3秒后锁被自动释放。
index2获取到锁执行业务逻辑3秒后锁被自动释放。index3获取到锁执行业务逻辑index1业务逻辑执行完成开始调用del释放锁这时释放的是index3的锁导致index3的业务只执行1s就被别人释放。
最终等于没锁的情况。 解决setnx获取锁时设置一个指定的唯一值例如uuid释放前获取这个值判断是否自己的锁 优化之UUID防误删 正在上传…重新上传取消 正在上传…重新上传取消 问题删除操作缺乏原子性。
场景
index1执行删除时查询到的lock值确实和uuid相等
uuidv1
set(lock,uuid) 正在上传…重新上传取消
index1执行删除前lock刚好过期时间已到被redis自动释放
在redis中没有了lock没有了锁。 正在上传…重新上传取消
index2获取了lock
index2线程获取到了cpu的资源开始执行方法
uuidv2
set(lock,uuid)
index1执行删除此时会把index2的lock删除
index1 因为已经在方法中了所以不需要重新上锁。index1有执行的权限。index1已经比较完成了这个时候开始执行 正在上传…重新上传取消
删除的index2的锁 优化之LUA脚本保证删除的原子性 GetMapping(testLockLua)public void testLockLua() { //1 声明一个uuid ,将做为一个value 放入我们的key所对应的值中 String uuid UUID.randomUUID().toString(); //2 定义一个锁lua 脚本可以使用同一把锁来实现删除 String skuId 25; // 访问skuId 为25号的商品 100008348542 String locKey lock: skuId; // 锁住的是每个商品的数据 // 3 获取锁 Boolean lock redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit.SECONDS); // 第一种 lock 与过期时间中间不写任何的代码。 // redisTemplate.expire(lock,10, TimeUnit.SECONDS);//设置过期时间 // 如果true if (lock) { // 执行的业务逻辑开始 // 获取缓存中的num 数据 Object value redisTemplate.opsForValue().get(num); // 如果是空直接返回 if (StringUtils.isEmpty(value)) { return; } // 不是空 如果说在这出现了异常 那么delete 就删除失败 也就是说锁永远存在 int num Integer.parseInt(value ); // 使num 每次1 放入缓存 redisTemplate.opsForValue().set(num, String.valueOf(num)); /*使用lua脚本来锁*/ // 定义lua 脚本 String script if redis.call(get, KEYS[1]) ARGV[1] then return redis.call(del, KEYS[1]) else return 0 end; // 使用redis执行lua执行 DefaultRedisScriptLong redisScript new DefaultRedisScript(); redisScript.setScriptText(script); // 设置一下返回值类型 为Long // 因为删除判断的时候返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型 // 那么返回字符串与0 会有发生错误。 redisScript.setResultType(Long.class); // 第一个要是script 脚本 第二个需要判断的key第三个就是key所对应的值。 redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid); } else { // 其他线程等待 try { // 睡眠 Thread.sleep(1000); // 睡醒了之后调用方法。 testLockLua(); } catch (InterruptedException e) { e.printStackTrace(); } } } Lua 脚本详解 正在上传…重新上传取消
项目中正确使用 定义keykey应该是为每个sku定义的也就是每个sku有一把锁。String locKey lock:skuId; // 锁住的是每个商品的数据 Boolean lock redisTemplate.opsForValue().setIfAbsent(locKey, uuid,3,TimeUnit.SECONDS); 正在上传…重新上传取消 总结
1、加锁 // 1. 从redis中获取锁,set k1 v1 px 20000 nx
String uuid UUID.randomUUID().toString();Boolean lock this.redisTemplate.opsForValue().setIfAbsent(lock, uuid, 2, TimeUnit.SECONDS); 使用lua释放锁 // 2. 释放锁 delString script if redis.call(get, KEYS[1]) ARGV[1] then return redis.call(del, KEYS[1]) else return 0 end;// 设置lua脚本返回的数据类型DefaultRedisScriptLong redisScript new DefaultRedisScript();// 设置lua脚本返回类型为LongredisScript.setResultType(Long.class);redisScript.setScriptText(script);redisTemplate.execute(redisScript, Arrays.asList(lock),uuid); 重试 Thread.sleep(500);testLock(); 为了确保分布式锁可用我们至少要确保锁的实现同时满足以下四个条件
- 互斥性。在任意时刻只有一个客户端能持有锁。
- 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁也能保证后续其他客户端能加锁。
- 解铃还须系铃人。加锁和解锁必须是同一个客户端客户端自己不能把别人加的锁给解了。
- 加锁和解锁必须具有原子性。 Redis6.0新功能 ACL 简介
Redis ACL是Access Control List访问控制列表的缩写该功能允许根据可以执行的命令和可以访问的键来限制某些连接。
在Redis 5版本之前Redis 安全规则只有密码控制 还有通过rename 来调整高危命令比如 flushdb KEYS* shutdown 等。Redis 6 则提供ACL的功能对用户进行更细粒度的权限控制
1接入权限:用户名和密码
2可以执行的命令
3可以操作的 KEY
参考官网https://redis.io/topics/acl 命令
1、使用acl list命令展现用户权限列表
1数据说明 正在上传…重新上传取消
2、使用acl cat命令
1查看添加权限指令类别 正在上传…重新上传取消
2加参数类型名可以查看类型下具体命令 正在上传…重新上传取消 3、使用acl whoami命令查看当前用户 正在上传…重新上传取消 4、使用aclsetuser命令创建和编辑用户ACL
1ACL规则
下面是有效ACL规则的列表。某些规则只是用于激活或删除标志或对用户ACL执行给定更改的单个单词。其他规则是字符前缀它们与命令或类别名称、键模式等连接在一起。 ACL规则 类型 参数 说明 启动和禁用用户 on 激活某用户账号 off 禁用某用户账号。注意已验证的连接仍然可以工作。如果默认用户被标记为off则新连接将在未进行身份验证的情况下启动并要求用户使用AUTH选项发送AUTH或HELLO以便以某种方式进行身份验证。 权限的添加删除 command 将指令添加到用户可以调用的指令列表中 -command 从用户可执行指令列表移除指令 category 添加该类别中用户要调用的所有指令有效类别为admin、set、sortedset…等通过调用ACL CAT命令查看完整列表。特殊类别all表示所有命令包括当前存在于服务器中的命令以及将来将通过模块加载的命令。 -actegory 从用户可调用指令中移除类别 allcommands all的别名 nocommand -all的别名 可操作键的添加或删除 ~pattern 添加可作为用户可操作的键的模式。例如~*允许所有的键 2通过命令创建新用户默认权限
acl setuser user1 正在上传…重新上传取消
在上面的示例中我根本没有指定任何规则。如果用户不存在这将使用just created的默认属性来创建用户。如果用户已经存在则上面的命令将不执行任何操作。 3设置有用户名、密码、ACL权限、并启用的用户
acl setuser user2 on password ~cached:* get 正在上传…重新上传取消 (4)切换用户验证权限 正在上传…重新上传取消 IO多线程 简介
Redis6终于支撑多线程了告别单线程了吗
IO多线程其实指客户端交互部分的网络IO交互处理模块多线程而非执行命令多线程。Redis6执行命令依然是单线程。 原理架构
Redis 6 加入多线程,但跟 Memcached 这种从 IO处理到数据访问多线程的实现模式有些差异。Redis 的多线程部分只是用来处理网络数据的读写和协议解析执行命令仍然是单线程。之所以这么设计是不想因为多线程而变得复杂需要去控制 key、lua、事务LPUSH/LPOP 等等的并发问题。整体的设计大体如下: 正在上传…重新上传取消 另外多线程IO默认也是不开启的需要再配置文件中配置
io-threads-do-reads yes
io-threads 4 工具支持 Cluster
之前老版Redis想要搭集群需要单独安装ruby环境Redis 5 将 redis-trib.rb 的功能集成到 redis-cli 。另外官方 redis-benchmark 工具开始支持 cluster 模式了通过多线程的方式对多个分片进行压测。 正在上传…重新上传取消 Redis新功能持续关注
Redis6新功能还有
1、RESP3新的 Redis 通信协议优化服务端与客户端之间通信
2、Client side caching客户端缓存基于 RESP3 协议实现的客户端缓存功能。为了进一步提升缓存的性能将客户端经常访问的数据cache到客户端。减少TCP网络交互。
3、Proxy集群代理模式Proxy 功能让 Cluster 拥有像单实例一样的接入方式降低大家使用cluster的门槛。不过需要注意的是代理不改变 Cluster 的功能限制不支持的命令还是不会支持比如跨 slot 的多Key操作。
4、Modules API
Redis 6中模块API开发进展非常大因为Redis Labs为了开发复杂的功能从一开始就用上Redis模块。Redis可以变成一个框架利用Modules来构建不同系统而不需要从头开始写然后还要BSD许可。Redis一开始就是一个向编写各种系统开放的平台。