管理一个网站的后台怎么做,可口可乐vi设计手册,微信网站开发报价表,wordpress博客分类1. Redis缓存相关问题
1.1 缓存穿透
缓存穿透是指查询一个数据库一定不存在的数据。
我们以前正常的使用Redis缓存的流程大致是#xff1a;
1、数据查询首先进行缓存查询
2、如果数据存在则直接返回缓存数据
3、如果数据不存在#xff0c;就对数据库进行查询#xff0…1. Redis缓存相关问题
1.1 缓存穿透
缓存穿透是指查询一个数据库一定不存在的数据。
我们以前正常的使用Redis缓存的流程大致是
1、数据查询首先进行缓存查询
2、如果数据存在则直接返回缓存数据
3、如果数据不存在就对数据库进行查询并把查询到的数据放进缓存
4、如果数据库查询数据为空则不放进缓存
例如我们的数据表中主键是自增产生的所有的主键值都大于0。此时如果用户传入的参数为-1会是怎么样这个-1就是一定不存在的对象。程序就会每次都去查询数据库而每次查询都是空每次又都不会进行缓存。假如有人恶意攻击就可以利用这个漏洞对数据库造成压力甚至压垮我们的数据库。
为了防止有人利用这个漏洞恶意攻击我们的数据库我们可以采取如下措施
如果从数据库查询的对象为空也放入缓存key为用户提交过来的主键值value为null只是设定的缓存过期时间较短比如设置为60秒。这样下次用户再根据这个key查询redis缓存就可以查询到值了当然值为null从而保护我们的数据库免遭攻击。
1.2 缓存雪崩
缓存雪崩是指在某一个时间段缓存集中过期失效。在缓存集中失效的这个时间段对数据的访问查询都落到了数据库上对于数据库而言就会产生周期性的压力波峰。
为了避免缓存雪崩的发生我们可以将缓存的数据设置不同的失效时间这样就可以避免缓存数据在某个时间段集中失效。例如对于热门的数据访问频率高的数据可以缓存的时间长一些对于冷门的数据可以缓存的时间段一些。甚至对于一些特别热门的数据可以设置永不过期。
1.3 缓存击穿
缓存击穿是指一个key非常热点例如双十一期间进行抢购的商品数据在不停的扛着大并发大并发集中对这一个点进行访问当这个key在失效的瞬间持续的大并发就穿破缓存直接请求到数据库上就像在一个屏障上凿开了一个洞。
我们同样可以将这些热点数据设置永不过期就可以解决缓存击穿的问题了。
2. Redis集群方案
单机Redis的读写速度非常快能够支持大量用户的访问。虽然Redis的性能很高但是对于大型网站来说每秒需要获取的数据远远超过单台redis服务所能承受的压力所以我们迫切需要一种方案能够解决单台Redis服务性能不足的问题。这就需要使用到Redis的集群了。Redis集群有多种方案下面分别进行讲解。
2.1 主从复制Replication
redis支持主从复制的模式。
在主从复制模式下Redis节点分为两种角色主节点(也称为master)和从节点(也称为slave)。这种模式集群是由一个主节点和多个从节点构成。
原则Master会将数据同步到slave而slave不会将数据同步到master。Slave启动时会连接master来同步数据。 这是一个典型的分布式读写分离模型。我们可以利用master来处理写操作slave提供读操作。这样可以有效减少单个机器的并发访问数量。
要实现主从复制这种模式非常简单主节点不用做任何修改直接启动服务即可。从节点需要修改redis.conf配置文件加入配置slaveof 主节点ip地址 主节点端口号例如master的ip地址为192.168.200.129端口号为6379那么slave只需要在redis.conf文件中配置slaveof 192.168.200.129 6379即可。
分别连接主节点和从节点测试发现主节点的写操作从节点立刻就能看到相同的数据。但是在从节点进行写操作提示 READONLY You cant write against a read only slave 不能写数据到从节点。
现在我们就可以通过这种方式配置多个从节点进行读操作主节点进行写操作实现读写分离。
2.2 哨兵sentinel
我们现在已经给Redis实现了主从复制可将主节点数据同步给从节点实现了读写分离提高Redis的性能。但是现在还存在一个问题就是在主从复制这种模式下只有一个主节点一旦主节点宕机就无法再进行写操作了。也就是说主从复制这种模式没有实现高可用。那么什么是高可用呢如何实现高可用呢
2.2.1 高可用介绍
高可用(HA)是分布式系统架构设计中必须考虑的因素之一它是通过架构设计减少系统不能提供服务的时间。保证高可用通常遵循下面几点
单点是系统高可用的大敌应该尽量在系统设计的过程中避免单点。通过架构设计而保证系统高可用的其核心准则是冗余。实现自动故障转移。
2.2.2 Redis sentinel介绍
sentinel(哨兵)是用于监控redis集群中Master状态的工具其本身也是一个独立运行的进程是Redis 的高可用解决方案sentinel哨兵模式已经被集成在redis2.4之后的版本中。
sentinel可以监视一个或者多个redis master服务以及这些master服务的所有从服务当某个master服务下线时自动将该master下的某个从服务升级为master服务替代已下线的master服务继续处理请求并且其余从节点开始从新的主节点复制数据。
在redis安装完成后会有一个redis-sentinel的文件这就是启动sentinel的脚本文件同时还有一个sentinel.conf文件这个是sentinel的配置文件。
sentinel工作模式 注意可能有些同学会有疑问现在我们已经基于sentinel实现了高可用但是如果sentinel挂了怎么办呢其实sentinel本身也可以实现集群也就是说sentinel也是高可用的。
2.2.3 Redis sentinel使用
2.2.3.1 配置sentinel
Sentinel在redis的安装包中有我们直接使用就可以了但是先需要修改配置文件执行命令
cd /usr/local/redis/# 复制sentinel配置文件
cp /root/redis-4.0.14/sentinel.conf sentinel01.conf# 修改配置文件
vi sentinel01.conf在sentinel01.conf配置文件中添加
# 外部可以访问
bind 0.0.0.0
sentinel monitor mymaster 127.0.0.1 6379 1
sentinel down-after-milliseconds mymaster 10000
sentinel failover-timeout mymaster 60000
sentinel parallel-syncs mymaster 1
注意如果有sentinel monitor mymaster 127.0.0.1 6379 2配置则注释掉。
参数说明 sentinel monitor mymaster 192.168.200.129 6379 1 mymaster 主节点名,可以任意起名但必须和后面的配置保持一致。 192.168.200.128 6379 主节点连接地址。 1 将主服务器判断为失效需要投票这里设置至少需要 1个 Sentinel 同意。 sentinel down-after-milliseconds mymaster 10000 设置Sentinel认为服务器已经断线所需的毫秒数。 sentinel failover-timeout mymaster 60000 设置failover故障转移的过期时间。当failover开始后在此时间内仍然没有触发任何failover操作当前 sentinel 会认为此次failover失败。 sentinel parallel-syncs mymaster 1 设置在执行故障转移时 最多可以有多少个从服务器同时对新的主服务器进行同步 这个数字越小表示同时进行同步的从服务器越少那么完成故障转移所需的时间就越长。
2.2.3.2 启动sentinel
配置文件修改后执行以下命令启动sentinel
/root/redis-4.0.14/src/redis-sentinel sentinel01.conf效果如下 可以看到6379是主服务6380和6381是从服务。
2.2.3.3 测试sentinel
我们在6379执行shutdown关闭主服务Sentinel提示如下
sdown master mymaster 192.168.200.129 6379 #主节点宕机
odown master mymaster 192.168.200.129 6379 #quorum 1/1
new-epoch 1
try-failover master mymaster 192.168.200.129 6379 #尝试故障转移
vote-for-leader 00a6933e0cfa2b1bf0c3aab0d6b7a1a6455832ec 1 #选举领导
elected-leader master mymaster 192.168.200.129 6379
failover-state-select-slave master mymaster 192.168.200.129 6379 #故障转移选择从服务
selected-slave slave 192.168.200.129:6380 192.168.200.129 6380 mymaster 192.168.200.129 6379
#故障转移状态发送 发送到6380
failover-state-send-slaveof-noone slave 192.168.200.129:6380 192.168.200.129 6380 mymaster 192.168.200.129 6379
failover-state-wait-promotion slave 192.168.200.129:6380 192.168.200.129 6380 mymaster 192.168.200.129 6379
promoted-slave slave 192.168.200.129:6380 192.168.200.129 6380 mymaster 192.168.200.129 6379
failover-state-reconf-slaves master mymaster 192.168.200.129 6379
slave-reconf-sent slave 192.168.200.129:6381 192.168.200.129 6381 mymaster 192.168.200.129 6379
slave-reconf-inprog slave 192.168.200.129:6381 192.168.200.129 6381 mymaster 192.168.200.129 6379
slave-reconf-done slave 192.168.200.129:6381 192.168.200.129 6381 mymaster 192.168.200.129 6379
failover-end master mymaster 192.168.200.129 6379 #故障转移结束原来的主服务是6379
switch-master mymaster 192.168.200.129 6379 192.168.200.129 6380 #转换主服务由原来的6379转为现在的6380
slave slave 192.168.200.129:6381 192.168.200.129 6381 mymaster 192.168.200.129 6380
slave slave 192.168.200.129:6379 192.168.200.129 6379 mymaster 192.168.200.129 6380
sdown slave 192.168.200.129:6379 192.168.200.129 6379 mymaster 192.168.200.129 6380根据提示信息我们可以看到6379故障转移到了6380通过投票选择6380为新的主服务器。
在6380执行info
# Replication
role:master
connected_slaves:1
slave0:ip127.0.0.1,port6381,stateonline,offset80531,lag1在6381执行info
# Replication
role:slave
master_host:127.0.0.1
master_port:6380
master_link_status:up故障转移如下图
2.3 Redis内置集群cluster
2.3.1 Redis cluster介绍
Redis Cluster是Redis的内置集群在Redis3.0推出的实现方案。在Redis3.0之前是没有这个内置集群的。Redis Cluster是无中心节点的集群架构依靠Gossip协议协同自动化修复集群的状态。
Redis cluster在设计的时候就考虑到了去中心化去中间件也就是说集群中的每个节点都是平等的关系都是对等的每个节点都保存各自的数据和整个集群的状态。每个节点都和其他所有节点连接而且这些连接保持活跃这样就保证了我们只需要连接集群中的任意一个节点就可以获取到其他节点的数据。
Redis cluster集群架构图如下
2.3.2 哈希槽方式分配数据
需要注意的是这种集群模式下集群中每个节点保存的数据并不是所有的数据而只是一部分数据。那么数据是如何合理的分配到不同的节点上的呢
Redis 集群是采用一种叫做哈希槽 (hash slot)的方式来分配数据的。redis cluster 默认分配了 16384 个slot当我们set一个key 时会用CRC16算法来取模得到所属的slot然后将这个key 分到哈希槽区间的节点上具体算法就是CRC16(key) % 16384。
假设现在有3个节点已经组成了集群分别是A, B, C 三个节点它们可以是一台机器上的三个端口也可以是三台不同的服务器。那么采用哈希槽 (hash slot)的方式来分配16384个slot 的话它们三个节点分别承担的slot 区间是 节点A覆盖05460节点B覆盖546110922节点C覆盖1092316383 那么现在要设置一个key ,比如叫my_name:
set my_name itcast按照redis cluster的哈希槽算法CRC16(my_name)%16384 2412。 那么就会把这个key 的存储分配到 节点A 上了。
2.3.3 Redis cluster的主从模式
redis cluster 为了保证数据的高可用性加入了主从模式一个主节点对应一个或多个从节点主节点提供数据存取从节点则是从主节点拉取数据备份当这个主节点挂掉后就会在这些从节点中选取一个来充当主节点从而保证集群不会挂掉。
redis cluster加入了主从模式后的效果如下 2.3.4 Redis cluster搭建
2.3.4.1 准备Redis节点
为了保证可以进行投票需要至少3个主节点。
每个主节点都需要至少一个从节点,所以需要至少3个从节点。
一共需要6台redis服务器我们这里使用6个redis实例端口号为7001~7006。
先准备一个干净的redis环境复制原来的bin文件夹清理后作为第一个redis节点具体命令如下
# 进入redis安装目录
cd /usr/local/redis
# 复制redis
mkdir cluster
cp -R bin/ cluster/node1
# 删除持久化文件
cd cluster/node1
rm -rf dump.rdb
rm -rf appendonly.aof
# 删除原来的配置文件
rm -rf redis.conf
# 复制新的配置文件
cp /root/redis-4.0.14/redis.conf ./
# 修改配置文件
vi redis.conf集群环境redis节点的配置文件如下
# 不能设置密码否则集群启动时会连接不上
# Redis服务器可以跨网络访问
bind 0.0.0.0
# 修改端口号
port 7001
# Redis后台启动
daemonize yes
# 开启aof持久化
appendonly yes
# 开启集群
cluster-enabled yes
# 集群的配置 配置文件首次启动自动生成
cluster-config-file nodes.conf
# 请求超时
cluster-node-timeout 5000第一个redis节点node1准备好之后再分别复制5份
cp -R node1/ node2修改六个节点的端口号为7001~7006修改redis.conf配置文件即可
编写启动节点的脚本
vi start-all.sh内容为
cd node1
./redis-server redis.conf
cd ..
cd node2
./redis-server redis.conf
cd ..
cd node3
./redis-server redis.conf
cd ..
cd node4
./redis-server redis.conf
cd ..
cd node5
./redis-server redis.conf
cd ..
cd node6
./redis-server redis.conf
cd ..设置脚本的权限并启动
chmod 744 start-all.sh
./start-all.sh使用命令 ps -ef | grep redis 查看效果如下 2.3.4.2 启动Redis集群
redis集群的管理工具使用的是ruby脚本语言安装集群需要ruby环境先安装ruby环境
# 安装ruby
yum -y install ruby ruby-devel rubygems rpm-build# 升级ruby版本redis4.0.14集群环境需要2.2.2以上的ruby版本
yum install centos-release-scl-rh
yum install rh-ruby23 -y
scl enable rh-ruby23 bash# 查看ruby版本
ruby -v下载符合环境要求的gem下载地址如下
https://rubygems.org/gems/redis/versions/4.1.0
课程资料中已经提供了redis-4.1.0.gem直接上传安装即可安装命令
gem install redis-4.1.0.gem进入redis安装目录使用redis自带的集群管理脚本执行命令
# 进入redis安装包
cd /root/redis-4.0.14/src/
# 查看集群管理脚本
ll *.rb
# 使用集群管理脚本启动集群下面命令中的1表示为每个主节点创建1个从节点
./redis-trib.rb create --replicas 1 127.0.0.1:7001 127.0.0.1:7002 \
127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005 127.0.0.1:7006效果如下 Creating clusterPerforming hash slots allocation on 6 nodes...
Using 3 masters:
192.168.200.129:7001
192.168.200.129:7002
192.168.200.129:7003
Adding replica 192.168.200.129:7005 to 192.168.200.129:7001
Adding replica 192.168.200.129:7006 to 192.168.200.129:7002
Adding replica 192.168.200.129:7004 to 192.168.200.129:7003Trying to optimize slaves allocation for anti-affinity
[WARNING] Some slaves are in the same host as their master
M: f0094f14b59c023acd38098336e2adcd3d434497 192.168.200.129:7001slots:0-5460 (5461 slots) master
M: 0eba44418d7e88f4d819f89f90da2e6e0be9c680 192.168.200.129:7002slots:5461-10922 (5462 slots) master
M: ac16c5545d9b099348085ad8b3253145912ee985 192.168.200.129:7003slots:10923-16383 (5461 slots) master
S: edc7a799e1cfd75e4d80767958930d86516ffc9b 192.168.200.129:7004replicates ac16c5545d9b099348085ad8b3253145912ee985
S: cbd415973b3e85d6f3ad967441f6bcb5b7da506a 192.168.200.129:7005replicates f0094f14b59c023acd38098336e2adcd3d434497
S: 40fdde45b16e1ac85c8a4c84db75b43978d1e4d2 192.168.200.129:7006replicates 0eba44418d7e88f4d819f89f90da2e6e0be9c680
Can I set the above configuration? (type yes to accept): yes #注意选择为yesNodes configuration updatedAssign a different config epoch to each nodeSending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join..Performing Cluster Check (using node 192.168.200.129:7001)
M: f0094f14b59c023acd38098336e2adcd3d434497 192.168.200.129:7001slots:0-5460 (5461 slots) master1 additional replica(s)
M: ac16c5545d9b099348085ad8b3253145912ee985 192.168.200.129:7003slots:10923-16383 (5461 slots) master1 additional replica(s)
S: cbd415973b3e85d6f3ad967441f6bcb5b7da506a 192.168.200.129:7005slots: (0 slots) slavereplicates f0094f14b59c023acd38098336e2adcd3d434497
S: 40fdde45b16e1ac85c8a4c84db75b43978d1e4d2 192.168.200.129:7006slots: (0 slots) slavereplicates 0eba44418d7e88f4d819f89f90da2e6e0be9c680
M: 0eba44418d7e88f4d819f89f90da2e6e0be9c680 192.168.200.129:7002slots:5461-10922 (5462 slots) master1 additional replica(s)
S: edc7a799e1cfd75e4d80767958930d86516ffc9b 192.168.200.129:7004slots: (0 slots) slavereplicates ac16c5545d9b099348085ad8b3253145912ee985
[OK] All nodes agree about slots configuration.Check for open slots...Check slots coverage...
[OK] All 16384 slots covered.2.3.5 使用Redis集群
按照redis cluster的特点它是去中心化的每个节点都是对等的所以连接哪个节点都可以获取和设置数据。
使用redis的客户端连接redis集群命令如下
./redis-cli -h 192.168.200.129 -p 7001 -c其中-c 一定要加这个是redis集群连接时进行节点跳转的参数。
连接到集群后可以设置一些值可以看到这些值根据前面提到的哈希槽方式分散存储在不同的节点上了。