ZooKeeper 安装使用(zookeeper的安装配置)
nanshan 2024-10-22 12:53 12 浏览 0 评论
ZooKeeper <二> 安装使用
ZooKeeper version: 3.6.0
安装
本示例均在 CentOS Linux release 8.1.1911 (Core) 下进行
同时需要保证当前机器含有 java 环境,java 安装步骤可参考 这里
1. 下载
首先到 Apache Download 寻找合适的版本,这里以 3.6.0 为例,下载
wget https://downloads.apache.org/zookeeper/current/apache-zookeeper-3.6.0-bin.tar.gz
2. 解压
tar -xvf apache-zookeeper-3.6.0-bin.tar.gz
3. 单机版启动
如图示,我在解压完后,将那串长长的目录名,重命名为 zk1, 同时又 cp 了 zk2 和 zk3,cp zoo_sample.cfg 为 zoo.cfg
# 修改名称
mv apache-zookeeper-3.6.0-bin zk1
# cp 两份,为后面的伪集群搭建做准备
cp -r zk1 zk2
cp -r zk1 zk3
# 增加 zoo.cfg 配置
cd zk1 && cp conf/zoo_sample.cfg zoo.cfg
这里我没有修改任何地方,直接 start
./bin/zkServer.sh start
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /home/dylan/tmp/zookeeper/zk1/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
可以看到, zk1 已经启动,我们验证一下:
./bin/zkServer.sh status
/usr/bin/java
ZooKeeper JMX enabled by default
Using config: /home/dylan/tmp/zookeeper/zk1/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost.
Mode: standalone
通过 zkServer.sh status ,能看到 zk 已经正常启动,Mode 为 standalone ,当我们配置 ensemble 时,这个 Mode 就会变成 Leader/Follower/Observer
4. 单机伪集群版
前面我们已经 cp 了 3 个 zk,现在我们再添加一个 observer 节点,同时,在各个 dataDir 新建 myid 文件,并写入值,如 zk1 的 dataDir 为 /tmp/zk1 ,则我们执行: echo 1 > /tmp/zk1/myid
4.1 四份配置如下:
其中涉及到的配置项有:
- tickTime:zk 中的计时单元,单位毫秒(milliseconds),心跳间隔,session timeout = 2倍 tickTime(默认)
- initLimit:ensemble 初始化时,server(Follower/Observer) 与 Leader 进行连接的最大时长,超过该时间如果还未连接成功,则宣告连接失败。对于 Follower 而言,则是连接并同步到 Leader 的时间。如果 zookeeper 集群管理的数据量很大,则根据需要增加这个值
- syncLimit: 同步时间,如果 Follower 在 syncLimit 时间内未完成同步,则将被 Leader 丢弃
- dataDir:zk 用于存放数据的地方,myid 文件也存放在这个地方。zk 官方建议该目录应该是一个专门为 zk 事务日志准备的目录:
To get low latencies on updates it is important to have a dedicated transaction log directory. By default transaction logs are put in the same directory as the data snapshots and myid file. The dataLogDir parameters indicates a different directory to use for the transaction logs.
- clientPort: 监听客户端连接的端口。如果你的客户端使用的不是这个端口,那这里就要改了。这里因为在同一台机器上,所以改成了不同的端口
- peerType:配置了 peerType=observer 的 server,将成为 observer,本例中的 zk4 将成为 observer
- observerMasterPort: 默认情况下, Observer 从 Leader 获得新 proposal, 启用该配置后,observer 将从 Follower 获得 proposal。Follower 将会监听该端口。这样做的好处是,能减轻 Leader 的压力。我上面配置的值不相同,是因为我在单机上,如果配置相同,会出现端口冲突,实际这里应该是同一个端口。
By default, Observers connect to the Leader of the quorum along its quorum port and this is how they learn of all new proposals on the ensemble. There are benefits to allowing Observers to connect to the Followers instead as a means of plugging into the commit stream in place of connecting to the Leader. It shifts the burden of supporting Observers off the Leader and allow it to focus on coordinating the commit of writes. This means better performance when the Leader is under high load, particularly high network load such as can happen after a leader election when many Learners need to sync. It reduces the total network connections maintained on the Leader when there are a high number of observers. Activating Followers to support Observers allow the overall number of Observers to scale into the hundreds. On the other end, Observer availability is improved since it will take shorter time for a high number of Observers to finish syncing and start serving client traffic.
- server.1=127.0.0.1:2284:3884:observer : 为方便介绍我们把这里改写成如下形式:server.myid=net:port1:port2:observer, 则myid: myid,需要与该 server dataDir 下 myid 文件中的值保持一致(这个文件需要我们手动创建)net: 该 server 的 hostport1:用于 peer 到 peer 的 TCP 通信, peer 即一个 zk server;以及和 Leader 之间的通信,这个端口,事实上,只有 server 成为 Leader 后才会去监听。虽然文档说是 peer to peer, 但仔细看下源码和实践,这个端口确实是 Leader 用来和各 server 通信用的port2: 选举期间,各个 server 之间的 TCP 通信端口,即选举使用的端口observer: 表明该 server 为 observer3.6.0 版本中,可以使用 multiple addresses , 结构如下server.myid=net1:port1:port2|net2:port1:port2, 即通过分隔符( | )来分割不同的 address
- leaderServes :Leader 是否可以连接 client,默认为 true,为 false 时,表明 Leader 只需要专注于协同(coordination)。如果写请求远高于读请求,可以设置为 false。
- 更多配置,请参考 这里 , 这里 ,还有 这里
4.2 启动
分别执行(注意下执行目录)
./zk1/bin/zkServer.sh start
上面没有更改日志位置,所以可以在 ./zk1/logs 下面找到
当只启动了 zk1 时,日志如上所示,它在尝试和 zk2 ,zk3 通信时,会一直失败,当我们启动了 zk2 和 zk3 时,整个集群就会稳定下来。
因为单机版的问题,这里 zk4 ,即 observer 的 observerMasterPort 配置为 2481,即 zk1 ,所以如果 zk1 当选为 Leader ,此时 zk4 会疯狂刷日志,报 connection refused,别问我怎么知道的!!!
通过这张图我们可以看到 ,zk1 成功当选了 leader,则它监听的端口有:
- 3881:用于选举的端口,任何时候都会去监听
- 2281:用于和其他 server 通信的端口,即前文的 port1
- 2481: 作为 leader,它已经不用去监听这个 observerMasterPort 了,所以这里我们看不到
- 2181: 用于和客户端通信的端口,我们没有配置 leaderServes=false,所以 leader 还需要响应 client
Follower 监听的端口有(这里以 zk2 为例):
- 3882:选举端口,时刻保持监听,万一 leader 挂了,选了我做 leader 呢!
- 2482:observerMasterPort,负责和 observer 通信的 TCP 端口
- 2182:和 client 交互的 TCP 端口
4.3 简单使用
# 不加[]中内容,默认连接到 2181 端口
./zk1/bin/zkCli.sh [-server localhost:2182]
?
# 输入 help ,会打印出命令
# 可以看到 create 相关: create [-s] [-e] [-c] [-t ttl] path [data] [acl]
# 我们用 create 创建一个节点,其中 data 为 "zk_test_data", acl 我们暂时不设置
create /zk_test "zk_test_data"
?
# 通过 ls / 能到节点已经创建
ls /
?
# get 获取节点信息, -s 参数会把整个节点信息 zxid 等打印出来
get -s /zk_test
?
# 更多命令请百度/Google
# 使用到此结束
ACL
ACL 有关的官方文档请点击 这里
所谓 ACL ,即 Access Control Lists ,访问控制列表。在 zk 中,用来控制访问 znode。
1. ACL 构成
<scheme>:<id>:<perms>
// org.apache.zookeeper.data.ACL
public ACL(
int perms,
org.apache.zookeeper.data.Id id) {
this.perms=perms;
this.id=id;
}
// org.apache.zookeeper.data.Id
public Id(
String scheme,
String id) {
this.scheme=scheme;
this.id=id;
}
// org.apache.zookeeper.ZooDefs.Perms
public interface Perms {
int READ = 1 << 0;
int WRITE = 1 << 1;
int CREATE = 1 << 2;
int DELETE = 1 << 3;
int ADMIN = 1 << 4;
int ALL = READ | WRITE | CREATE | DELETE | ADMIN;
}
通过源码我们可以看到, ACL = Id + perms 构成 , 而 Id = scheme + id
2. Perms
同样由源码可以看到 perms 主要包含以下几种:
- read
- write
- create
- delete
- admin : you can set permissions , 毕竟是 admin,你可以胡作非为
- all: 所有权限
3. 内置权限方案
zookeeper 内置的 scheme 有如下几种:
- world: 即任何人都可以拥有你设置的权限,<world>:<anyone><perms>
- digest:<digets>:<username:password>:<perms> , 这里的 password, 是指 base64 编码的 sha1 密码摘要,填入 ACL 中。比如 username 为 dylan , 密码为 123456, 则进行如下操作: echo -n dylan:123456 | openssl dgst -binary -sha1 | openssl base64则最终 scheme 应该长这个样子: digest:dylan:7i6SL+m6GkW2OYpURnpkay0UdBc=:crwda
- ip:使用客户端主机 IP 作为 ACL ID 身份。 ACL 表达式的形式为 addr / bits,其中 addr 的最高有效位与客户端主机 IP 的最高有效位相匹配。如: ip:127.0.0.1/16:crwda 这里文档说最高有效位与 client 主机 ip 最高有效位要相匹配,不过我实际试了下,不匹配也没有关系,这里暂时存疑。
- auth: 无 id, 对所有已认证的用户开放。形如 auth::crwda ,这里即使设置了 id,也会被忽略掉!
- x509:使用 x509 证书进行 client 端验证,使用该方案时,需要在配置文件中配置如下选项 ,具体参见 这里zookeeper.ssl.keyStore.locationzookeeper.ssl.trustStore.locationzookeeper.ssl.keyStore.passwordzookeeper.ssl.trustStore.password
事实上,还有 sasl,你可以在 zoo.cfg 中进行配置:
authProvider.1=org.apache.zookeeper.server.auth.SASLAuthenticationProvider
以及 super !!!
Watch
Watch 有关的官方文档请参考 这里
zk 的 watch 机制,也是我们 这篇文章 提到的很多应用的保证之一,正式因为 zk 的 watch 机制提供了这些保证,我们才能说,这样做,是可以的。
那么,zk 的 watch 机制究竟是什么?又提供了哪些保证呢?
zk watch event ,当 watch 的 数据发生变化时,watch event 会 一次触发 ,发送给设置了 watch event 的客户端。
- one-time trigger : 当设置的 watch event 被处罚时,触发且仅触发一次。当这个节点再次改变时,不会二次触发,除非再次设置 watch event(3.6 中已经增加了永久,永久递归类型的 watch)
- send to the client:watch event 会被异步的发送被 client,由于网络延迟等问题,会导致各个 client 收到 event 的时间差异, zk 保证 一个 client 永远不会在 watch event 到来前,观察到数据的变更,只有在 client 监听到 event 后,才能感知到数据的变化
- the data for which the watch was set:这里指 zk 不同的 watch event ,会产生不同的效果。这里下文会介绍到
1. watch event type
我们在 org.apache.zookeeper.Watcher.Event.EventType 能看到, 3.6 版本总共有如下几种 watch event:
- None:无 watch
- NodeCreated:通过 exists() 添加,当这个节点被创建后,发出 watch event
- NodeDeleted:通过 exists , getData , getChildren 添加
- NodeDataChanged:exists 和 getData 添加
- NodeChildrenChanged: getChildren 添加
- DataWatchRemoved: exists 和 getData 添加
- ChildWatchRemoved:getChildren 添加
- PersistentWatchRemoved:persistent watch 添加, 3.6.0 中,专门有 addWatch 方法,该方法可以指定 watcher 类型,具体需要参考使用 zk client:PERSISTENT : 持久 watch ,data change 和 children change 均会被触发PERSISTENT_RECURSIVE:持久递归 watch,会 watch 给定 path 的 children
2. zookeeper guarantees about watches
- zk(准确说是 zk client) 保证 watch event 的派发是有序的
- zk client 在收到 znode 的 watch event 之后才能看到该 znode 的新数据
- zk 中 watch event 的顺序与 zk 看到的更新顺序一致。即 zk 中的 watch event 顺序与 zk 的更新顺序相对应
基于 watch event 的特点,有两个地方需要特别注意:
- 如果你使用一次性的 watch event,则在再次 watch znode 的时候,你需要做好遗漏该 znode 可能出现的多次变更的情况。因为在你再次添加 watch event 的时候,这个 znode 可能已经被改变了好几次了。
- watch event 是 one-time trigger , 也就是说,如果你既通过 exists 又通过 getData 设置了 watch event ,那么你最终只会获得一个 watch event 事件。
To Be Continue
- FastLeaderElection
- Zab 协议详解
- 部分源码解析
- watch 源码解析
相关推荐
- 实战派 | Java项目中玩转Redis6.0客户端缓存
-
铺垫首先介绍一下今天要使用到的工具Lettuce,它是一个可伸缩线程安全的redis客户端。多个线程可以共享同一个RedisConnection,利用nio框架Netty来高效地管理多个连接。放眼望向...
- 轻松掌握redis缓存穿透、击穿、雪崩问题解决方案(20230529版)
-
1、缓存穿透所谓缓存穿透就是非法传输了一个在数据库中不存在的条件,导致查询redis和数据库中都没有,并且有大量的请求进来,就会导致对数据库产生压力,解决这一问题的方法如下:1、使用空缓存解决对查询到...
- Redis与本地缓存联手:多级缓存架构的奥秘
-
多级缓存(如Redis+本地缓存)是一种在系统架构中广泛应用的提高系统性能和响应速度的技术手段,它综合利用了不同类型缓存的优势,以下为你详细介绍:基本概念本地缓存:指的是在应用程序所在的服务器内...
- 腾讯云国际站:腾讯云服务器如何配置Redis缓存?
-
本文由【云老大】TG@yunlaoda360撰写一、安装Redis使用包管理器安装(推荐)在CentOS系统中,可以通过yum包管理器安装Redis:sudoyumupdate-...
- Spring Boot3 整合 Redis 实现数据缓存,你做对了吗?
-
你是否在开发互联网大厂后端项目时,遇到过系统响应速度慢的问题?当高并发请求涌入,数据库压力剧增,响应时间拉长,用户体验直线下降。相信不少后端开发同行都被这个问题困扰过。其实,通过在SpringBo...
- 【Redis】Redis应用问题-缓存穿透缓存击穿、缓存雪崩及解决方案
-
在我们使用redis时,也会存在一些问题,导致请求直接打到数据库上,导致数据库挂掉。下面我们来说说这些问题及解决方案。1、缓存穿透1.1场景一个请求进来后,先去redis进行查找,redis存在,则...
- Spring boot 整合Redis缓存你了解多少
-
在前一篇里面讲到了Redis缓存击穿、缓存穿透、缓存雪崩这三者区别,接下来我们讲解Springboot整合Redis中的一些知识点:之前遇到过,有的了四五年,甚至更长时间的后端Java开发,并且...
- 揭秘!Redis 缓存与数据库一致性问题的终极解决方案
-
在现代软件开发中,Redis作为一款高性能的缓存数据库,被广泛应用于提升系统的响应速度和吞吐量。然而,缓存与数据库之间的数据一致性问题,一直是开发者们面临的一大挑战。本文将深入探讨Redis缓存...
- 高并发下Spring Cache缓存穿透?我用Caffeine+Redis破局
-
一、什么是缓存穿透?缓存穿透是指查询一个根本不存在的数据,导致请求直接穿透缓存层到达数据库,可能压垮数据库的现象。在高并发场景下,这尤其危险。典型场景:恶意攻击:故意查询不存在的ID(如负数或超大数值...
- Redis缓存三剑客:穿透、雪崩、击穿—手把手教你解决
-
缓存穿透菜小弟:我先问问什么是缓存穿透?我听说是缓存查不到,直接去查数据库了。表哥:没错。缓存穿透是指查询一个缓存中不存在且数据库中也不存在的数据,导致每次请求都直接访问数据库的行为。这种行为会让缓存...
- Redis中缓存穿透问题与解决方法
-
缓存穿透问题概述在Redis作为缓存使用时,缓存穿透是常见问题。正常查询流程是先从Redis缓存获取数据,若有则直接使用;若没有则去数据库查询,查到后存入缓存。但当请求的数据在缓存和数据库中都...
- Redis客户端缓存的几种实现方式
-
前言:Redis作为当今最流行的内存数据库和缓存系统,被广泛应用于各类应用场景。然而,即使Redis本身性能卓越,在高并发场景下,应用于Redis服务器之间的网络通信仍可能成为性能瓶颈。所以客户端缓存...
- Nginx合集-常用功能指导
-
1)启动、重启以及停止nginx进入sbin目录之后,输入以下命令#启动nginx./nginx#指定配置文件启动nginx./nginx-c/usr/local/nginx/conf/n...
- 腾讯云国际站:腾讯云怎么提升服务器速度?
-
本文由【云老大】TG@yunlaoda360撰写升级服务器规格选择更高性能的CPU、内存和带宽,以提供更好的处理能力和网络性能。优化网络配置调整网络接口卡(NIC)驱动,优化TCP/IP参数...
- 雷霆一击服务器管理员教程
-
本文转载莱卡云游戏服务器雷霆一击管理员教程(搜索莱卡云面版可搜到)首先你需要给服务器设置管理员密码,默认是空的管理员密码在启动页面进行设置设置完成后你需要重启服务器才可生效加入游戏后,点击键盘左上角E...
你 发表评论:
欢迎- 一周热门
-
-
爱折腾的特斯拉车主必看!手把手教你TESLAMATE的备份和恢复
-
如何在安装前及安装后修改黑群晖的Mac地址和Sn系列号
-
[常用工具] OpenCV_contrib库在windows下编译使用指南
-
WindowsServer2022|配置NTP服务器的命令
-
Ubuntu系统Daphne + Nginx + supervisor部署Django项目
-
WIN11 安装配置 linux 子系统 Ubuntu 图形界面 桌面系统
-
解决Linux终端中“-bash: nano: command not found”问题
-
Linux 中的文件描述符是什么?(linux 打开文件表 文件描述符)
-
NBA 2K25虚拟内存不足/爆内存/内存占用100% 一文速解
-
K3s禁用Service Load Balancer,解决获取浏览器IP不正确问题
-
- 最近发表
-
- 实战派 | Java项目中玩转Redis6.0客户端缓存
- 轻松掌握redis缓存穿透、击穿、雪崩问题解决方案(20230529版)
- Redis与本地缓存联手:多级缓存架构的奥秘
- 腾讯云国际站:腾讯云服务器如何配置Redis缓存?
- Spring Boot3 整合 Redis 实现数据缓存,你做对了吗?
- 【Redis】Redis应用问题-缓存穿透缓存击穿、缓存雪崩及解决方案
- Spring boot 整合Redis缓存你了解多少
- 揭秘!Redis 缓存与数据库一致性问题的终极解决方案
- 高并发下Spring Cache缓存穿透?我用Caffeine+Redis破局
- Redis缓存三剑客:穿透、雪崩、击穿—手把手教你解决
- 标签列表
-
- linux 查询端口号 (58)
- docker映射容器目录到宿主机 (66)
- 杀端口 (60)
- yum更换阿里源 (62)
- internet explorer 增强的安全配置已启用 (65)
- linux自动挂载 (56)
- 禁用selinux (55)
- sysv-rc-conf (69)
- ubuntu防火墙状态查看 (64)
- windows server 2022激活密钥 (56)
- 无法与服务器建立安全连接是什么意思 (74)
- 443/80端口被占用怎么解决 (56)
- ping无法访问目标主机怎么解决 (58)
- fdatasync (59)
- 405 not allowed (56)
- 免备案虚拟主机zxhost (55)
- linux根据pid查看进程 (60)
- dhcp工具 (62)
- mysql 1045 (57)
- 宝塔远程工具 (56)
- ssh服务器拒绝了密码 请再试一次 (56)
- ubuntu卸载docker (56)
- linux查看nginx状态 (63)
- tomcat 乱码 (76)
- 2008r2激活序列号 (65)