集群教程?

Note

本文檔翻譯自 http://redis.io/topics/cluster-tutorial

本文檔是 Redis 集群的入門教程, 從用戶的角度介紹了設置、測試和操作集群的方法。

本教程不包含晦澀難懂的分布式概念, 也沒有像 Redis 集群規范 那樣包含 Redis 集群的實現細節, 如果你打算深入地學習 Redis 集群的部署方法, 那么推薦你在閱讀完這個教程之后, 再去看一看集群規范。

Redis 集群目前仍處于 Alpha 測試版本, 如果在使用過程中發現任何問題, 請到 Redis 的郵件列表 發貼, 或者到 Redis 的 Github 頁面 報告錯誤。

集群簡介?

Redis 集群是一個可以在多個 Redis 節點之間進行數據共享的設施(installation)。

Redis 集群不支持那些需要同時處理多個鍵的 Redis 命令, 因為執行這些命令需要在多個 Redis 節點之間移動數據, 并且在高負載的情況下, 這些命令將降低 Redis 集群的性能, 并導致不可預測的行為。

Redis 集群通過分區(partition)來提供一定程度的可用性(availability): 即使集群中有一部分節點失效或者無法進行通訊, 集群也可以繼續處理命令請求。

Redis 集群提供了以下兩個好處:

  • 將數據自動切分(split)到多個節點的能力。
  • 當集群中的一部分節點失效或者無法進行通訊時, 仍然可以繼續處理命令請求的能力。

Redis 集群數據共享?

Redis 集群使用數據分片(sharding)而非一致性哈希(consistency hashing)來實現: 一個 Redis 集群包含 16384 個哈希槽(hash slot), 數據庫中的每個鍵都屬于這 16384 個哈希槽的其中一個, 集群使用公式 CRC16(key) % 16384 來計算鍵 key 屬于哪個槽, 其中 CRC16(key) 語句用于計算鍵 keyCRC16 校驗和

集群中的每個節點負責處理一部分哈希槽。 舉個例子, 一個集群可以有三個哈希槽, 其中:

  • 節點 A 負責處理 0 號至 5500 號哈希槽。
  • 節點 B 負責處理 5501 號至 11000 號哈希槽。
  • 節點 C 負責處理 11001 號至 16384 號哈希槽。

這種將哈希槽分布到不同節點的做法使得用戶可以很容易地向集群中添加或者刪除節點。 比如說:

  • 如果用戶將新節點 D 添加到集群中, 那么集群只需要將節點 A 、B 、 C 中的某些槽移動到節點 D 就可以了。
  • 與此類似, 如果用戶要從集群中移除節點 A , 那么集群只需要將節點 A 中的所有哈希槽移動到節點 B 和節點 C , 然后再移除空白(不包含任何哈希槽)的節點 A 就可以了。

因為將一個哈希槽從一個節點移動到另一個節點不會造成節點阻塞, 所以無論是添加新節點還是移除已存在節點, 又或者改變某個節點包含的哈希槽數量, 都不會造成集群下線。

Redis 集群中的主從復制?

為了使得集群在一部分節點下線或者無法與集群的大多數(majority)節點進行通訊的情況下, 仍然可以正常運作, Redis 集群對節點使用了主從復制功能: 集群中的每個節點都有 1 個至 N 個復制品(replica), 其中一個復制品為主節點(master), 而其余的 N-1 個復制品為從節點(slave)。

在之前列舉的節點 A 、B 、C 的例子中, 如果節點 B 下線了, 那么集群將無法正常運行, 因為集群找不到節點來處理 5501 號至 11000 號的哈希槽。

另一方面, 假如在創建集群的時候(或者至少在節點 B 下線之前), 我們為主節點 B 添加了從節點 B1 , 那么當主節點 B 下線的時候, 集群就會將 B1 設置為新的主節點, 并讓它代替下線的主節點 B , 繼續處理 5501 號至 11000 號的哈希槽, 這樣集群就不會因為主節點 B 的下線而無法正常運作了。

不過如果節點 B 和 B1 都下線的話, Redis 集群還是會停止運作。

Redis 集群的一致性保證(guarantee)?

Redis 集群不保證數據的強一致性(strong consistency): 在特定條件下, Redis 集群可能會丟失已經被執行過的寫命令。

使用異步復制(asynchronous replication)是 Redis 集群可能會丟失寫命令的其中一個原因。 考慮以下這個寫命令的例子:

  • 客戶端向主節點 B 發送一條寫命令。
  • 主節點 B 執行寫命令,并向客戶端返回命令回復。
  • 主節點 B 將剛剛執行的寫命令復制給它的從節點 B1 、 B2 和 B3 。

如你所見, 主節點對命令的復制工作發生在返回命令回復之后, 因為如果每次處理命令請求都需要等待復制操作完成的話, 那么主節點處理命令請求的速度將極大地降低 —— 我們必須在性能和一致性之間做出權衡。

Note

如果真的有必要的話, Redis 集群可能會在將來提供同步地(synchronou)執行寫命令的方法。

Redis 集群另外一種可能會丟失命令的情況是, 集群出現網絡分裂(network partition), 并且一個客戶端與至少包括一個主節點在內的少數(minority)實例被孤立。

舉個例子, 假設集群包含 A 、 B 、 C 、 A1 、 B1 、 C1 六個節點, 其中 A 、B 、C 為主節點, 而 A1 、B1 、C1 分別為三個主節點的從節點, 另外還有一個客戶端 Z1 。

假設集群中發生網絡分裂, 那么集群可能會分裂為兩方, 大多數(majority)的一方包含節點 A 、C 、A1 、B1 和 C1 , 而少數(minority)的一方則包含節點 B 和客戶端 Z1 。

在網絡分裂期間, 主節點 B 仍然會接受 Z1 發送的寫命令:

  • 如果網絡分裂出現的時間很短, 那么集群會繼續正常運行;
  • 但是, 如果網絡分裂出現的時間足夠長, 使得大多數一方將從節點 B1 設置為新的主節點, 并使用 B1 來代替原來的主節點 B , 那么 Z1 發送給主節點 B 的寫命令將丟失。

注意, 在網絡分裂出現期間, 客戶端 Z1 可以向主節點 B 發送寫命令的最大時間是有限制的, 這一時間限制稱為節點超時時間(node timeout), 是 Redis 集群的一個重要的配置選項:

  • 對于大多數一方來說, 如果一個主節點未能在節點超時時間所設定的時限內重新聯系上集群, 那么集群會將這個主節點視為下線, 并使用從節點來代替這個主節點繼續工作。
  • 對于少數一方, 如果一個主節點未能在節點超時時間所設定的時限內重新聯系上集群, 那么它將停止處理寫命令, 并向客戶端報告錯誤。

創建并使用 Redis 集群?

Redis 集群由多個運行在集群模式(cluster mode)下的 Redis 實例組成, 實例的集群模式需要通過配置來開啟, 開啟集群模式的實例將可以使用集群特有的功能和命令。

以下是一個包含了最少選項的集群配置文件示例:

port 7000
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
appendonly yes

文件中的 cluster-enabled 選項用于開實例的集群模式, 而 cluster-conf-file 選項則設定了保存節點配置文件的路徑, 默認值為 nodes.conf

節點配置文件無須人為修改, 它由 Redis 集群在啟動時創建, 并在有需要時自動進行更新。

要讓集群正常運作至少需要三個主節點, 不過在剛開始試用集群功能時, 強烈建議使用六個節點: 其中三個為主節點, 而其余三個則是各個主節點的從節點。

首先, 讓我們進入一個新目錄, 并創建六個以端口號為名字的子目錄, 稍后我們在將每個目錄中運行一個 Redis 實例:

mkdir cluster-test
cd cluster-test
mkdir 7000 7001 7002 7003 7004 7005

在文件夾 70007005 中, 各創建一個 redis.conf 文件, 文件的內容可以使用上面的示例配置文件, 但記得將配置中的端口號從 7000 改為與文件夾名字相同的號碼。

現在, 從 Redis Github 頁面unstable 分支中取出最新的 Redis 源碼, 編譯出可執行文件 redis-server , 并將文件復制到 cluster-test 文件夾, 然后使用類似以下命令, 在每個標簽頁中打開一個實例:

cd 7000
../redis-server ./redis.conf

實例打印的日志顯示, 因為 nodes.conf 文件不存在, 所以每個節點都為它自身指定了一個新的 ID :

[82462] 26 Nov 11:56:55.329 * No cluster configuration found, I'm 97a3a64667477371c4479320d683e4c8db5858b1

實例會一直使用同一個 ID , 從而在集群中保持一個獨一無二(unique)的名字。

每個節點都使用 ID 而不是 IP 或者端口號來記錄其他節點, 因為 IP 地址和端口號都可能會改變, 而這個獨一無二的標識符(identifier)則會在節點的整個生命周期中一直保持不變。

我們將這個標識符稱為節點 ID

創建集群?

現在我們已經有了六個正在運行中的 Redis 實例, 接下來我們需要使用這些實例來創建集群, 并為每個節點編寫配置文件。

通過使用 Redis 集群命令行工具 redis-trib , 編寫節點配置文件的工作可以非常容易地完成: redis-trib 位于 Redis 源碼的 src 文件夾中, 它是一個 Ruby 程序, 這個程序通過向實例發送特殊命令來完成創建新集群, 檢查集群, 或者對集群進行重新分片(reshared)等工作。

我們需要執行以下命令來創建集群:

./redis-trib.rb create --replicas 1 127.0.0.1:7000 127.0.0.1:7001 \
127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005

命令的意義如下:

  • 給定 redis-trib.rb 程序的命令是 create , 這表示我們希望創建一個新的集群。
  • 選項 --replicas 1 表示我們希望為集群中的每個主節點創建一個從節點。
  • 之后跟著的其他參數則是實例的地址列表, 我們希望程序使用這些地址所指示的實例來創建新集群。

簡單來說, 以上命令的意思就是讓 redis-trib 程序創建一個包含三個主節點和三個從節點的集群。

接著, redis-trib 會打印出一份預想中的配置給你看, 如果你覺得沒問題的話, 就可以輸入 yesredis-trib 就會將這份配置應用到集群當中:

>>> Creating cluster
Connecting to node 127.0.0.1:7000: OK
Connecting to node 127.0.0.1:7001: OK
Connecting to node 127.0.0.1:7002: OK
Connecting to node 127.0.0.1:7003: OK
Connecting to node 127.0.0.1:7004: OK
Connecting to node 127.0.0.1:7005: OK
>>> Performing hash slots allocation on 6 nodes...
Using 3 masters:
127.0.0.1:7000
127.0.0.1:7001
127.0.0.1:7002
127.0.0.1:7000 replica #1 is 127.0.0.1:7003
127.0.0.1:7001 replica #1 is 127.0.0.1:7004
127.0.0.1:7002 replica #1 is 127.0.0.1:7005
M: 9991306f0e50640a5684f1958fd754b38fa034c9 127.0.0.1:7000
slots:0-5460 (5461 slots) master
M: e68e52cee0550f558b03b342f2f0354d2b8a083b 127.0.0.1:7001
slots:5461-10921 (5461 slots) master
M: 393c6df5eb4b4cec323f0e4ca961c8b256e3460a 127.0.0.1:7002
slots:10922-16383 (5462 slots) master
S: 48b728dbcedff6bf056231eb44990b7d1c35c3e0 127.0.0.1:7003
S: 345ede084ac784a5c030a0387f8aaa9edfc59af3 127.0.0.1:7004
S: 3375be2ccc321932e8853234ffa87ee9fde973ff 127.0.0.1:7005
Can I set the above configuration? (type 'yes' to accept): yes

輸入 yes 并按下回車確認之后, 集群就會將配置應用到各個節點, 并連接起(join)各個節點 —— 也即是, 讓各個節點開始互相通訊:

>>> Nodes configuration updated
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join...
>>> Performing Cluster Check (using node 127.0.0.1:7000)
M: 9991306f0e50640a5684f1958fd754b38fa034c9 127.0.0.1:7000
slots:0-5460 (5461 slots) master
M: e68e52cee0550f558b03b342f2f0354d2b8a083b 127.0.0.1:7001
slots:5461-10921 (5461 slots) master
M: 393c6df5eb4b4cec323f0e4ca961c8b256e3460a 127.0.0.1:7002
slots:10922-16383 (5462 slots) master
M: 48b728dbcedff6bf056231eb44990b7d1c35c3e0 127.0.0.1:7003
slots: (0 slots) master
M: 345ede084ac784a5c030a0387f8aaa9edfc59af3 127.0.0.1:7004
slots: (0 slots) master
M: 3375be2ccc321932e8853234ffa87ee9fde973ff 127.0.0.1:7005
slots: (0 slots) master
[OK] All nodes agree about slots configuration.

如果一切正常的話, redis-trib 將輸出以下信息:

>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

這表示集群中的 16384 個槽都有至少一個主節點在處理, 集群運作正常。

集群的客戶端?

Redis 集群現階段的一個問題是客戶端實現很少。 以下是一些我知道的實現:

  • redis-rb-cluster 是我(@antirez)編寫的 Ruby 實現, 用于作為其他實現的參考。 該實現是對 redis-rb 的一個簡單包裝, 高效地實現了與集群進行通訊所需的最少語義(semantic)。
  • redis-py-cluster 看上去是 redis-rb-cluster 的一個 Python 版本, 這個項目有一段時間沒有更新了(最后一次提交是在六個月之前), 不過可以將這個項目用作學習集群的起點。
  • 流行的 Predis 曾經對早期的 Redis 集群有過一定的支持, 但我不確定它對集群的支持是否完整, 也不清楚它是否和最新版本的 Redis 集群兼容 (因為新版的 Redis 集群將槽的數量從 4k 改為 16k 了)。
  • Redis unstable 分支中的 redis-cli 程序實現了非常基本的集群支持, 可以使用命令 redis-cli -c 來啟動。

測試 Redis 集群比較簡單的辦法就是使用 redis-rb-cluster 或者 redis-cli , 接下來我們將使用 redis-cli 為例來進行演示:

$ redis-cli -c -p 7000
redis 127.0.0.1:7000> set foo bar
-> Redirected to slot [12182] located at 127.0.0.1:7002
OK

redis 127.0.0.1:7002> set hello world
-> Redirected to slot [866] located at 127.0.0.1:7000
OK

redis 127.0.0.1:7000> get foo
-> Redirected to slot [12182] located at 127.0.0.1:7002
"bar"

redis 127.0.0.1:7000> get hello
-> Redirected to slot [866] located at 127.0.0.1:7000
"world"

redis-cli 對集群的支持是非常基本的, 所以它總是依靠 Redis 集群節點來將它轉向(redirect)至正確的節點。

一個真正的(serious)集群客戶端應該做得比這更好: 它應該用緩存記錄起哈希槽與節點地址之間的映射(map), 從而直接將命令發送到正確的節點上面。

這種映射只會在集群的配置出現某些修改時變化, 比如說, 在一次故障轉移(failover)之后, 或者系統管理員通過添加節點或移除節點來修改了集群的布局(layout)之后, 諸如此類。

使用 redis-rb-cluster 編寫一個示例應用?

在展示如何使用集群進行故障轉移、重新分片等操作之前, 我們需要創建一個示例應用, 了解一些與 Redis 集群客戶端進行交互的基本方法。

在運行示例應用的過程中, 我們會嘗試讓節點進入失效狀態, 又或者開始一次重新分片, 以此來觀察 Redis 集群在真實世界運行時的表現, 并且為了讓這個示例盡可能地有用, 我們會讓這個應用向集群進行寫操作。

本節將通過兩個示例應用來展示 redis-rb-cluster 的基本用法, 以下是本節的第一個示例應用, 它是一個名為 example.rb 的文件, 包含在redis-rb-cluster 項目里面

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
require './cluster'

startup_nodes = [
    {:host => "127.0.0.1", :port => 7000},
    {:host => "127.0.0.1", :port => 7001}
]
rc = RedisCluster.new(startup_nodes,32,:timeout => 0.1)

last = false

while not last
    begin
        last = rc.get("__last__")
        last = 0 if !last
    rescue => e
        puts "error #{e.to_s}"
        sleep 1
    end
end

((last.to_i+1)..1000000000).each{|x|
    begin
        rc.set("foo#{x}",x)
        puts rc.get("foo#{x}")
        rc.set("__last__",x)
    rescue => e
        puts "error #{e.to_s}"
    end
    sleep 0.1
}

這個應用所做的工作非常簡單: 它不斷地以 foo<number> 為鍵, number 為值, 使用 SET 命令向數據庫設置鍵值對。

如果我們執行這個應用的話, 應用將按順序執行以下命令:

  • SET foo0 0
  • SET foo1 1
  • SET foo2 2
  • 諸如此類。。。

代碼中的每個集群操作都使用一個 beginrescue 代碼塊(block)包裹著, 因為我們希望在代碼出錯時, 將錯誤打印到終端上面, 而不希望應用因為異常(exception)而退出。

代碼的第七行是代碼中第一個有趣的地方, 它創建了一個 Redis 集群對象, 其中創建對象所使用的參數及其意義如下:

  • 第一個參數是記錄了啟動節點的 startup_nodes 列表, 列表中包含了兩個集群節點的地址。
  • 第二個參數指定了對于集群中的各個不同的節點, Redis 集群對象可以獲得(take)的最大連接數 (maximum number of connections this object is allowed to take)。
  • 第三個參數 timeout 指定了一個命令在執行多久之后, 才會被看作是執行失敗。

記住, 啟動列表中并不需要包含所有集群節點的地址, 但這些地址中至少要有一個是有效的(reachable): 一旦 redis-rb-cluster 成功連接上集群中的某個節點時, 集群節點列表就會被自動更新, 任何真正的(serious)的集群客戶端都應該這樣做。

現在, 程序創建的 Redis 集群對象實例被保存到 rc 變量里面, 我們可以將這個對象當作普通 Redis 對象實例來使用。

十一至十九行, 我們先嘗試閱讀計數器中的值, 如果計數器不存在的話, 我們才將計數器初始化為 0 : 通過將計數值保存到 Redis 的計數器里面, 我們可以在示例重啟之后, 仍然繼續之前的執行過程, 而不必每次重啟之后都從 foo0 開始重新設置鍵值對。

為了讓程序在集群下線的情況下, 仍然不斷地嘗試讀取計數器的值, 我們將讀取操作包含在了一個 while 循環里面, 一般的應用程序并不需要如此小心。

二十一至三十行是程序的主循環, 這個循環負責設置鍵值對, 并在設置出錯時打印錯誤信息。

程序在主循環的末尾添加了一個 sleep 調用, 讓寫操作的執行速度變慢, 幫助執行示例的人更容易看清程序的輸出。

執行 example.rb 程序將產生以下輸出:

ruby ./example.rb
1
2
3
4
5
6
7
8
9
...

這個程序并不是十分有趣, 稍后我們就會看到一個更有趣的集群應用示例, 不過在此之前, 讓我們先使用這個示例來演示集群的重新分片操作。

對集群進行重新分片?

現在, 讓我們來試試對集群進行重新分片操作。

在執行重新分片的過程中, 請讓你的 example.rb 程序處于運行狀態, 這樣你就會看到, 重新分片并不會對正在運行的集群程序產生任何影響, 你也可以考慮將 example.rb 中的 sleep 調用刪掉, 從而讓重新分片操作在近乎真實的寫負載下執行。

重新分片操作基本上就是將某些節點上的哈希槽移動到另外一些節點上面, 和創建集群一樣, 重新分片也可以使用 redis-trib 程序來執行。

執行以下命令可以開始一次重新分片操作:

$ ./redis-trib.rb reshard 127.0.0.1:7000

你只需要指定集群中其中一個節點的地址, redis-trib 就會自動找到集群中的其他節點。

目前 redis-trib 只能在管理員的協助下完成重新分片的工作, 要讓 redis-trib 自動將哈希槽從一個節點移動到另一個節點, 目前來說還做不到 (不過實現這個功能并不難)。

執行 redis-trib 的第一步就是設定你打算移動的哈希槽的數量:

$ ./redis-trib.rb reshard 127.0.0.1:7000
Connecting to node 127.0.0.1:7000: OK
Connecting to node 127.0.0.1:7002: OK
Connecting to node 127.0.0.1:7005: OK
Connecting to node 127.0.0.1:7001: OK
Connecting to node 127.0.0.1:7003: OK
Connecting to node 127.0.0.1:7004: OK
>>> Performing Cluster Check (using node 127.0.0.1:7000)
M: 9991306f0e50640a5684f1958fd754b38fa034c9 127.0.0.1:7000
slots:0-5460 (5461 slots) master
M: 393c6df5eb4b4cec323f0e4ca961c8b256e3460a 127.0.0.1:7002
slots:10922-16383 (5462 slots) master
S: 3375be2ccc321932e8853234ffa87ee9fde973ff 127.0.0.1:7005
slots: (0 slots) slave
M: e68e52cee0550f558b03b342f2f0354d2b8a083b 127.0.0.1:7001
slots:5461-10921 (5461 slots) master
S: 48b728dbcedff6bf056231eb44990b7d1c35c3e0 127.0.0.1:7003
slots: (0 slots) slave
S: 345ede084ac784a5c030a0387f8aaa9edfc59af3 127.0.0.1:7004
slots: (0 slots) slave
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
How many slots do you want to move (from 1 to 16384)? 1000

我們將打算移動的槽數量設置為 1000 個, 如果 example.rb 程序一直運行著的話, 現在 1000 個槽里面應該有不少鍵了。

除了移動的哈希槽數量之外, redis-trib 還需要知道重新分片的目標(target node), 也即是, 負責接收這 1000 個哈希槽的節點。

指定目標需要使用節點的 ID , 而不是 IP 地址和端口。 比如說, 我們打算使用集群的第一個主節點來作為目標, 它的 IP 地址和端口是 127.0.0.1:7000 , 而節點 ID 則是 9991306f0e50640a5684f1958fd754b38fa034c9 , 那么我們應該向 redis-trib 提供節點的 ID :

$ ./redis-trib.rb reshard 127.0.0.1:7000
...
What is the receiving node ID? 9991306f0e50640a5684f1958fd754b38fa034c9

Note

redis-trib 會打印出集群中所有節點的 ID , 并且我們也可以通過執行以下命令來獲得節點的運行 ID :

$ ./redis-cli -p 7000 cluster nodes | grep myself
9991306f0e50640a5684f1958fd754b38fa034c9 :0 myself,master - 0 0 0 connected 0-5460

接著, redis-trib 會向你詢問重新分片的源節點(source node), 也即是, 要從哪個節點中取出 1000 個哈希槽, 并將這些槽移動到目標節點上面。

如果我們不打算從特定的節點上取出指定數量的哈希槽, 那么可以向 redis-trib 輸入 all , 這樣的話, 集群中的所有主節點都會成為源節點, redis-trib 將從各個源節點中各取出一部分哈希槽, 湊夠 1000 個, 然后移動到目標節點上面:

$ ./redis-trib.rb reshard 127.0.0.1:7000
...
Please enter all the source node IDs.
Type 'all' to use all the nodes as source nodes for the hash slots.
Type 'done' once you entered all the source nodes IDs.
Source node #1:all

輸入 all 并按下回車之后, redis-trib 將打印出哈希槽的移動計劃, 如果你覺得沒問題的話, 就可以輸入 yes 并再次按下回車:

$ ./redis-trib.rb reshard 127.0.0.1:7000
...
Moving slot 11421 from 393c6df5eb4b4cec323f0e4ca961c8b256e3460a
Moving slot 11422 from 393c6df5eb4b4cec323f0e4ca961c8b256e3460a
Moving slot 5461 from e68e52cee0550f558b03b342f2f0354d2b8a083b
Moving slot 5469 from e68e52cee0550f558b03b342f2f0354d2b8a083b
...
Moving slot 5959 from e68e52cee0550f558b03b342f2f0354d2b8a083b
Do you want to proceed with the proposed reshard plan (yes/no)? yes

輸入 yes 并使用按下回車之后, redis-trib 就會正式開始執行重新分片操作, 將指定的哈希槽從源節點一個個地移動到目標節點上面:

$ ./redis-trib.rb reshard 127.0.0.1:7000
...
Moving slot 5934 from 127.0.0.1:7001 to 127.0.0.1:7000:
Moving slot 5935 from 127.0.0.1:7001 to 127.0.0.1:7000:
Moving slot 5936 from 127.0.0.1:7001 to 127.0.0.1:7000:
Moving slot 5937 from 127.0.0.1:7001 to 127.0.0.1:7000:
...
Moving slot 5959 from 127.0.0.1:7001 to 127.0.0.1:7000:

在重新分片的過程中, example.rb 應該可以繼續正常運行, 不會出現任何問題。

在重新分片操作執行完畢之后, 可以使用以下命令來檢查集群是否正常:

$ ./redis-trib.rb check 127.0.0.1:7000
Connecting to node 127.0.0.1:7000: OK
Connecting to node 127.0.0.1:7002: OK
Connecting to node 127.0.0.1:7005: OK
Connecting to node 127.0.0.1:7001: OK
Connecting to node 127.0.0.1:7003: OK
Connecting to node 127.0.0.1:7004: OK
>>> Performing Cluster Check (using node 127.0.0.1:7000)
M: 9991306f0e50640a5684f1958fd754b38fa034c9 127.0.0.1:7000
slots:0-5959,10922-11422 (6461 slots) master
M: 393c6df5eb4b4cec323f0e4ca961c8b256e3460a 127.0.0.1:7002
slots:11423-16383 (4961 slots) master
S: 3375be2ccc321932e8853234ffa87ee9fde973ff 127.0.0.1:7005
slots: (0 slots) slave
M: e68e52cee0550f558b03b342f2f0354d2b8a083b 127.0.0.1:7001
slots:5960-10921 (4962 slots) master
S: 48b728dbcedff6bf056231eb44990b7d1c35c3e0 127.0.0.1:7003
slots: (0 slots) slave
S: 345ede084ac784a5c030a0387f8aaa9edfc59af3 127.0.0.1:7004
slots: (0 slots) slave
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

根據檢查結果顯示, 集群運作正常。

需要注意的就是, 在三個主節點中, 節點 127.0.0.1:7000 包含了 6461 個哈希槽, 而節點 127.0.0.1:7001 和節點 127.0.0.1:7002 都只包含了 4961 個哈希槽, 因為后兩者都將自己的 500 個哈希槽移動到了節點 127.0.0.1:7000

一個更有趣的示例應用?

我們在前面使用的示例程序 example.rb 并不是十分有趣, 因為它只是不斷地對集群進行寫入, 但并不檢查寫入結果是否正確。 比如說, 集群可能會錯誤地將 example.rb 發送的所有 SET 命令都改成了 SET foo 42 , 但因為 example.rb 并不檢查寫入后的值, 所以它不會意識到集群實際上寫入的值是錯誤的。

因為這個原因, redis-rb-cluster 項目包含了一個名為 consistency-test.rb 的示例應用, 這個應用比起 example.rb 有趣得多: 它創建了多個計數器(默認為 1000 個), 并通過發送 INCR 命令來增加這些計數器的值。

在增加計數器值的同時, consistency-test.rb 還執行以下操作:

  • 每次使用 INCR 命令更新一個計數器時, 應用會記錄下計數器執行 INCR 命令之后應該有的值。 舉個例子, 如果計數器的起始值為 0 , 而這次是程序第 50 次向它發送 INCR 命令, 那么計數器的值應該是 50
  • 在每次發送 INCR 命令之前, 程序會隨機從集群中讀取一個計數器的值, 并將它與自己記錄的值進行對比, 看兩個值是否相同。

換句話說, 這個程序是一個一致性檢查器(consistency checker): 如果集群在執行 INCR 命令的過程中, 丟失了某條 INCR 命令, 又或者多執行了某條客戶端沒有確認到的 INCR 命令, 那么檢查器將察覺到這一點 —— 在前一種情況中, consistency-test.rb 記錄的計數器值將比集群記錄的計數器值要大; 而在后一種情況中, consistency-test.rb 記錄的計數器值將比集群記錄的計數器值要小。

運行 consistency-test 程序將產生類似以下的輸出:

$ ruby consistency-test.rb
925 R (0 err) | 925 W (0 err) |
5030 R (0 err) | 5030 W (0 err) |
9261 R (0 err) | 9261 W (0 err) |
13517 R (0 err) | 13517 W (0 err) |
17780 R (0 err) | 17780 W (0 err) |
22025 R (0 err) | 22025 W (0 err) |
25818 R (0 err) | 25818 W (0 err) |

每行輸出都打印了程序執行的讀取次數和寫入次數, 以及執行操作的過程中因為集群不可用而產生的錯誤數。

如果程序察覺了不一致的情況出現, 它將在輸出行的末尾顯式不一致的詳細情況。

比如說, 如果我們在 consistency-test.rb 運行的過程中, 手動修改某個計數器的值:

$ redis 127.0.0.1:7000> set key_217 0
OK

那么 consistency-test.rb 將向我們報告不一致情況:

(in the other tab I see...)

94774 R (0 err) | 94774 W (0 err) |
98821 R (0 err) | 98821 W (0 err) |
102886 R (0 err) | 102886 W (0 err) | 114 lost |
107046 R (0 err) | 107046 W (0 err) | 114 lost |

在我們修改計數器值的時候, 計數器的正確值是 114 (執行了 114INCR 命令), 因為我們將計數器的值設成了 0 , 所以 consistency-test.rb 會向我們報告說丟失了 114INCR 命令。

因為這個示例程序具有一致性檢查功能, 所以我們用它來測試 Redis 集群的故障轉移操作。

故障轉移測試?

Note

在執行本節操作的過程中, 請一直運行 consistency-test 程序。

要觸發一次故障轉移, 最簡單的辦法就是令集群中的某個主節點進入下線狀態。

首先用以下命令列出集群中的所有主節點:

$ redis-cli -p 7000 cluster nodes | grep master
3e3a6cb0d9a9a87168e266b0a0b24026c0aae3f0 127.0.0.1:7001 master - 0 1385482984082 0 connected 5960-10921
2938205e12de373867bf38f1ca29d31d0ddb3e46 127.0.0.1:7002 master - 0 1385482983582 0 connected 11423-16383
97a3a64667477371c4479320d683e4c8db5858b1 :0 myself,master - 0 0 0 connected 0-5959 10922-11422

通過命令輸出, 我們知道端口號為 700070017002 的節點都是主節點, 然后我們可以通過向端口號為 7002 的主節點發送 DEBUG SEGFAULT 命令, 讓這個主節點崩潰:

$ redis-cli -p 7002 debug segfault
Error: Server closed the connection

現在, 切換到運行著 consistency-test 的標簽頁, 可以看到, consistency-test7002 下線之后的一段時間里將產生大量的錯誤警告信息:

18849 R (0 err) | 18849 W (0 err) |
23151 R (0 err) | 23151 W (0 err) |
27302 R (0 err) | 27302 W (0 err) |

... many error warnings here ...

29659 R (578 err) | 29660 W (577 err) |
33749 R (578 err) | 33750 W (577 err) |
37918 R (578 err) | 37919 W (577 err) |
42077 R (578 err) | 42078 W (577 err) |

consistency-test 的這段輸出可以看到, 集群在執行故障轉移期間, 總共丟失了 578 個讀命令和 577 個寫命令, 但是并沒有產生任何數據不一致。

這聽上去可能有點奇怪, 因為在教程的開頭我們提到過, Redis 使用的是異步復制, 在執行故障轉移期間, 集群可能會丟失寫命令。

但是在實際上, 丟失命令的情況并不常見, 因為 Redis 幾乎是同時執行將命令回復發送給客戶端, 以及將命令復制給從節點這兩個操作, 所以實際上造成命令丟失的時間窗口是非常小的。

不過, 盡管出現的幾率不高, 但丟失命令的情況還是有可能會出現的, 所以我們對 Redis 集群不能提供強一致性的這一描述仍然是正確的。

現在, 讓我們使用 cluster nodes 命令, 查看集群在執行故障轉移操作之后, 主從節點的布局情況:

$ redis-cli -p 7000 cluster nodes
3fc783611028b1707fd65345e763befb36454d73 127.0.0.1:7004 slave 3e3a6cb0d9a9a87168e266b0a0b24026c0aae3f0 0 1385503418521 0 connected
a211e242fc6b22a9427fed61285e85892fa04e08 127.0.0.1:7003 slave 97a3a64667477371c4479320d683e4c8db5858b1 0 1385503419023 0 connected
97a3a64667477371c4479320d683e4c8db5858b1 :0 myself,master - 0 0 0 connected 0-5959 10922-11422
3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 127.0.0.1:7005 master - 0 1385503419023 3 connected 11423-16383
3e3a6cb0d9a9a87168e266b0a0b24026c0aae3f0 127.0.0.1:7001 master - 0 1385503417005 0 connected 5960-10921
2938205e12de373867bf38f1ca29d31d0ddb3e46 127.0.0.1:7002 slave 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 0 1385503418016 3 connected

我重啟了之前下線的 127.0.0.1:7002 節點, 該節點已經從原來的主節點變成了從節點, 而現在集群中的三個主節點分別是 127.0.0.1:7000127.0.0.1:7001127.0.0.1:7005 , 其中 127.0.0.1:7005 就是因為 127.0.0.1:7002 下線而變成主節點的。

cluster nodes 命令的輸出有點兒復雜, 它的每一行都是由以下信息組成的:

  • 節點 ID :例如 3fc783611028b1707fd65345e763befb36454d73
  • ip:port :節點的 IP 地址和端口號, 例如 127.0.0.1:7000 , 其中 :0 表示的是客戶端當前連接的 IP 地址和端口號。
  • flags :節點的角色(例如 masterslavemyself )以及狀態(例如 fail ,等等)。
  • 如果節點是一個從節點的話, 那么跟在 flags 之后的將是主節點的節點 ID : 例如 127.0.0.1:7002 的主節點的節點 ID 就是 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e
  • 集群最近一次向節點發送 PING 命令之后, 過去了多長時間還沒接到回復。
  • 節點最近一次返回 PONG 回復的時間。
  • 節點的配置紀元(configuration epoch):詳細信息請參考 Redis 集群規范
  • 本節點的網絡連接情況:例如 connected
  • 節點目前包含的槽:例如 127.0.0.1:7001 目前包含號碼為 596010921 的哈希槽。

添加新節點到集群?

根據新添加節點的種類, 我們需要用兩種方法來將新節點添加到集群里面:

  • 如果要添加的新節點是一個主節點, 那么我們需要創建一個空節點(empty node), 然后將某些哈希桶移動到這個空節點里面。
  • 另一方面, 如果要添加的新節點是一個從節點, 那么我們需要將這個新節點設置為集群中某個節點的復制品(replica)。

本節將對以上兩種情況進行介紹, 首先介紹主節點的添加方法, 然后再介紹從節點的添加方法。

無論添加的是那種節點, 第一步要做的總是添加一個空節點。

我們可以繼續使用之前啟動 127.0.0.1:7000127.0.0.1:7001 等節點的方法, 創建一個端口號為 7006 的新節點, 使用的配置文件也和之前一樣, 只是記得要將配置中的端口號改為 7000

以下是啟動端口號為 7006 的新節點的詳細步驟:

  1. 在終端里創建一個新的標簽頁。
  2. 進入 cluster-test 文件夾。
  3. 創建并進入 7006 文件夾。
  4. redis.conf 文件復制到 7006 文件夾里面,然后將配置中的端口號選項改為 7006
  5. 使用命令 ../../redis-server redis.conf 啟動節點。

如果一切正常, 那么節點應該會正確地啟動。

接下來, 執行以下命令, 將這個新節點添加到集群里面:

./redis-trib.rb addnode 127.0.0.1:7006 127.0.0.1:7000

命令中的 addnode 表示我們要讓 redis-trib 將一個節點添加到集群里面, addnode 之后跟著的是新節點的 IP 地址和端口號, 再之后跟著的是集群中任意一個已存在節點的 IP 地址和端口號, 這里我們使用的是 127.0.0.1:7000

通過 cluster nodes 命令, 我們可以確認新節點 127.0.0.1:7006 已經被添加到集群里面了:

redis 127.0.0.1:7006> cluster nodes
3e3a6cb0d9a9a87168e266b0a0b24026c0aae3f0 127.0.0.1:7001 master - 0 1385543178575 0 connected 5960-10921
3fc783611028b1707fd65345e763befb36454d73 127.0.0.1:7004 slave 3e3a6cb0d9a9a87168e266b0a0b24026c0aae3f0 0 1385543179583 0 connected
f093c80dde814da99c5cf72a7dd01590792b783b :0 myself,master - 0 0 0 connected
2938205e12de373867bf38f1ca29d31d0ddb3e46 127.0.0.1:7002 slave 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 0 1385543178072 3 connected
a211e242fc6b22a9427fed61285e85892fa04e08 127.0.0.1:7003 slave 97a3a64667477371c4479320d683e4c8db5858b1 0 1385543178575 0 connected
97a3a64667477371c4479320d683e4c8db5858b1 127.0.0.1:7000 master - 0 1385543179080 0 connected 0-5959 10922-11422
3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 127.0.0.1:7005 master - 0 1385543177568 3 connected 11423-16383

新節點現在已經連接上了集群, 成為集群的一份子, 并且可以對客戶端的命令請求進行轉向了, 但是和其他主節點相比, 新節點還有兩點區別:

  • 新節點沒有包含任何數據, 因為它沒有包含任何哈希桶。
  • 盡管新節點沒有包含任何哈希桶, 但它仍然是一個主節點, 所以在集群需要將某個從節點升級為新的主節點時, 這個新節點不會被選中。

接下來, 只要使用 redis-trib 程序, 將集群中的某些哈希桶移動到新節點里面, 新節點就會成為真正的主節點了。

因為使用 redis-trib 移動哈希桶的方法在前面已經介紹過, 所以這里就不再重復介紹了。

現在, 讓我們來看看, 將一個新節點轉變為某個主節點的復制品(也即是從節點)的方法。

舉個例子, 如果我們打算讓新節點成為 127.0.0.1:7005 的從節點, 那么我們只要用客戶端連接上新節點, 然后執行以下命令就可以了:

redis 127.0.0.1:7006> cluster replicate 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e

其中命令提供的 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 就是主節點 127.0.0.1:7005 的節點 ID 。

執行 cluster replicate 命令之后, 我們可以使用以下命令來確認 127.0.0.1:7006 已經成為了 ID 為 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 的節點的從節點:

$ redis-cli -p 7000 cluster nodes | grep slave | grep 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e
f093c80dde814da99c5cf72a7dd01590792b783b 127.0.0.1:7006 slave 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 0 1385543617702 3 connected
2938205e12de373867bf38f1ca29d31d0ddb3e46 127.0.0.1:7002 slave 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 0 1385543617198 3 connected

3c3a0c... 現在有兩個從節點, 一個從節點的端口號為 7002 , 而另一個從節點的端口號為 7006

移除一個節點?

未完待續。

討論 ?

comments powered by Disqus
四川快乐12开奖时间