主頁 > 知識庫 > 談?wù)凴edis分布式鎖的正確實現(xiàn)方法

談?wù)凴edis分布式鎖的正確實現(xiàn)方法

熱門標簽:南京手機外呼系統(tǒng)廠家 四川穩(wěn)定外呼系統(tǒng)軟件 一個地圖標注多少錢 地圖標注工廠入駐 400電話辦理的口碑 廊坊外呼系統(tǒng)在哪買 b2b外呼系統(tǒng) 臺灣電銷 高碑店市地圖標注app

前言

最近在參加學校安排的實訓任務(wù),我們小組需完成一套分布式微服務(wù)跨境電商,雖然這題目看起來有點老套,并且隊友多是 Java 技術(shù)棧,所以我光榮(被迫)
的成為了一名前端,并順路使用 PHP 的 Swoole 幫助負責服務(wù)器端的同學編寫了幾個微服務(wù)模塊。在小組成員之間的協(xié)作中,還是出現(xiàn)了不少有趣的火花。

在昨天 review 隊友代碼的過程中,發(fā)現(xiàn)了我們組分布式鎖的寫法似乎有點問題,實現(xiàn)代碼如下:

加鎖部分

解鎖部分

主要原理是使用了 redis 的 setnx 去插入一組 key-value,其中 key 要上鎖的標識(在項目中是鎖死用戶 userId),如果上鎖失敗則返回 false。但是根據(jù)二段鎖的思路,仔細思考會存在這么一個有趣的現(xiàn)象:

假設(shè)微服務(wù) A 的某個請求對 userId = 7 的用戶上鎖,則微服務(wù) A 的這個請求可以讀取這個用戶的信息,且可以修改其內(nèi)容 ;其他模塊只能讀取這個用戶的信息,無法修改其內(nèi)容。
假設(shè)微服務(wù) A 的當前請求對 userId = 7 的用戶解鎖,則所有模塊可以讀取這個用戶的信息,且可以修改其內(nèi)容
如此一來:

  • 若微服務(wù)模塊 A 接收到另一個需要修改 userId = 7 的用戶 的請求時,假設(shè)這個用戶還在被鎖狀態(tài)下,這次請求可以修改它嗎?(可以,解個鎖就行)
  • 若微服務(wù)模塊 B 接收到另一個需要修改 userId = 7 的用戶 的請求時,假設(shè)這個用戶還在被鎖狀態(tài)下,這次請求可以修改它嗎?(可以,解個鎖就行)
  • 若微服務(wù)模塊 A 執(zhí)行上鎖的請求中途意外崩掉,其他用戶還能修改信息嗎? (可以,解個鎖就行)

很明顯,這三點并不是我們所希望的。那么如何實現(xiàn)分布式鎖才是最佳實踐吶?

一個好的分布式鎖需要實現(xiàn)什么

  • 由某個模塊的某次請求上鎖,并且只有由這個模塊的這次請求解鎖(互斥,只能有一個微服務(wù)的某次請求持有鎖)
  • 若上鎖模塊的上鎖請求超時執(zhí)行,則應(yīng)自動解鎖,并還原其所做修改(容錯,就算 一個持有鎖的微服務(wù)宕機也不影響最終其他模塊的上鎖 )

我們應(yīng)該怎么做

綜上所述,我們小組的分布式鎖在實現(xiàn)模塊互斥的情況下,忽略的一個重要問題便是“請求互斥”。我們只需要在加鎖時,key-value 的值保存為當前請求的 requestId ,解鎖時加多一次判斷,是否為同一請求即可。

那么這么修改之后,我們可以高枕無憂了嗎?

是的,夠用了。因為我們開發(fā)環(huán)境 Redis 是統(tǒng)一用一臺服務(wù)器上的單例,采用上述方式實現(xiàn)的分布式鎖并沒有什么問題,但在準備部署到生產(chǎn)環(huán)境下時,突然意識到一個問題:如果實現(xiàn)主從讀寫分離,redis 多機主從同步數(shù)據(jù)時,采用的是異步復制,也便是一個“寫”操作到我們的 reids 主庫之后,便馬上返回成功(并不會等到同步到從庫后再返回,如果這種是同步完成后再返回便是同步復制),這將會造成一個問題:

假設(shè)我們的模塊 A中 id=1 的請求上鎖成功后,沒同步到從庫前主庫被我們玩壞了(宕機),則 redis 哨兵將會從從庫中選擇出一臺新的主庫,此時若模塊 A 中 id=2 的請求重新請求加鎖,將會是成功的。

技不如人,我們只能借助搜索引擎劃水了(大霧),發(fā)現(xiàn)這種情況還真的有通用的解決方案:redlock。

怎么實現(xiàn) Redlock 分布式安全鎖

首先 redlock 是 redis 官方文檔推薦的實現(xiàn)方式,本身并沒有用到主從層面的架構(gòu),采用的是多態(tài)主庫,依次去取鎖的方式。假設(shè)這里有 5 臺主庫,整體流程大致如下:

加鎖

  1. 應(yīng)用層請求加鎖
  2. 依次向 5 臺 redis 服務(wù)器發(fā)送請求
  3. 若有超過半數(shù)的服務(wù)器返回加鎖成功,則完成加鎖,如果沒有則自動執(zhí)行解鎖,并等待一段隨機時間后重試。(客觀原因加鎖失?。壕W(wǎng)絡(luò)情況不好、服務(wù)器未響應(yīng)等問題, 等待一段隨機時間后重試可以避開“蜂擁而進”的情況造成服務(wù)器資源占用瞬時猛增 )
  4. 如有其中任意一臺服務(wù)器已經(jīng)持有該鎖,則加鎖失敗, 等待一段隨機時間后重試。 (主觀原因加鎖失?。阂呀?jīng)被被別人鎖上了)

解鎖

直接向 5 臺服務(wù)器發(fā)起請求即可,無論這臺服務(wù)器上是不是已經(jīng)有鎖。

整體思路很簡單,但是實現(xiàn)起來仍有許多值得注意的地方。在向這 5 臺服務(wù)器發(fā)送加鎖請求時,由于會帶上一個過期時間以保證上文所提到的“自動解鎖(容錯性) ”,考慮到延時等原因,這 5 臺機自動解鎖的時間不完全相同,因此存在一個加

鎖時間差的問題,一般而言是這么解決的:

  • 在加鎖之前,必須在應(yīng)用層(或者把分布式鎖單獨封裝成一個全局通用的微服務(wù)亦可)2. 記錄請求加鎖的時間戳 T1
  • 完成最后一臺 redis 主庫加鎖后,記錄時間戳 T2
  • 則加鎖所需時間為 T1 – T2
  • 假設(shè)資源自動解鎖的時間為 10 秒后,則資源真正可利用的時間為 10 – T1 + T2。若

可利用時間不符合預(yù)期,或者為負數(shù),你懂的,重新來一遍吧。

如果你對鎖的過期時間有著更加嚴格的把控,可以把 T1 到第一臺服務(wù)器加鎖成功的時間單獨記錄,再在最后的可用時間上加上這段時間即可得到一個更加準確的值

現(xiàn)在考慮另一個問題,如果恰好某次請求的鎖保存在了三臺服務(wù)器上,其中這三臺都宕機了(怎么這么倒霉.. TAT),那此時另一個請求又來請求加鎖,豈不又回到最初我們小組所面臨的問題了?很遺憾的說,是的,在這種問題上官方文檔給出的答案是:啟用AOF持久化功能情況會得到好轉(zhuǎn) 🙂

關(guān)于性能方面的處理, 一般而言不止要求低延時,同時要求高吞吐量,我們可以按照官方文檔的說法, 采用多路傳輸同時對 5 臺 redis 主庫進行通信以降低整體耗時,或者把 socket 設(shè)置成非阻塞模式 (這樣的好處是發(fā)送命令時并不等待返回,因此可以一次性發(fā)送全部命令再進行等待整體運行結(jié)果,雖然本人認為通常情況下如果本身網(wǎng)絡(luò)延遲極低的情況下作用不大,等待服務(wù)器處理的時間占比會更加大)

總結(jié)

以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對腳本之家的支持。

您可能感興趣的文章:
  • SpringBoot使用Redisson實現(xiàn)分布式鎖(秒殺系統(tǒng))
  • Java Redis分布式鎖的正確實現(xiàn)方式詳解
  • Redis實現(xiàn)分布式鎖和等待序列的方法示例
  • 淺談Redis分布式鎖的正確實現(xiàn)方式
  • 淺談Java(SpringBoot)基于zookeeper的分布式鎖實現(xiàn)
  • Java使用Redisson分布式鎖實現(xiàn)原理
  • java基于jedisLock—redis分布式鎖實現(xiàn)示例代碼
  • Redis實現(xiàn)分布式鎖的幾種方法總結(jié)
  • 分布式鎖三種實現(xiàn)方式及對比

標簽:甘南 拉薩 泰州 定州 河源 伊春 畢節(jié) 南寧

巨人網(wǎng)絡(luò)通訊聲明:本文標題《談?wù)凴edis分布式鎖的正確實現(xiàn)方法》,本文關(guān)鍵詞  談?wù)?Redis,分布式,鎖,的,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《談?wù)凴edis分布式鎖的正確實現(xiàn)方法》相關(guān)的同類信息!
  • 本頁收集關(guān)于談?wù)凴edis分布式鎖的正確實現(xiàn)方法的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章