58同城一面面經:Redis數據更新,是先更新數據庫還是先更新緩存?

項目部分:

1、項目背景還有項目流程

2、從抓包開始到最終顯示的時間是多少?

3、有沒有調研?每天某個時段的數據流量?

4、如果我在這邊頻繁刷流量,大約多長時間可以發現異常??

5、redis作為高速緩存和數據庫的數據一致性的問題,如果數據更新的話是先更新數據庫還是先更新緩存?若果先更新數據庫再更新緩存會涉及什麼問題

基礎部分:

1、hashMap底層?為什麼jdk1.8要用紅黑樹實現?什麼時候會出現線程不安全?怎麼解決線程不安全?默認初始容量是16,如果我改成7,容量會變成7麼?為什麼?

2、數組和鏈表的區別是什麼?如果一個數組大小超過堆中剩下的內存大小,還會為這個數組分配內存麼?

3、常見的線程池有哪些?線程池中一個線程死了,就沒有線程了麼?如果在線程池中new了一個線程,這個線程是存在還是不存在?線程池中的一些參數有哪些?newCachedPool最大可開啟的線程數是多少?

4、如何實現其他線程和主線程的同步?

5、volatile關鍵字的特性有哪些?

6、10個線程,如何實現和主線程的同步?場景是:10個人在山下聚齊之後才可以一起爬山,怎麼實現?不用synchronized關鍵字、volatile等同步的關鍵字。

7、平時建mysql表的時候會考慮一些什麼?

8、寫sql語句的時候where會考慮什麼?




5、redis作為高速緩存和數據庫的數據一致性的問題,如果數據更新的話是先更新數據庫還是先更新緩存?若果先更新數據庫再更新緩存會涉及什麼問題

首先,緩存由於其高併發和高性能的特性,已經在項目中被廣泛使用。在讀取緩存方面,大家沒啥疑問,都是按照下圖的流程來進行業務操作。

58同城一面面經:Redis數據更新,是先更新數據庫還是先更新緩存?


但是在更新緩存方面,對於更新完數據庫,是更新緩存呢,還是刪除緩存。又或者是先刪除緩存,再更新數據庫,其實大家存在很大的爭議。

先做一個說明,從理論上來說,給緩存設置過期時間,是保證最終一致性的解決方案。這種方案下,我們可以對存入緩存的數據設置過期時間,所有的寫操作以數據庫為準,對緩存操作只是盡最大努力即可。也就是說如果數據庫寫成功,緩存更新失敗,那麼只要到達過期時間,則後面的讀請求自然會從數據庫中讀取新值然後回填緩存。因此,接下來討論的思路不依賴於給緩存設置過期時間這個方案。

在這裡,我們討論三種更新策略:

先更新數據庫,再更新緩存

先刪除緩存,再更新數據庫

先更新數據庫,再刪除緩存

應該沒人問我,為什麼沒有先更新緩存,再更新數據庫這種策略。

(1)先更新數據庫,再更新緩存

這套方案,大家是普遍反對的。為什麼呢?有如下兩點原因。

- 原因一(線程安全角度)

同時有請求A和請求B進行更新操作,那麼會出現

(1)線程A更新了數據庫

(2)線程B更新了數據庫

(3)線程B更新了緩存

(4)線程A更新了緩存

這就出現請求A更新緩存應該比請求B更新緩存早才對,但是因為網絡等原因,B卻比A更早更新了緩存。這就導致了髒數據,因此不考慮。

- 原因二(業務場景角度)

有如下兩點:

(1)如果你是一個寫數據庫場景比較多,而讀數據場景比較少的業務需求,採用這種方案就會導致,數據壓根還沒讀到,緩存就被頻繁的更新,浪費性能。

(2)如果你寫入數據庫的值,並不是直接寫入緩存的,而是要經過一系列複雜的計算再寫入緩存。那麼,每次寫入數據庫後,都再次計算寫入緩存的值,無疑是浪費性能的。顯然,刪除緩存更為適合。

接下來討論的就是爭議最大的,先刪緩存,再更新數據庫。還是先更新數據庫,再刪緩存的問題。

(2)先刪緩存,再更新數據庫

該方案會導致不一致的原因是。同時有一個請求A進行更新操作,另一個請求B進行查詢操作。那麼會出現如下情形:

(1)請求A進行寫操作,刪除緩存

(2)請求B查詢發現緩存不存在

(3)請求B去數據庫查詢得到舊值

(4)請求B將舊值寫入緩存

(5)請求A將新值寫入數據庫

上述情況就會導致不一致的情形出現。而且,如果不採用給緩存設置過期時間策略,該數據永遠都是髒數據。

那麼,如何解決呢?採用延時雙刪策略

偽代碼如下


<code>public void write(String key,Object data){/<code>
<code>redis.delKey(key);/<code>
<code>db.updateData(data);/<code>
<code>Thread.sleep(1000);/<code>
<code>redis.delKey(key);/<code>
<code>}/<code>

轉化為中文描述就是

(1)先淘汰緩存

(2)再寫數據庫(這兩步和原來一樣)

(3)休眠1秒,再次淘汰緩存

這麼做,可以將1秒內所造成的緩存髒數據,再次刪除。

那麼,這個1秒怎麼確定的,具體該休眠多久呢?

針對上面的情形,讀者應該自行評估自己的項目的讀數據業務邏輯的耗時。然後寫數據的休眠時間則在讀數據業務邏輯的耗時基礎上,加幾百ms即可。這麼做的目的,就是確保讀請求結束,寫請求可以刪除讀請求造成的緩存髒數據。

如果你用了mysql的讀寫分離架構怎麼辦?

ok,在這種情況下,造成數據不一致的原因如下,還是兩個請求,一個請求A進行更新操作,另一個請求B進行查詢操作。

(1)請求A進行寫操作,刪除緩存

(2)請求A將數據寫入數據庫了,

(3)請求B查詢緩存發現,緩存沒有值

(4)請求B去從庫查詢,這時,還沒有完成主從同步,因此查詢到的是舊值

(5)請求B將舊值寫入緩存

(6)數據庫完成主從同步,從庫變為新值

上述情形,就是數據不一致的原因。還是使用雙刪延時策略。只是,睡眠時間修改為在主從同步的延時時間基礎上,加幾百ms。

採用這種同步淘汰策略,吞吐量降低怎麼辦?

ok,那就將第二次刪除作為異步的。自己起一個線程,異步刪除。這樣,寫的請求就不用沉睡一段時間後了,再返回。這麼做,加大吞吐量。

第二次刪除,如果刪除失敗怎麼辦?

這是個非常好的問題,因為第二次刪除失敗,就會出現如下情形。還是有兩個請求,一個請求A進行更新操作,另一個請求B進行查詢操作,為了方便,假設是單庫:

(1)請求A進行寫操作,刪除緩存

(2)請求B查詢發現緩存不存在

(3)請求B去數據庫查詢得到舊值

(4)請求B將舊值寫入緩存

(5)請求A將新值寫入數據庫

(6)請求A試圖去刪除請求B寫入對緩存值,結果失敗了。

ok,這也就是說。如果第二次刪除緩存失敗,會再次出現緩存和數據庫不一致的問題。

如何解決呢?

具體解決方案,且看博主對第(3)種更新策略的解析。

(3)先更新數據庫,再刪緩存

首先,先說一下。老外提出了一個緩存更新套路,名為《Cache-Aside pattern》。其中就指出

失效:應用程序先從cache取數據,沒有得到,則從數據庫中取數據,成功後,放到緩存中。

命中:應用程序從cache中取數據,取到後返回。

更新:先把數據存到數據庫中,成功後,再讓緩存失效。

另外,知名社交網站facebook也在論文《Scaling Memcache at Facebook》中提出,他們用的也是先更新數據庫,再刪緩存的策略。

這種情況不存在併發問題麼?

不是的。假設這會有兩個請求,一個請求A做查詢操作,一個請求B做更新操作,那麼會有如下情形產生

(1)緩存剛好失效

(2)請求A查詢數據庫,得一箇舊值

(3)請求B將新值寫入數據庫

(4)請求B刪除緩存

(5)請求A將查到的舊值寫入緩存

ok,如果發生上述情況,確實是會發生髒數據

然而,發生這種情況的概率又有多少呢?

發生上述情況有一個先天性條件,就是步驟(3)的寫數據庫操作比步驟(2)的讀數據庫操作耗時更短,才有可能使得步驟(4)先於步驟(5)。可是,大家想想,數據庫的讀操作的速度遠快於寫操作的(不然做讀寫分離幹嘛,做讀寫分離的意義就是因為讀操作比較快,耗資源少),因此步驟(3)耗時比步驟(2)更短,這一情形很難出現。

假設,有人非要抬槓,有強迫症,一定要解決怎麼辦?

如何解決上述併發問題?

首先,給緩存設有效時間是一種方案。其次,採用策略(2)裡給出的異步延時刪除策略,保證讀請求完成以後,再進行刪除操作。

還有其他造成不一致的原因麼?

有的,這也是緩存更新策略(2)和緩存更新策略(3)都存在的一個問題,如果刪緩存失敗了怎麼辦,那不是會有不一致的情況出現麼。比如一個寫數據請求,然後寫入數據庫了,刪緩存失敗了,這會就出現不一致的情況了。這也是緩存更新策略(2)裡留下的最後一個疑問。

如何解決?

提供一個保障的重試機制即可,這裡給出兩套方案。

方案一:

如下圖所示

58同城一面面經:Redis數據更新,是先更新數據庫還是先更新緩存?


流程如下所示

(1)更新數據庫數據;

(2)緩存因為種種問題刪除失敗

(3)將需要刪除的key發送至消息隊列

(4)自己消費消息,獲得需要刪除的key

(5)繼續重試刪除操作,直到成功

然而,該方案有一個缺點,對業務線代碼造成大量的侵入。於是有了方案二,在方案二中,啟動一個訂閱程序去訂閱數據庫的binlog,獲得需要操作的數據。在應用程序中,另起一段程序,獲得這個訂閱程序傳來的信息,進行刪除緩存操作。

方案二:

58同城一面面經:Redis數據更新,是先更新數據庫還是先更新緩存?


流程如下圖所示:

(1)更新數據庫數據

(2)數據庫會將操作信息寫入binlog日誌當中

(3)訂閱程序提取出所需要的數據以及key

(4)另起一段非業務代碼,獲得該信息

(5)嘗試刪除緩存操作,發現刪除失敗

(6)將這些信息發送至消息隊列

(7)重新從消息隊列中獲得該數據,重試操作。

備註說明:上述的訂閱binlog程序在mysql中有現成的中間件叫canal,可以完成訂閱binlog日誌的功能。至於oracle中,博主目前不知道有沒有現成中間件可以使用。另外,重試機制,博主是採用的是消息隊列的方式。如果對一致性要求不是很高,直接在程序中另起一個線程,每隔一段時間去重試即可,這些大家可以靈活自由發揮,只是提供一個思路。


存粒度控制

選用全量屬性,通用性會更好,也便於維護,像user表這種,用全量屬性還可以,

但我們選用緩存就需要考慮性能和空間的問題,只保存我們需要的屬性就好了(但後期表結構改了,維護性很差)

緩存穿透:(直接對存儲層操作,失去了緩存層的意義)

查詢一個數據庫中不存在的數據,比如商品詳情,查詢一個不存在的ID,每次都會訪問DB,如果有人惡意破壞,很可能直接對DB造成過大地壓力。

解決方案:

1.當通過某一個key去查詢數據的時候,如果對應在數據庫中的數據都不存在,我們將此key對應的value設置為一個默認的值,比如“NULL”,並設置一個緩存的失效時間,這時在緩存失效之前,所有通過此key的訪問都被緩存擋住了。後面如果此key對應的數據在DB中存在時,緩存失效之後,通過此key再去訪問數據,就能拿到新的value了。

2.常見的則是採用布隆過濾器(可以用很小的內存保留很多的數據),將所有可能存在的數據哈希到一個足夠大的bitmap中,一個一定不存在的數據會被 這個bitmap攔截掉,從而避免了對底層存儲系統的查詢壓力。(布隆過濾器:實際上是一個很長的二進制向量和一系列隨機映射函數。布隆過濾器可以用於檢索一個元素是否在一個集合中。它的優點是空間效率和查詢時間都遠遠超過一般的算法,缺點是有一定的誤識別率和刪除困難。)

關於布隆過濾器:

58同城一面面經:Redis數據更新,是先更新數據庫還是先更新緩存?


緩存雪崩:(緩存失效)

緩存同一時間大面積的失效,所以,後面的請求都會落到數據庫上,造成數據庫短時間內承受大量請求而崩掉。

解決方案:

1.將系統中key的緩存失效時間均勻地錯開,防止統一時間點有大量的key對應的緩存失效;

2.重新設計緩存的使用方式,當我們通過key去查詢數據時,首先查詢緩存,如果此時緩存中查詢不到,就通過分佈式鎖進行加鎖,取得鎖的進程查DB並設置緩存,然後解鎖;其他進程如果發現有鎖就等待,然後等解鎖後返回緩存數據或者再次查詢DB。

3.儘量保證整個 redis 集群的高可用性,發現機器宕機儘快補上

4.本地ehcache緩存 + hystrix限流&降級,避免MySQL崩掉

假如已經崩潰了:也可以利用redis的持久化機制將保存的數據儘快恢復到緩存裡。

緩存無底洞:

為了滿足業務大量加節點,但是性能沒提升反而下降。

當客戶端增加一個緩存的時候,只需要 mget 一次,但是如果增加到三臺緩存,這個時候則需要 mget 三次了(網絡通信的時間增加了),每增加一臺,客戶端都需要做一次新的 mget,給服務器造成性能上的壓力。

同時,mget 需要等待最慢的一臺機器操作完成才能算是完成了 mget 操作。這還是並行的設計,如果是串行的設計就更加慢了。

通過上面這個實例可以總結出:更多的機器!=更高的性能

但是並不是沒辦法,一般在優化 IO 的時候可以採用以下幾個方法。

1.命令的優化。例如慢查下 keys、hgetall bigkey。

2.我們需要減少網絡通訊的次數。這個優化在實際應用中使用次數是最多的,我們儘量減少通訊次數。

3.降低接入成本。比如使用客戶端長連接或者連接池、NIO 等等。

1、hashMap底層?為什麼jdk1.8要用紅黑樹實現?什麼時候會出現線程不安全?怎麼解決線程不安全?默認初始容量是16,如果我改成7,容量會變成7麼??為什麼?


在JDK1.6,JDK1.7中,HashMap採用位桶+鏈表實現,即使用鏈表處理衝突,同一hash值的鏈表都存儲在一個鏈表裡。但是當位於一個桶中的元素較多,即hash值相等的元素較多時,通過key值依次查找的效率較低。而JDK1.8中,HashMap採用位桶+鏈表+紅黑樹實現,當鏈表長度超過閾值(8)時,將鏈表轉換為紅黑樹,這樣大大減少了查找時間。

不安全原因:

(1) 在put的時候,因為該方法不是同步的,假如有兩個線程A,B它們的put的key的hash值相同,不論是從頭插入還是從尾插入,假如A獲取了插入位置為x,但是還未插入,此時B也計算出待插入位置為x,則不論AB插入的先後順序肯定有一個會丟失

以下是put方法

58同城一面面經:Redis數據更新,是先更新數據庫還是先更新緩存?


(2) 在擴容的時候,jdk1.8之前是採用頭插法,當兩個線程同時檢測到hashmap需要擴容,在進行同時擴容的時候有可能會造成鏈表的循環,主要原因就是,採用頭插法,新鏈表與舊鏈表的順序是反的,在1.8後採用尾插法就不會出現這種問題,同時1.8的鏈表長度如果大於8就會轉變成紅黑樹。

默認容量為16的原因:

關於這個默認容量的選擇,JDK並沒有給出官方解釋,筆者也沒有在網上找到關於這個任何有價值的資料。(如果哪位有相關的權威資料或者想法,可以留言交流)

根據作者的推斷,這應該就是個經驗值(Experience Value),既然一定要設置一個默認的2^n 作為初始值,那麼就需要在效率和內存使用上做一個權衡。這個值既不能太小,也不能太大。

太小了就有可能頻繁發生擴容,影響效率。太大了又浪費空間,不划算。

所以,16就作為一個經驗值被採用了。

2、常見的線程池有哪些?線程池中一個線程死了,就沒有線程了麼?如果在線程池中new了一個線程,這個線程是存在還是不存在?線程池中的一些參數有哪些?newCachedPool最大可開啟的線程數是多少?


常見的線程池:

1、newCachedThreadPool

創建一個可緩存線程池,如果線程池長度超過處理需要,可靈活回收空閒線程,若無可回收,則新建線程。

這種類型的線程池特點是:

工作線程的創建數量幾乎沒有限制(其實也有限制的,數目為Interger. MAX_VALUE), 這樣可靈活的往線程池中添加線程。如果長時間沒有往線程池中提交任務,即如果工作線程空閒了指定的時間(默認為1分鐘),則該工作線程將自動終止。終止後,如果你又提交了新的任務,則線程池重新創建一個工作線程。在使用CachedThreadPool時,一定要注意控制任務的數量,否則,由於大量線程同時運行,很有會造成系統癱瘓。

2、newFixedThreadPool

創建一個指定工作線程數量的線程池。每當提交一個任務就創建一個工作線程,如果工作線程數量達到線程池初始的最大數,則將提交的任務存入到池隊列中。FixedThreadPool是一個典型且優秀的線程池,它具有線程池提高程序效率和節省創建線程時所耗的開銷的優點。但是,在線程池空閒時,即線程池中沒有可運行任務時,它不會釋放工作線程,還會佔用一定的系統資源。

3、newSingleThreadExecutor

創建一個單線程化的Executor,即只創建唯一的工作者線程來執行任務,它只會用唯一的工作線程來執行任務,保證所有任務按照指定順序(FIFO, LIFO, 優先級)執行。如果這個線程異常結束,會有另一個取代它,保證順序執行。單工作線程最大的特點是可保證順序地執行各個任務,並且在任意給定的時間不會有多個線程是活動的。

4、newScheduleThreadPool

創建一個定長的線程池,而且支持定時的以及週期性的任務執行,支持定時及週期性任務執行。


手撕代碼

給你一個整數數組 nums 和一個正整數 k,請你判斷是否可以把這個數組劃分成一些由 k 個連續數字組成的集合。

如果可以,請返回 True;否則,返回 False。

示例 1:

輸入:nums = [1,2,3,3,4,4,5,6], k = 4

輸出:true

解釋:數組可以分成 [1,2,3,4] 和 [3,4,5,6]。

示例 2:

輸入:nums = [3,2,1,2,3,4,3,4,5,9,10,11], k = 3

輸出:true

解釋:數組可以分成 [1,2,3] , [2,3,4] , [3,4,5] 和 [9,10,11]。

示例 3:

輸入:nums = [3,3,2,2,1,1], k = 3

輸出:true

示例 4:

輸入:nums = [1,2,3,4], k = 3

輸出:false

解釋:數組不能分成幾個大小為 3 的子數組。


提示:

1 <= nums.length <= 10^5

1 <= nums[i] <= 10^9

1 <= k <= nums.length


58同城一面面經:Redis數據更新,是先更新數據庫還是先更新緩存?


分享到:


相關文章: