2020最新Java工程師面試題-Memcached 面試篇(附答案)


2020最新Java工程師面試題-Memcached 面試篇(附答案)

1、Memcached 是什麼,有什麼作用?

Memcached 是一個開源的,高性能的內存綬存軟件,從名稱上看 Mem 就是內存

的意思,而 Cache 就是緩存的意思.

Memcached 的作用:通過在事先規劃好的內存空間中臨時綬存數據庫中的各類數據,

以達到減少業務對數據庫的直接高併發訪問.

從而達到提升數據庫的訪問性能,加速網站集群動態應用服務的能力。

memcached 服務在企業集群架構中有哪些應用場景?

一、作為數據庫的前端緩存應用

a、完整緩存(易),靜態緩存

例如:商品分類(京東),以及商品信息,可事先放在內存裡,然後再對外提供

數據訪問,這種先放到內存,我們稱之為預熱,(先把數據存緩存中),用戶訪

問時可以只讀取 memcached 緩存,不讀取數據庫了。

b、執點緩存(難)

需要前端 web 程序配合,只緩存熱點的數據,即緩存經常被訪問的數據。

先預熱數據庫裡的基礎數據,然後在動態更新,選讀取緩存,如果緩存裡沒有對

應的數據,程序再去讀取數據庫,然後程序把讀取的新數據放入緩存存儲。

特殊說明 :

如果碰到電商秒殺等高併發的業務,一定要事先預熱,或者其它思想實現,

例如:稱殺只是獲取資格,而不是瞬間秒殺到手商品。

那麼什麼是獲取資格?

就是在數據庫中,把 0 標成 1.就有資格啦。再慢慢的去領取商品訂單。

因為秒殺過程太長會佔用服務器資源。

如果數據更新,同時觸發緩存更新,防止給用戶過期數據。

對於持久化緩存存儲系統,例如:redis,可以替代一部分數據庫的存儲,

一些簡單的數據業務,投票,統計,好友關注,商品分類等。

nosql= not only sql

二、作業集群的 session 會話共享存儲。

Memcached 服務在不同企業業務應用場景中的工作流程

當 web 程序需要訪問後端數據庫獲取數據時會優先訪問 Memcached 內

存緩存,

如果緩存中有數據就直接獲取返回前端服務及用戶,

如果沒有數據(沒有命中),在由程序請求後端的數據庫服務器,獲取到對應的數據後,

除了返回給前端服務及用戶數據外,還會把數據放到 Memcached 內存中進行緩存,

等待下次請求被訪問,Memcache 內存始終是數據庫的擋箭牌,從而大大的減輕

數據庫的訪問壓力,提高整個網站架構的響應速度,提升了用戶體驗。

當程序更新,修改或刪除數據庫中已有的數據時,會同時發送請求通知

Memcached 已經緩存的同一個 ID 內容的舊數據失效,從而保證 Memcache

中數據和數據庫中的數據一致。

如果在高併發場合,除了通知 Memcached 過程的緩存失效外,還會通

過相關機制,使得在用戶訪問新數據前,通過程序預先把更新過的數據推送到

memcache 中緩存起來,這樣可以減少數據庫的訪問壓力,提升 Memcached

中緩存命中率。

數據庫插件可以再寫入更新數據庫後,自動拋給 MC 緩存起來,自身不Cache.

2、Memcached 服務分佈式集群如何實現?

特殊說明:Memcached 集群和 web 服務集群是不一樣的,所有 Memcached 的

數據總和才是數據庫的數據。每臺 Memcached 都是部分數據。

(一臺 memcached 的數據,就是一部分 mysql 數據庫的數據)

a、程序端實現

程序加載所有 mc 的 ip 列表,通過對 key 做 hash (一致性哈希算法)

例如:web1 (key)===>對應 A,B,C,D,E,F,G…..若干臺服務器。

(通過哈希算法實現)

b、負載均衡器

通過對 key 做 hash (一致性哈希算法)

一致哈希算法的目的是不但保證每個對象只請求一個對應的服務器,而且當節點

宕機,緩存服務器的更新重新分配比例降到最低。

3、Memcached 服務特點及工作原理是什麼?

a、完全基於內存緩存的

b、節點之間相互獨立

c、C/S 模式架構,C 語言編寫,總共 2000 行代碼。

d、異步I/O 模型,使用 libevent 作為事件通知機制。

e、被緩存的數據以 key/value 鍵值對形式存在的。

f、全部數據存放於內存中,無持久性存儲的設計,重啟服務器,內存裡的數據會

丟失。

g、當內存中緩存的數據容量達到啟動時設定的內存值時,就自動使用 LRU 算法

刪除過期的緩存數據。

h、可以對存儲的數據設置過期時間,這樣過期後的數據自動被清除,服務本身不

會監控過期,而是在訪問的時候查看 key 的時間戳,判斷是否過期。

j、memcache 會對設定的內存進行分塊,再把塊分組,然後再提供服務。

4、簡述 Memcached 內存管理機制原理?

早期的 Memcached 內存管理方式是通過 malloc 的分配的內存,使用完後通過

free 來回收內存,這種方式容易產生內存碎片,並降低操作系統對內存的管理效

率。加重操作系統內存管理器的負擔,最壞的情況下,會導致操作系統比

memcached 進程本身還慢,為了解決這個問題,Slab Allocation 內存分配機制

就延生了。

現在 Memcached 利用 Slab Allocation 機制來分配和管理內存。

Slab

Allocation 機制原理是按照預先規定的大小,將分配給 memcached 的內存分割

成特定長度的內存塊(chunk),再把尺寸相同的內存塊,分成組

(chunks slab class),這些內存塊不會釋放,可以重複利用。

而且,slab allocator 還有重複使用已分配的內存的目的。 也就是說,分配到的

內存不會釋放,而是重複利用。

Slab Allocation 的主要術語

Page

分配給 Slab 的內存空間,默認是 1MB。分配給 Slab 之後根據 slab 的大小切分成

chunk。

Chunk

用於緩存記錄的內存空間。

SlabClass

特定大小的 chunk 的組。

集群架構方面的問題

5、memcached 是怎麼工作的?

Memcached 的神奇來自兩階段哈希(two-stage hash)。Memcached 就像一

個巨大的、存儲了很多對的哈希表。

通過 key,可以存儲或查詢任意的數據。

客戶端可以把數據存儲在多臺 memcached 上。當查詢數據時,客戶端首先參考

節點列表計算出 key 的哈希值(階段一哈希),進而選中一個節點;

客戶端將請求發送給選中的節點,然後 memcached 節點通過一個內部的哈希算法(階段二

哈希),查找真正的數據(item)。

6、memcached 最大的優勢是什麼?

Memcached 最大的好處就是它帶來了極佳的水平可擴展性,特別是在一個巨大的

系統中。由於客戶端自己做了一次哈希,那麼我們很容易增加大量 memcached

到集群中。memcached 之間沒有相互通信,因此不會增加 memcached 的負載;

沒有多播協議,不會網絡通信量爆炸(implode)。memcached 的集群很好用。

內存不夠了?增加幾臺 memcached 吧;CPU 不夠用了?再增加幾臺吧;有多餘

的內存?在增加幾臺吧,不要浪費了。

基於 memcached 的基本原則,可以相當輕鬆地構建出不同類型的緩存架構

7、memcached 和 MySQL 的 query

cache 相比,有什麼優缺點?

把 memcached 引入應用中,還是需要不少工作量的。

MySQL 有個使用方便的query cache,可以自動地緩存 SQL 查詢的結果,被緩存的 SQL 查

詢可以被反覆地快速執行。

Memcached 與之相比,怎麼樣呢?MySQL 的 query cache 是集中

式的,連接到該 query cache 的 MySQL 服務器都會受益。

當您修改表時,MySQL 的 query cache 會立刻被刷新(flush)。

存儲一個 memcached item 只需要很少的時間,但是當寫操作很頻繁時,MySQL

的 query cache 會經常讓所有緩存數據都失效。

在多核 CPU 上,MySQL 的 query cache 會遇到擴展問題(scalability

issues)。在多核 CPU 上,query cache 會增加一個全局鎖(global lock), 由

於需要刷新更多的緩存數據,速度會變得更慢。

在 MySQL 的 query cache 中,我們是不能存儲任意的數據的(只能是

SQL 查詢結果)。

而利用 memcached,我們可以搭建出各種高效的緩存。

比如,可以執行多個獨立的查詢,構建出一個用戶對象(user object),然後將

用戶對象緩存到 memcached 中。

而 query cache 是 SQL 語句級別的,不可能做到這一點。

在小的網站中,query cache 會有所幫助,但隨著網站規模的增加,

query cache 的弊將大於利。

query cache能夠利用的內存容量受到MySQL服務器空閒內存空間的限

制。給數據庫服務器增加更多的內存來緩存數據,固然是很好的。但是,有了

memcached,只要您有空閒的內存,都可以用來增加 memcached 集群的規

模,然後您就可以緩存更多的數據。

8、memcached 和服務器的 local cache(比如 PHP 的 APC、mmap 文件等)相比,有什麼優缺點?

首先,local cache 有許多與上面(query cache)相同的問題。local cache 能夠利

用的內存容量受到(單臺)服務器空閒內存空間的限制。不過,locacache 有一點比

memcached 和 query cache 都要好,那就是它不但可以存儲任

意的數據,而且沒有網絡存取的延遲。

local cache 的數據查詢更快。考慮把 highly common 的數據放在 local

cache 中吧。如果每個頁面都需要加載一些數量較少的數據,考慮把它們放在

local

cached 吧。

local cache 缺少集體失效(group

invalidation)的特性。在 memcached 集群中,刪除或更新一個 key 會讓所有

的觀察者覺察到。但是在local cache中, 我們只能通知所有的服務器刷新cache

(很慢,不具擴展性),或者僅僅依賴緩存超時失效機制。

local cache 面臨著嚴重的內存限制,這一點上面已經提到。

9、memcached 的 cache 機制是怎樣的?

Memcached 主要的 cache 機制是 LRU(最近最少用)算法+超時失效。

當您存數據到 memcached 中,可以指定該數據在緩存中可以呆多久 Which is forever,

or some time in the future。

如果 memcached 的內存不夠用了,過期的 slabs會優先被替換,接著就輪到最老的未被使用的 slabs。

10、memcached 如何實現冗餘機制?

不實現!我們對這個問題感到很驚訝。

Memcached 應該是應用的緩存層。

它的設計本身就不帶有任何冗餘機制。如果一個 memcached 節點失去了所有數據,您

應該可以從數據源(比如數據庫)再次獲取到數據。

您應該特別注意,您的應用應該可以容忍節點的失效。不要寫一些糟糕的查詢代碼,寄希望於

memcached來保證一切!如果您擔心節點失效會大大加重數據庫的負擔,那麼您可以採取一

些辦法。

比如您可以增加更多的節點(來減少丟失一個節點的影響),熱備節點(在其他節點 down

了的時候接管 IP),等等。

11、memcached 如何處理容錯的?

不處理! 在 memcached 節點失效的情況下,集群沒有必要做任何容錯處理。

如果發生了節點失效,應對的措施完全取決於用戶。節點失效時,

下面列出幾種方案供您選擇:

忽略它! 在失效節點被恢復或替換之前,還有很多其他節點可以應對節

點失效帶來的影響。

把失效的節點從節點列表中移除。

做這個操作千萬要小心!在默認情況下(餘數式哈希算法),

客戶端添加或移除節點,會導致所有的緩存數據不可用!

因為哈希參照的節點列表變化了,大部分 key 會因為哈希值的改變而被映射到

(與原來)不同的節點上。

啟動熱備節點,接管失效節點所佔用的 IP。這樣可以防止哈希紊亂

(hashing chaos)。

如果希望添加和移除節點,而不影響原先的哈希結果,可以使用一致性哈

希算法(consistent hashing)。您可以百度一下一致性哈希算法。支持一致性

哈希的客戶端已經很成熟,而且被廣泛使用。去嘗試一下吧!

兩次哈希(reshing)。當客戶端存取數據時,如果發現一個節點 down

了,就再做一次哈希(哈希算法與前一次不同),重新選擇另一個節點(需要注

意的時,客戶端並沒有把 down 的節點從節點列表中移除,下次還是有可能先

哈希到它)。

如果某個節點時好時壞,兩次哈希的方法就有風險了,好的節點和壞的節點上都可能存在髒數據(stale data)。

12、如何將 memcached 中 item 批量導入導出?您不應該這樣做!Memcached 是一個非阻塞的服務器。任何可能導致

memcached 暫停或瞬時拒絕服務的操作都應該值得深思熟慮。向 memcached

中批量導入數據往往不是您真正想要的!想象看,如果緩存數據在導出導入之間

發生了變化,您就需要處理髒數據了;

13、如果緩存數據在導出導入之間過期了,您又怎麼處理這些

數據呢?

因此,批量導出導入數據並不像您想象中的那麼有用。

不過在一個場景倒是很有用。

如果您有大量的從不變化的數據,並且希望緩存很快熱(warm)起來,批量

導入緩存數據是很有幫助的。

雖然這個場景並不典型,但卻經常發生,因此我們會考慮在將來實現批量導出導入的功能。

如果一個 memcached 節點 down 了讓您很痛苦,那麼您還會陷入其他很多麻煩。

您的系統太脆弱了。您需要做一些優化工作。比如處理”驚群”問題(比如

memcached 節點都失效了,反覆的查詢讓您的數據庫不堪重負…這個問題在 FAQ

的其他提到過),或者優化不好的查詢。記住,Memcached 並不是您逃避優化

查詢的藉口。

14、memcached 是如何做身份驗證的?

沒有身份認證機制!memcached 是運行在應用下層的軟件(身份驗證應該是應用

上層的職責)。memcached 的客戶端和服務器端之所以是輕量級的,部分原因就

是完全沒有實現身份驗證機制。這樣,memcached 可以很快地創建新連接,服務

器端也無需任何配置。

如果您希望限制訪問,您可以使用防火牆,或者讓 memcached 監聽 unix domain

socket。

15、memcached 的多線程是什麼?如何使用它們?

線程就是定律(threads rule)!在 Steven Grimm 和 Facebook 的努力下,

memcached 1.2 及更高版本擁有了多線程模式。

多線程模式允許 memcached 能夠充分利用多個 CPU,並在 CPU 之間共享所有的緩存數據。

memcached 使用一種簡單的鎖機制來保證數據更新操作的互斥。

相比在同一個物理機器上運行多個memcached 實例,這種方式能夠更有效地處理 multi gets。

如果您的系統負載並不重,也許您不需要啟用多線程工作模式。如果您在運行一

個擁有大規模硬件的、龐大的網站,您將會看到多線程的好處。

簡單地總結一下:命令解析(memcached 在這裡花了大部分時間)可以運行在多

線程模式下。memcached 內部對數據的操作是基於很多全局鎖的(因此這部分工

作不是多線程的)。

未來對多線程模式的改進,將移除大量的全局鎖,提高memcached 在負載極高的場景下的性能。

16、memcached 能接受的 key 的最大長度是多少?

key 的最大長度是 250 個字符。需要注意的是,250 是 memcached 服務器端內

部的限制,如果您使用的客戶端支持”key 的前綴”或類似特性,那麼 key(前綴

+原始 key)的最大長度是可以超過 250 個字符的。我們推薦使用使用較短的 key,

因為可以節省內存和帶寬。

memcached 對 item 的過期時間有什麼限制?

過期時間最大可以達到 30 天。memcached 把傳入的過期時間(時間段)解釋成

時間點後,一旦到了這個時間點,memcached 就把 item 置為失效狀態。這是一

個簡單但 obscure 的機制。

17、memcached 最大能存儲多大的單個 item?

1MB。如果你的數據大於 1MB,可以考慮在客戶端壓縮或拆分到多個 key 中。

為什麼單個 item 的大小被限制在 1M byte 之內?

啊…這是一個大家經常問的問題!

簡單的回答:因為內存分配器的算法就是這樣的。

詳細的回答:Memcached 的內存存儲引擎(引擎將來可插拔…),使用 slabs 來

管理內存。內存被分成大小不等的 slabs chunks(先分成大小相等的 slabs,然後

每個 slab 被分成大小相等 chunks,不同 slab 的 chunk 大小是不相等的)。chunk

的大小依次從一個最小數開始,按某個因子增長,直到達到最大的可能值。

18、memcached 能夠更有效地使用內存嗎?

Memcache 客戶端僅根據哈希算法來決定將某個 key 存儲在哪個節點上,而不考

慮節點的內存大小。因此,您可以在不同的節點上使用大小不等的緩存。但是一

般都是這樣做的:擁有較多內存的節點上可以運行多個 memcached 實例,每個

實例使用的內存跟其他節點上的實例相同。

19、什麼是二進制協議,我該關注嗎?

關於二進制最好的信息當然是二進制協議規範:

二進制協議嘗試為端提供一個更有效的、可靠的協議,減少客戶端/服務器端因處

理協議而產生的 CPU 時間。

根據 Facebook 的測試,解析 ASCII 協議是 memcached 中消耗 CPU 時間最多的

環節。所以,我們為什麼不改進 ASCII 協議呢?

20、memcached 的內存分配器是如何工作的?為什麼不適用

malloc/free!?為何要使用 slabs?

實際上,這是一個編譯時選項。默認會使用內部的 slab 分配器。您確實確實應該

使用內建的 slab 分配器。最早的時候,memcached 只使用 malloc/free 來管理

內存。然而,這種方式不能與 OS 的內存管理以前很好地工作。反覆地 malloc/free

造成了內存碎片,OS 最終花費大量的時間去查找連續的內存塊來滿足 malloc 的

請求,而不是運行 memcached 進程。如果您不同意,當然可以使用 malloc!只

是不要在郵件列表中抱怨啊

slab 分配器就是為了解決這個問題而生的。內存被分配並劃分成 chunks,一直被

重複使用。因為內存被劃分成大小不等的 slabs,如果 item 的大小與被選擇存放

它的 slab 不是很合適的話,就會浪費一些內存。Steven Grimm 正在這方面已經

做出了有效的改進。

21、memcached 是原子的嗎?

所有的被髮送到 memcached 的單個命令是完全原子的。如果您針對同一份數據

同時發送了一個 set 命令和一個 get 命令,它們不會影響對方。它們將被串行化、

先後執行。即使在多線程模式,所有的命令都是原子的,除非程序有 bug:)

命令序列不是原子的。如果您通過 get 命令獲取了一個 item,修改了它,然後想

把它 set 回 memcached,我們不保證這個 item 沒有被其他進程(process,未

必是操作系統中的進程)操作過。在併發的情況下,您也可能覆寫了一個被其他

進程 set 的 item。

memcached 1.2.5 以及更高版本,提供了 gets 和 cas 命令,它們可以解決上面

的問題。如果您使用 gets 命令查詢某個 key 的 item,memcached 會給您返回

該 item 當前值的唯一標識。如果您覆寫了這個 item 並想把它寫回到 memcached

中,您可以通過 cas 命令把那個唯一標識一起發送給 memcached。如果該 item

存放在 memcached 中的唯一標識與您提供的一致,您的寫操作將會成功。如果

另一個進程在這期間也修改了這個 item,那麼該 item 存放在 memcached 中的

唯一標識將會改變,您的寫操作就會失敗

22、如何實現集群中的 session 共享存儲?

Session 是運行在一臺服務器上的,所有的訪問都會到達我們的唯一服務器上,這

樣我們可以根據客戶端傳來的 sessionID,來獲取 session,或在對應 Session 不

存在的情況下(session 生命週期到了/用戶第一次登錄),創建一個新的 Session;

但是,如果我們在集群環境下,假設我們有兩臺服務器 A,B,用戶的請求會由

Nginx 服務器進行轉發(別的方案也是同理),用戶登錄時,Nginx 將請求轉發

至服務器 A 上,A 創建了新的 session,並將 SessionID 返回給客戶端,用戶在瀏

覽其他頁面時,客戶端驗證登錄狀態,Nginx 將請求轉發至服務器 B,由於 B 上

並沒有對應客戶端發來 sessionId 的 session,所以會重新創建一個新的 session,

並且再將這個新的 sessionID 返回給客戶端,這樣,我們可以想象一下,用戶每

一次操作都有 1/2 的概率進行再次的登錄,這樣不僅對用戶體驗特別差,還會讓

服務器上的 session 激增,加大服務器的運行壓力。

為了解決集群環境下的 seesion 共享問題,共有 4 種解決方案:

1.粘性 session

粘性 session 是指 Ngnix 每次都將同一用戶的所有請求轉發至同一臺服務器上,

即將用戶與服務器綁定。

2.服務器 session 複製

即每次 session 發生變化時,創建或者修改,就廣播給所有集群中的服務器,使

所有的服務器上的 session 相同。

3.session 共享

緩存 session,使用 redis, memcached。

4.session 持久化

將 session 存儲至數據庫中,像操作數據一樣才做 session。

23、memcached 與 redis 的區別?

1、Redis 不僅僅支持簡單的 k/v 類型的數據,同時還提供 list,set,zset,hash

等數據結構的存儲。而 memcache 只支持簡單數據類型,需要客戶端自己處理復

雜對象

2、Redis 支持數據的持久化,可以將內存中的數據保持在磁盤中,重啟的時候可

以再次加載進行使用(PS:持久化在 rdb、aof)。

3、由於 Memcache 沒有持久化機制,因此宕機所有緩存數據失效。Redis 配置

為持久化,宕機重啟後,將自動加載宕機時刻的數據到緩存系統中。

具有更好的災備機制。

4、Memcache 可以使用 Magent 在客戶端進行一致性 hash 做分佈式。Redis 支

持在服務器端做分佈式(PS:Twemproxy/Codis/Redis-cluster 多種分佈式實現方

式)

5、Memcached 的簡單限制就是鍵(key)和 Value 的限制。最大鍵長為 250 個

字符。可以接受的儲存數據不能超過 1MB(可修改配置文件變大),因為這是典

型 slab 的最大值,不適合虛擬機使用。而 Redis 的 Key 長度支持到 512k。

6、Redis 使用的是單線程模型,保證了數據按順序提交。

Memcache 需要使用cas 保證數據一致性。

CAS(Check and Set)是一個確保併發一致性的機制,屬於“樂觀鎖”範疇;原理很簡單:

拿版本號,操作,對比版本號,如果一致就操作,不一致就放棄任何操作cpu 利用。

由於 Redis 只使用單核,而 Memcached 可以使用多核,所以平均每

一個核上 Redis 在存儲小數據時比 Memcached 性能更 高。而在 100k 以上的數

據中,Memcached 性能要高於 Redis 。

7、memcache 內存管理:使用 Slab Allocation。原理相當簡單,預先分配一系

列大小固定的組,然後根據數據大小選擇最合適的塊存儲。避免了內存碎片。(缺

點:不能變長,浪費了一定空間)memcached 默認情況下下一個 slab 的最大值

為前一個的 1.25 倍。

8、redis 內存管理: Redis 通過定義一個數組來記錄所有的內存分配情況, Redis

採用的是包裝的 malloc/free,相較於 Memcached 的內存 管理方法來說,要簡

單很多。由於 malloc 首先以鏈表的方式搜索已管理的內存中可用的空間分配,導

致內存碎片比較多 .


分享到:


相關文章: