08.30 結合 CPU 理解一行 Java 代碼是怎麼執行的

根據馮·諾依曼思想,計算機採用二進制作為數制基礎,必須包含:運算器、控制器、存儲設備,以及輸入輸出設備,如下圖所示。

結合 CPU 理解一行 Java 代碼是怎麼執行的


我們先來分析 CPU 的工作原理,現代 CPU 芯片中大都集成了,控制單元,運算單元,存儲單元。控制單元是 CPU 的控制中心, CPU 需要通過它才知道下一步做什麼,也就是執行什麼指令,控制單元又包含:指令寄存器(IR ),指令譯碼器( ID )和操作控制器( OC )。

當程序被加載進內存後,指令就在內存中了,這個時候說的內存是獨立於 CPU 外的主存設備,也就是 PC 機中的內存條,指令指針寄存器IP 指向內存中下一條待執行指令的地址,控制單元根據 IP寄存器的指向,將主存中的指令裝載到指令寄存器,這個指令寄存器也是一個存儲設備,不過他集成在 CPU 內部,指令從主存到達 CPU 後只是一串 010101 的二進制串,還需要通過譯碼器解碼,分析出

操作碼是什麼,操作數在哪,之後就是具體的運算單元進行算術運算(加減乘除),邏輯運算(比較,位移)。而 CPU 指令執行過程大致為:取址(去主存獲取指令放到寄存器),譯碼(從主存獲取操作數放入高速緩存 L1 ),執行(運算)。

結合 CPU 理解一行 Java 代碼是怎麼執行的

這裡解釋下上圖中 CPU 內部集成的存儲單元 SRAM ,正好和主存中的 DRAM 對應, RAM 是隨機訪問內存,就是給一個地址就能訪問到數據,而磁盤這種存儲媒介必須順序訪問,而 RAM 又分為動態和靜態兩種,靜態 RAM 由於集成度較低,一般容量小,速度快,而動態 RAM 集成度較高,主要通過給電容充電和放電實現,速度沒有靜態 RAM 快,所以一般將動態 RAM 做為主存,而靜態 RAM 作為 CPU 和主存之間的高速緩存 (cache),用來屏蔽 CPU 和主存速度上的差異,也就是我們經常看到的 L1 , L2 緩存。每一級別緩存速度變低,容量變大。下圖展示了存儲器的層次化架構,以及 CPU 訪問主存的過程,這裡有兩個知識點,一個是多級緩存之間為保證數據的一致性,而推出的緩存一致性協議,具體可以參考這篇文章,另外一個知識點是, cache 和主存的映射,首先要明確的是 cahce 緩存的單位是緩存行,對應主存中的一個內存塊,並不是一個變量,這個主要是因為 ** CPU 訪問的空間侷限性:被訪問的某個存儲單元,在一個較短時間內,很有可能再次被訪問到,以及空間侷限性:被訪問的某個存儲單元,在較短時間內,他的相鄰存儲單元也會被訪問到。**而映射方式有很多種,類似於 cache 行號 = 主存塊號 mod cache總行數 ,這樣每次獲取到一個主存地址,根據這個地址計算出在主存中的塊號就可以計算出在 cache 中的行號。
結合 CPU 理解一行 Java 代碼是怎麼執行的

下面我們接著聊 CPU 的指令執行。取址,譯碼,執行,這是一個指令的執行過程,所有指令都會嚴格按照這個順序執行,但是多個指令之間其實是可以並行的,對於單核 CPU 來說,同一時刻只能有一條指令能夠佔有執行單元運行,這裡說的執行是 CPU 指令處理 (取指,譯碼,執行) 三步驟中的第三步,也就是運算單元的計算任務,所以為了提升 CPU 的指令處理速度,所以需要保證運算單元在執行前的準備工作都完成,這樣運算單元就可以一直處於運算中,而剛剛的串行流程中,取指,解碼的時候運算單元是空閒的,而且取指和解碼如果沒有命中高速緩存還需要從主存取,而主存的速度和 CPU 不在一個級別上,所以

指令流水線 可以大大提高 CPU 的處理速度,下圖是一個3級流水線的示例圖,而現在的奔騰 CPU 都是32級流水線,具體做法就是將上面三個流程拆分的更細。

結合 CPU 理解一行 Java 代碼是怎麼執行的

除了指令流水線, CPU 還有分支預測,亂序執行等優化速度的手段。好了,我們回到正題,一行 Java 代碼是怎麼執行的。

一行代碼能夠執行,必須要有可以執行的上下文環境,包括,指令寄存器,數據寄存器,棧空間等內存資源,然後這行代碼必須作為一個執行流能夠被操作系統的任務調度器識別,並給他分配 CPU 資源,當然這行代碼所代表的指令必須是 CPU 可以解碼識別的,所以一行 Java 代碼必須被解釋成對應的 CPU 指令才能執行。下面我們看下System.out.println("Hello world")這行代碼的轉譯過程。

Java 是一門高級語言,這類語言不能直接運行在硬件上,必須運行在能夠識別 Java 語言特性的虛擬機上,而 Java 代碼必須通過 Java 編譯器將其轉換成虛擬機所能識別的指令序列,也稱為 Java 字節碼,之所以稱為字節碼是因為 Java 字節碼的操作指令(OpCode)被固定為一個字節,以下為 System.out.println("Hello world") 編譯後的字節碼

10x00: b2 00 02 getstatic Java .lang.System.out
20x03: 12 03 ldc "Hello, World!"
30x05: b6 00 04 invokevirtual Java .io.PrintStream.println
40x08: b1 return

最左列是偏移;中間列是給虛擬機讀的字節碼;最右列是高級語言的代碼,下面是通過彙編語言轉換成的機器指令,中間是機器碼,第三列為對應的機器指令,最後一列是對應的彙編代碼

 10x00: 55 push rbp
20x01: 48 89 e5 mov rbp,rsp
30x04: 48 83 ec 10 sub rsp,0x10
40x08: 48 8d 3d 3b 00 00 00 lea rdi,[rip+0x3b]
5 ; 加載 "Hello, World!\\n"
60x0f: c7 45 fc 00 00 00 00 mov DWORD PTR [rbp-0x4],0x0
70x16: b0 00 mov al,0x0
80x18: e8 0d 00 00 00 call 0x12
9 ; 調用 printf 方法
100x1d: 31 c9 xor ecx,ecx
110x1f: 89 45 f8 mov DWORD PTR [rbp-0x8],eax
120x22: 89 c8 mov eax,ecx
130x24: 48 83 c4 10 add rsp,0x10
140x28: 5d pop rbp
150x29: c3 ret

JVM 通過類加載器加載 class 文件裡的字節碼後,會通過解釋器解釋成彙編指令,最終再轉譯成 CPU 可以識別的機器指令,解釋器是軟件來實現的,主要是為了實現同一份 Java 字節碼可以在不同的硬件平臺上運行,而將彙編指令轉換成機器指令由硬件直接實現,這一步速度是很快的,當然 JVM 為了提高運行效率也可以將某些熱點代碼(一個方法內的代碼)一次全部編譯成機器指令後然後在執行,也就是和解釋執行對應的即時編譯(JIT), JVM 啟動的時候可以通過 -Xint 和 -Xcomp 來控制執行模式。

從軟件層面上, class 文件被加載進虛擬機後,類信息會存放在方法區,在實際運行的時候會執行方法區中的代碼,在 JVM 中所有的線程共享堆內存和方法區,而每個線程有自己獨立的 Java 方法棧,本地方法棧(面向 native 方法),PC寄存器(存放線程執行位置),當調用一個方法的時候, Java 虛擬機會在當前線程對應的方法棧中壓入一個棧幀,用來存放 Java 字節碼操作數以及局部變量,這個方法執行完會彈出棧幀,一個線程會連續執行多個方法,對應不同的棧幀的壓入和彈出,壓入棧幀後就是 JVM 解釋執行的過程了。

結合 CPU 理解一行 Java 代碼是怎麼執行的

中斷

剛剛說到, CPU 只要一上電就像一個永動機, 不停的取指令,運算,週而復始,而中斷便是操作系統的靈魂,故名思議,中斷就是打斷 CPU 的執行過程,轉而去做點別的,例如系統執行期間發生了致命錯誤,需要結束執行,例如用戶程序調用了一個系統調用的方法,例如mmp等,就會通過中斷讓 CPU 切換上下文,轉到內核空間,例如一個等待用戶輸入的程序正在阻塞,而當用戶通過鍵盤完成輸入,內核數據已經準備好後,就會發一箇中斷信號,喚醒用戶程序把數據從內核取走,不然內核可能會數據溢出,當磁盤報了一個致命異常,也會通過中斷通知 CPU ,定時器完成時鐘滴答也會發時鐘中斷通知 CPU 。

中斷的種類,我們這裡就不做細分了,中斷有點類似於我們經常說的事件驅動編程,而這個事件通知機制是怎麼實現的呢,硬件中斷的實現通過一個導線和 CPU 相連來傳輸中斷信號,軟件上會有特定的指令,例如執行系統調用創建線程的指令,而 CPU 每執行完一個指令,就會檢查中斷寄存器中是否有中斷,如果有就取出然後執行該中斷對應的處理程序。

陷入內核 : 我們在設計軟件的時候,會考慮程序上下文切換的頻率,頻率太高肯定會影響程序執行性能,而陷入內核是針對 CPU 而言的, CPU 的執行從用戶態轉向內核態,以前是用戶程序在使用 CPU ,現在是內核程序在使用 CPU ,這種切換是通過系統調用產生的,系統調用是執行操作系統底層的程序,Linux的設計者,為了保護操作系統,將進程的執行狀態用內核態和用戶態分開,同一個進程中,內核和用戶共享同一個地址空間,一般 4G 的虛擬地址,其中 1G 給內核態, 3G 給用戶態。在程序設計的時候我們要儘量減少用戶態到內核態的切換,例如創建線程是一個系統調用,所以我們有了線程池的實現。

從 Linux 內存管理角度理解 JVM 內存模型

進程上下文

我們可以將程序理解為一段可執行的指令集合,而這個程序啟動後,操作系統就會為他分配 CPU ,內存等資源,而這個正在運行的程序就是我們說的進程,進程是操作系統對處理器中運行的程序的一種抽象,而為進程分配的內存以及 CPU 資源就是這個進程的上下文,保存了當前執行的指令,以及變量值,而 JVM 啟動後也是linux上的一個普通進程,進程的物理實體和支持進程運行的環境合稱為上下文,而上下文切換就是將當前正在運行的進程換下,換一個新的進程到處理器運行,以此來讓多個進程併發的執行,上下文切換可能來自操作系統調度,也有可能來自程序內部,例如讀取IO的時候,會讓用戶代碼和操作系統代碼之間進行切換。

結合 CPU 理解一行 Java 代碼是怎麼執行的

虛擬存儲

當我們同時啟動多個 JVM 執行: System.out.println(new Object()); 將會打印這個對象的 hashcode ,hashcode 默認為內存地址,最後發現他們打印的都是 Java .lang.Object@4fca772d ,也就是多個進程返回的內存地址竟然是一樣的。

通過上面的例子我們可以證明,linux中每個進程有單獨的地址空間,在此之前,我們先了解下 CPU 是如何訪問內存的?

假設我們現在還沒有虛擬地址,只有物理地址,編譯器在編譯程序的時候,需要將高級語言轉換成機器指令,那麼 CPU 訪問內存的時候必須指定一個地址,這個地址如果是一個絕對的物理地址,那麼程序就必須放在內存中的一個固定的地方,而且這個地址需要在編譯的時候就要確認,大家應該想到這樣有多坑了吧, 如果我要同時運行兩個 office word 程序,那麼他們將操作同一塊內存,那就亂套了,偉大的計算機前輩設計出,讓 CPU

採用 段基址 + 段內偏移地址 的方式訪問內存,其中段基地址在程序啟動的時候確認,儘管這個段基地址還是絕對的物理地址,但終究可以同時運行多個程序了, CPU 採用這種方式訪問內存,就需要段基址寄存器和段內偏移地址寄存器來存儲地址,最終將兩個地址相加送上地址總線。而內存分段,相當於每個進程都會分配一個內存段,而且這個內存段需要是一塊連續的空間,主存裡維護著多個內存段,當某個進程需要更多內存,並且超出物理內存的時候,就需要將某個不常用的內存段換到硬盤上,等有充足內存的時候在從硬盤加載進來,也就是 swap 。每次交換都需要操作整個段的數據。

首先連續的地址空間是很寶貴的,例如一個 50M 的內存,在內存段之間有空隙的情況下,將無法支持 5 個需要 10M 內存才能運行的程序,如何才能讓段內地址不連續呢? 答案是內存分頁。

在保護模式下,每一個進程都有自己獨立的地址空間,所以段基地址是固定的,只需要給出段內偏移地址就可以了,而這個偏移地址稱為線性地址,線性地址是連續的,而內存分頁將連續的線性地址和和分頁後的物理地址相關聯,這樣邏輯上的連續線性地址可以對應不連續的物理地址。物理地址空間可以被多個進程共享,而這個映射關係將通過頁表( page table)進行維護。 標準頁的尺寸一般為 4KB ,分頁後,物理內存被分成若干個 4KB 的數據頁,進程申請內存的時候,可以映射為多個 4KB 大小的物理內存,而應用程序讀取數據的時候會以頁為最小單位,當需要和硬盤發生交換的時候也是以頁為單位。

現代計算機多采用虛擬存儲技術,虛擬存儲讓每個進程以為自己獨佔整個內存空間,其實這個虛擬空間是主存和磁盤的抽象,這樣的好處是,每個進程擁有一致的虛擬地址空間,簡化了內存管理,進程不需要和其他進程競爭內存空間,因為他是獨佔的,也保護了各自進程不被其他進程破壞,另外,他把主存看成磁盤的一個緩存,主存中僅保存活動的程序段和數據段,當主存中不存在數據的時候發生缺頁中斷,然後從磁盤加載進來,當物理內存不足的時候會發生 swap 到磁盤。頁表保存了虛擬地址和物理地址的映射,頁表是一個數組,每個元素為一個頁的映射關係,這個映射關係可能是和主存地址,也可能和磁盤,頁表存儲在主存,我們將存儲在高速緩衝區 cache 中的頁表稱為快表 TLAB 。

結合 CPU 理解一行 Java 代碼是怎麼執行的

  • 裝入位 表示對於頁是否在主存,如果地址頁每頁表示,數據還在磁盤
  • 存放位置 建立虛擬頁和物理頁的映射,用於地址轉換,如果為null表示是一個未分配頁
  • 修改位 用來存儲數據是否修改過
  • 權限位 用來控制是否有讀寫權限
  • 禁止緩存位 主要用來保證 cache 主存 磁盤的數據一致性

內存映射

正常情況下,我們讀取文件的流程為,先通過系統調用從磁盤讀取數據,存入操作系統的內核緩衝區,然後在從內核緩衝區拷貝到用戶空間,而內存映射,是將磁盤文件直接映射到用戶的虛擬存儲空間中,通過頁表維護虛擬地址到磁盤的映射,通過內存映射的方式讀取文件的好處有,因為減少了從內核緩衝區到用戶空間的拷貝,直接從磁盤讀取數據到內存,減少了系統調用的開銷,對用戶而言,彷彿直接操作的磁盤上的文件,另外由於使用了虛擬存儲,所以不需要連續的主存空間來存儲數據。

結合 CPU 理解一行 Java 代碼是怎麼執行的

在 Java 中,我們使用 MappedByteBuffer 來實現內存映射,這是一個堆外內存,在映射完之後,並沒有立即佔有物理內存,而是訪問數據頁的時候,先查頁表,發現還沒加載,發起缺頁異常,然後在從磁盤將數據加載進內存,所以一些對實時性要求很高的中間件,例如rocketmq,消息存儲在一個大小為1G的文件中,為了加快讀寫速度,會將這個文件映射到內存後,在每個頁寫一比特數據,這樣就可以把整個1G文件都加載進內存,在實際讀寫的時候就不會發生缺頁了,這個在rocketmq內部叫做文件預熱。

下面我們貼一段 rocketmq 消息存儲模塊的代碼,位於 MappedFile 類中,這個類是 rocketMq 消息存儲的核心類感興趣的可以自行研究,下面兩個方法一個是創建文件映射,一個是預熱文件,每預熱 1000 個數據頁,就讓出 CPU 權限。

 1 private void init(final String fileName, final int fileSize) throws IOException {
2 this.fileName = fileName;
3 this.fileSize = fileSize;
4 this.file = new File(fileName);
5 this.fileFromOffset = Long.parseLong(this.file.getName());
6 boolean ok = false;
7
8 ensureDirOK(this.file.getParent());
9
10 try {
11 this.fileChannel = new RandomAccessFile(this.file, "rw").getChannel();
12 this.mappedByteBuffer = this.fileChannel.map(MapMode.READ_WRITE, 0, fileSize);
13 TOTAL_MAPPED_VIRTUAL_MEMORY.addAndGet(fileSize);
14 TOTAL_MAPPED_FILES.incrementAndGet();
15 ok = true;
16 } catch (FileNotFoundException e) {

17 log.error("create file channel " + this.fileName + " Failed. ", e);
18 throw e;
19 } catch (IOException e) {
20 log.error("map file " + this.fileName + " Failed. ", e);
21 throw e;
22 } finally {
23 if (!ok && this.fileChannel != null) {
24 this.fileChannel.close();
25 }
26 }
27 }
28
29
30//文件預熱,OS_PAGE_SIZE = 4kb 相當於每 4kb 就寫一個 byte 0 ,將所有的頁都加載到內存,真正使用的時候就不會發生缺頁異常了
31 public void warmMappedFile(FlushDiskType type, int pages) {
32 long beginTime = System.currentTimeMillis();
33 ByteBuffer byteBuffer = this.mappedByteBuffer.slice();
34 int flush = 0;
35 long time = System.currentTimeMillis();
36 for (int i = 0, j = 0; i < this.fileSize; i += MappedFile.OS_PAGE_SIZE, j++) {
37 byteBuffer.put(i, (byte) 0);
38 // force flush when flush disk type is sync
39 if (type == FlushDiskType.SYNC_FLUSH) {
40 if ((i / OS_PAGE_SIZE) - (flush / OS_PAGE_SIZE) >= pages) {
41 flush = i;
42 mappedByteBuffer.force();
43 }
44 }
45
46 // prevent gc
47 if (j % 1000 == 0) {
48 log.info("j={}, costTime={}", j, System.currentTimeMillis() - time);
49 time = System.currentTimeMillis();
50 try {
51 // 這裡sleep(0),讓線程讓出 CPU 權限,供其他更高優先級的線程執行,此線程從運行中轉換為就緒
52 Thread.sleep(0);
53 } catch (InterruptedException e) {
54 log.error("Interrupted", e);
55 }
56 }
57 }

58
59 // force flush when prepare load finished
60 if (type == FlushDiskType.SYNC_FLUSH) {
61 log.info("mapped file warm-up done, force to disk, mappedFile={}, costTime={}",
62 this.getFileName(), System.currentTimeMillis() - beginTime);
63 mappedByteBuffer.force();
64 }
65 log.info("mapped file warm-up done. mappedFile={}, costTime={}", this.getFileName(),
66 System.currentTimeMillis() - beginTime);
67
68 this.mlock();
69 }

JVM 中對象的內存佈局

在linux中只要知道一個變量的起始地址就可以讀出這個變量的值,因為從這個起始地址起前8位記錄了變量的大小,也就是可以定位到結束地址,在 Java 中我們可以通過 Field.get(object) 的方式獲取變量的值,也就是反射,最終是通過 UnSafe 類來實現的。我們可以分析下具體代碼

 1 Field 對象的 getInt方法 先安全檢查 ,然後調用 FieldAccessor
2 @CallerSensitive
3 public int getInt(Object obj)
4 throws IllegalArgumentException, IllegalAccessException
5 {
6 if (!override) {
7 if (!Reflection.quickCheckMemberAccess(clazz, modifiers)) {
8 Class> caller = Reflection.getCallerClass();
9 checkAccess(caller, clazz, obj, modifiers);
10 }
11 }
12 return getFieldAccessor(obj).getInt(obj);
13 }
14
15
16 獲取field在所在對象中的地址的偏移量 fieldoffset

17 UnsafeFieldAccessorImpl(Field var1) {
18 this.field = var1;
19 if(Modifier.isStatic(var1.getModifiers())) {
20 this.fieldOffset = unsafe.staticFieldOffset(var1);
21 } else {
22 this.fieldOffset = unsafe.objectFieldOffset(var1);
23 }
24
25 this.isFinal = Modifier.isFinal(var1.getModifiers());
26 }
27
28
29 UnsafeStaticIntegerFieldAccessorImpl 調用unsafe中的方法
30 public int getInt(Object var1) throws IllegalArgumentException {
31 return unsafe.getInt(this.base, this.fieldOffset);
32 }

通過上面的代碼我們可以通過屬性相對對象起始地址的偏移量,來讀取和寫入屬性的值,這也是 Java 反射的原理,這種模式在jdk中很多場景都有用到,例如LockSupport.park中設置阻塞對象。 那麼屬性的偏移量具體根據什麼規則來確定的呢? 下面我們藉此機會分析下 Java 對象的內存佈局

在 Java 虛擬機中,每個 Java 對象都有一個對象頭 (object header) ,由標記字段和類型指針構成,標記字段用來存儲對象的哈希碼, GC 信息, 持有的鎖信息,而類型指針指向該對象的類 Class ,在 64 位操作系統中,標記字段佔有 64 位,而類型指針也佔 64 位,也就是說一個 Java 對象在

什麼屬性都沒有的情況下要佔有 16 字節的空間,當前 JVM 中默認開啟了壓縮指針,這樣類型指針可以只佔 32 位,所以對象頭佔 12 字節, 壓縮指針可以作用於對象頭,以及引用類型的字段。 JVM 為了內存對齊,會對字段進行重排序,這裡的對齊主要指 Java 虛擬機堆中的對象的起始地址為 8 的倍數,如果一個對象用不到 8N 個字節,那麼剩下的就會被填充,另外子類繼承的屬性的偏移量和父類一致,

以 Long 為例,他只有一個非 static 屬性 value ,而儘管對象頭只佔有 12 字節,而屬性 value 的偏移量只能是 16, 其中 4 字節只能浪費掉,所以字段重排就是為了避免內存浪費, 所以我們很難在 Java 字節碼被加載之前分析出這個 Java 對象佔有的實際空間有多大,我們只能通過遞歸父類的所有屬性來預估對象大小,而真實佔用的大小可以通過 Java agent 中的 Instrumentation獲取。

當然內存對齊另外一個原因是為了讓字段只出現在同一個 CPU 的緩存行中,如果字段不對齊,就有可能出現一個字段的一部分在緩存行 1 中,而剩下的一半在 緩存行 2 中,這樣該字段的讀取需要替換兩個緩存行,而字段的寫入會導致兩個緩存行上緩存的其他數據都無效,這樣會影響程序性能。

通過內存對齊可以避免一個字段同時存在兩個緩存行裡的情況,但還是無法完全規避緩存偽共享的問題,也就是一個緩存行中存了多個變量,而這幾個變量在多核 CPU 並行的時候,會導致競爭緩存行的寫權限,當其中一個 CPU 寫入數據後,這個字段對應的緩存行將失效,導致這個緩存行的其他字段也失效。

結合 CPU 理解一行 Java 代碼是怎麼執行的

在 Disruptor 中,通過填充幾個無意義的字段,讓對象的大小剛好在 64 字節,一個緩存行的大小為64字節,這樣這個緩存行就只會給這一個變量使用,從而避免緩存行偽共享,但是在 jdk7 中,由於無效字段被清除導致該方法失效,只能通過繼承父類字段來避免填充字段被優化,而 jdk8 提供了註解

@Contended 來標示這個變量或對象將獨享一個緩存行,使用這個註解必須在 JVM 啟動的時候加上 -XX:-RestrictContended 參數,其實也是用空間換取時間。

 1jdk6 --- 32 位系統下
2 public final static class VolatileLong
3 {
4 public volatile long value = 0L;
5 public long p1, p2, p3, p4, p5, p6; // 填充字段
6 }
7
8jdk7 通過繼承
9
10 public class VolatileLongPadding {
11 public volatile long p1, p2, p3, p4, p5, p6; // 填充字段
12 }
13 public class VolatileLong extends VolatileLongPadding {
14 public volatile long value = 0L;
15 }
16
17jdk8 通過註解
18
19 @Contended
20 public class VolatileLong {
21 public volatile long value = 0L;
22 }

NPTL和 Java 的線程模型

按照教科書的定義,進程是資源管理的最小單位,而線程是 CPU 調度執行的最小單位,線程的出現是為了減少進程的上下文切換(線程的上下文切換比進程小很多),以及更好適配多核心 CPU 環境,例如一個進程下多個線程可以分別在不同的 CPU 上執行,而多線程的支持,既可以放在Linux內核實現,也可以在核外實現,如果放在核外,只需要完成運行棧的切換,調度開銷小,但是這種方式無法適應多 CPU 環境,底層的進程還是運行在一個 CPU 上,另外由於對用戶編程要求高,所以目前主流的操作系統都是在內核支持線程,而在Linux中,線程是一個輕量級進程,只是優化了線程調度的開銷。而在 JVM 中的線程和內核線程是一一對應的,線程的調度完全交給了內核,當調用

Thread.run 的時候,就會通過系統調用 fork() 創建一個內核線程,這個方法會在用戶態和內核態之間進行切換,性能沒有在用戶態實現線程高,當然由於直接使用內核線程,所以能夠創建的最大線程數也受內核控制。目前 Linux上 的線程模型為 NPTL ( Native POSIX Thread Library),他使用一對一模式,兼容 POSIX 標準,沒有使用管理線程,可以更好地在多核 CPU 上運行。

線程的狀態

對進程而言,就三種狀態,就緒,運行,阻塞,而在 JVM 中,阻塞有四種類型,我們可以通過 jstack 生成 dump 文件查看線程的狀態。

  • BLOCKED (on object monitor) 通過 synchronized(obj) 同步塊獲取鎖的時候,等待其他線程釋放對象鎖,dump 文件會顯示 waiting to lock <0x00000000e1c9f108>
  • TIMED WAITING (on object monitor) 和 WAITING (on object monitor) 在獲取鎖後,調用了 object.wait() 等待其他線程調用 object.notify(),兩者區別是是否帶超時時間
  • TIMED WAITING (sleeping) 程序調用了 thread.sleep(),這裡如果 sleep(0) 不會進入阻塞狀態,會直接從運行轉換為就緒
  • TIMED WAITING (parking) 和 WAITING (parking) 程序調用了 Unsafe.park(),線程被掛起,等待某個條件發生,waiting on condition

而在 POSIX 標準中,thread_block 接受一個參數 stat ,這個參數也有三種類型,TASK_BLOCKED, TASK_WAITING, TASK_HANGING,而調度器只會對線程狀態為 READY 的線程執行調度,另外一點是線程的阻塞是線程自己操作的,相當於是線程主動讓出 CPU 時間片,所以等線程被喚醒後,他的剩餘時間片不會變,該線程只能在剩下的時間片運行,如果該時間片到期後線程還沒結束,該線程狀態會由 RUNNING 轉換為 READY ,等待調度器的下一次調度。

好了,關於線程就分析到這,關於 Java 併發包,核心都在 AQS 裡,底層是通過 UnSafe類的 cas 方法,以及 park 方法實現,後面我們在找時間單獨分析,現在我們在看看 Linux 的進程同步方案。

POSIX表示可移植操作系統接口(Portable Operating System Interface of UNIX,縮寫為 POSIX ),POSIX標準定義了操作系統應該為應用程序提供的接口標準。CAS 操作需要 CPU 支持,將比較 和 交換 作為一條指令來執行, CAS 一般有三個參數,內存位置,預期原值,新值 ,所以UnSafe 類中的 compareAndSwap 用屬性相對對象初始地址的偏移量,來定位內存位置。

線程的同步

線程同步出現的根本原因是訪問公共資源需要多個操作,而這多個操作的執行過程不具備原子性,被任務調度器分開了,而其他線程會破壞共享資源,所以需要在臨界區做線程的同步,這裡我們先明確一個概念,就是臨界區,他是指多個任務訪問共享資源如內存或文件時候的指令,他是指令並不是受訪問的資源。

POSIX 定義了五種同步對象,互斥鎖,條件變量,自旋鎖,讀寫鎖,信號量,這些對象在 JVM 中也都有對應的實現,並沒有全部使用 POSIX 定義的 api,通過 Java 實現靈活性更高,也避免了調用native方法的性能開銷,當然底層最終都依賴於 pthread 的 互斥鎖 mutex 來實現,這是一個系統調用,開銷很大,所以 JVM 對鎖做了自動升降級,基於AQS的實現以後在分析,這裡主要說一下關鍵字 synchronized 。

當聲明 synchronized 的代碼塊時,編譯而成的字節碼會包含一個 monitorenter 和 多個 monitorexit (多個退出路徑,正常和異常情況),當執行 monitorenter 的時候會檢查目標鎖對象的計數器是否為0,如果為0則將鎖對象的持有線程設置為自己,然後計數器加1,獲取到鎖,如果不為0則檢查鎖對象的持有線程是不是自己,如果是自己就將計數器加1獲取鎖,如果不是則阻塞等待,退出的時候計數器減1,當減為0的時候清楚鎖對象的持有線程標記,可以看出 synchronized 是支持可重入的。

剛剛說到線程的阻塞是一個系統調用,開銷大,所以 JVM 設計了自適應自旋鎖,就是當沒有獲取到鎖的時候, CPU 回進入自旋狀態等待其他線程釋放鎖,自旋的時間主要看上次等待多長時間獲取的鎖,例如上次自旋5毫秒沒有獲取鎖,這次就6毫秒,自旋會導致 CPU 空跑,另一個副作用就是不公平的鎖機制,因為該線程自旋獲取到鎖,而其他正在阻塞的線程還在等待。除了自旋鎖, JVM 還通過 CAS 實現了輕量級鎖和偏向鎖來分別針對多個線程在不同時間訪問鎖和鎖僅會被一個線程使用的情況。後兩種鎖相當於並沒有調用底層的信號量實現(通過信號量來控制線程A釋放了鎖例如調用了 wait(),而線程B就可以獲取鎖,這個只有內核才能實現,後面兩種由於場景裡沒有競爭所以也就不需要通過底層信號量控制),只是自己在用戶空間維護了鎖的持有關係,所以更高效。

結合 CPU 理解一行 Java 代碼是怎麼執行的

如上圖所示,如果線程進入 monitorenter 會將自己放入該 objectmonitor 的 entryset 隊列,然後阻塞,如果當前持有線程調用了 wait 方法,將會釋放鎖,然後將自己封裝成 objectwaiter 放入 objectmonitor 的 waitset 隊列,這時候 entryset 隊列裡的某個線程將會競爭到鎖,並進入 active 狀態,如果這個線程調用了 notify 方法,將會把 waitset 的第一個 objectwaiter 拿出來放入 entryset (這個時候根據策略可能會先自旋),當調用 notify 的那個線程執行 moniterexit 釋放鎖的時候, entryset 裡的線程就開始競爭鎖後進入 active 狀態。

為了讓應用程序免於數據競爭的干擾, Java 內存模型中定義了 happen-before 來描述兩個操作的內存可見性,也就是 X 操作 happen-before 操作 Y , 那麼 X 操作結果 對 Y 可見。 JVM 中針對 volatile 以及 鎖 的實現有 happen-before 規則, JVM 底層通過插入內存屏障來限制編譯器的重排序,以 volatile 為例,內存屏障將不允許 在 volatile 字段寫操作之前的語句被重排序到寫操作後面 , 也不允許讀取 volatile 字段之後的語句被重排序帶讀取語句之前。插入內存屏障的指令,會根據指令類型不同有不同的效果,例如在 monitorexit 釋放鎖後會強制刷新緩存,而 volatile 對應的內存屏障會在每次寫入後強制刷新到主存,並且由於 volatile 字段的特性,編譯器無法將其分配到寄存器,所以每次都是從主存讀取,所以 volatile 適用於讀多寫少得場景,最好只有個線程寫多個線程讀,如果頻繁寫入導致不停刷新緩存會影響性能。

關於應用程序中設置多少線程數合適的問題,我們一般的做法是設置 CPU 最大核心數 * 2 ,我們編碼的時候可能不確定運行在什麼樣的硬件環境中,可以通過 Runtime.getRuntime().availableProcessors() 獲取 CPU 核心,但是具體設置多少線程數,主要和線程內運行的任務中的阻塞時間有關係,如果任務中全部是計算密集型,那麼只需要設置 CPU 核心數的線程就可以達到 CPU 利用率最高,如果設置的太大,反而因為線程上下文切換影響性能,如果任務中有阻塞操作,而在阻塞的時間就可以讓 CPU 去執行其他線程裡的任務,我們可以通過 線程數量=內核數量 / (1 - 阻塞率)這個公式去計算最合適的線程數,阻塞率我們可以通過計算任務總的執行時間和阻塞的時間獲得,目前微服務架構下有大量的RPC調用,所以利用多線程可以大大提高執行效率,我們可以藉助分佈式鏈路監控來統計RPC調用所消耗的時間,而這部分時間就是任務中阻塞的時間,當然為了做到極致的效率最大,我們需要設置不同的值然後進行測試。

Java 中如何實現定時任務

定時器已經是現代軟件中不可缺少的一部分,例如每隔5秒去查詢一下狀態,是否有新郵件,實現一個鬧鐘等, Java 中已經有現成的 api 供使用,但是如果你想設計更高效,更精準的定時器任務,就需要了解底層的硬件知識,比如實現一個分佈式任務調度中間件,你可能要考慮到各個應用間時鐘同步的問題。

Java 中我們要實現定時任務,有兩種方式,一種通過 timer 類, 另外一種是 JUC 中的 ScheduledExecutorService ,不知道大家有沒有好奇 JVM 是如何實現定時任務的,難道一直輪詢時間,看是否時間到了,如果到了就調用對應的處理任務,但是這種一直輪詢不釋放 CPU 肯定是不可取的,要麼就是線程阻塞,等到時間到了在來喚醒線程,那麼 JVM 怎麼知道時間到了,如何喚醒呢?

首先我們翻一下 JDK ,發現和時間相關的 API 大概有3處,而且這 3 處還都對時間的精度做了區分:

  • object.wait(long millisecond) 參數是毫秒,必須大於等於 0 ,如果等於 0 ,就一直阻塞直到其他線程來喚醒 ,timer 類就是通過 wait() 方法來實現,下面我們看一下wait的另外一個方法
 1public final void wait(long timeout, int nanos) throws InterruptedException {
2 if (timeout < 0) {
3 throw new IllegalArgumentException("timeout value is negative");
4 }
5 if (nanos < 0 || nanos > 999999) {
6 throw new IllegalArgumentException(
7 "nanosecond timeout value out of range");
8 }
9 if (nanos > 0) {
10 timeout++;
11 }
12 wait(timeout);
13 }
  • 這個方法是想提供一個可以支持納秒級的超時時間,然而只是粗暴的加 1 毫秒。
  • Thread.sleep(long millisecond) 目前一般通過這種方式釋放 CPU ,如果參數為 0 ,表示釋放 CPU 給更高優先級的線程,自己從運行狀態轉換為可運行態等待 CPU 調度,他也提供了一個可以支持納秒級的方法實現,跟 wait 額區別是它通過 500000 來分隔是否要加 1 毫秒。
 1public static void sleep(long millis, int nanos)
2 throws InterruptedException {
3 if (millis < 0) {
4 throw new IllegalArgumentException("timeout value is negative");
5 }
6 if (nanos < 0 || nanos > 999999) {
7 throw new IllegalArgumentException(
8 "nanosecond timeout value out of range");
9 }
10 if (nanos >= 500000 || (nanos != 0 && millis == 0)) {
11 millis++;
12 }
13 sleep(millis);
14 }
  • LockSupport.park(long nans) Condition.await()調用的該方法, ScheduledExecutorService 用的 condition.await() 來實現阻塞一定的超時時間,其他帶超時參數的方法也都通過他來實現,目前大多定時器都是通過這個方法來實現的,該方法也提供了一個布爾值來確定時間的精度
  • System.currentTimeMillis() 以及 System.nanoTime() 這兩種方式都依賴於底層操作系統,前者是毫秒級,經測試 windows 平臺的頻率可能超過 10ms ,而後者是納秒級別,頻率在 100ns 左右,所以如果要獲取更精準的時間建議用後者

好了,api 瞭解完了,我們來看下定時器的底層是怎麼實現的,現代PC機中有三種硬件時鐘的實現,他們都是通過晶體振動產生的方波信號輸入來完成時鐘信號同步的。

  • 實時時鐘 RTC ,用於長時間存放系統時間的設備,即使關機也可以依靠主板中的電池繼續計時。 Linux 啟動的時候會從 RTC 中讀取時間和日期作為初始值,之後在運行期間通過其他計時器去維護系統時間
  • 可編程間隔定時器 PIT ,該計數器會有一個初始值,每過一個時鐘週期,該初始值會減1,當該初始值被減到0時,就通過導線向 CPU 發送一個時鐘中斷, CPU 就可以執行對應的中斷程序,也就是回調對應的任務
  • 時間戳計數器 TSC , 所有的 Intel8086 CPU 中都包含一個時間戳計數器對應的寄存器,該寄存器的值會在每次 CPU 收到一個時鐘週期的中斷信號後就會加 1 。他比 PIT 精度高,但是不能編程,只能讀取。
時鐘週期:硬件計時器在多長時間內產生時鐘脈衝,而時鐘週期頻率為1秒內產生時鐘脈衝的個數。目前通常為1193180。時鐘滴答:當PIT中的初始值減到0的時候,就會產生一次時鐘中斷,這個初始值由編程的時候指定。

Linux啟動的時候,先通過 RTC 獲取初始時間,之後內核通過 PIT 中的定時器的時鐘滴答來維護日期,並且會定時將該日期寫入 RTC,而應用程序的定時器主要是通過設置 PIT 的初始值設置的,當初始值減到0的時候,就表示要執行回調函數了,這裡大家會不會有疑問,這樣同一時刻只能有一個定時器程序了,而我們在應用程序中,以及多個應用程序之間,

肯定有好多定時器任務,其實我們可以參考 ScheduledExecutorService 的實現,只需要將這些定時任務按照時間做一個排序,越靠前待執行的任務放在前面,第一個任務到了在設置第二個任務相對當前時間的值,畢竟 CPU 同一時刻也只能運行一個任務,關於時間的精度問題,我們無法在軟件層面做的完全精準,畢竟 CPU 的調度不完全受用戶程序控制,當然更大的依賴是硬件的時鐘週期頻率,目前 TSC 可以提高更高的精度。

現在我們知道了,Java 中的超時時間,是通過可編程間隔定時器設置一個初始值然後等待中斷信號實現的,精度上受硬件時鐘週期的影響,一般為毫秒級別,畢竟1納秒光速也只有3米,所以 JDK 中帶納秒參數的實現都是粗暴做法,預留著等待精度更高的定時器出現,而獲取當前時間 System.currentTimeMillis() 效率會更高,但他是毫秒級精度,他讀取的 Linux 內核維護的日期,而 System.nanoTime() 會優先使用 TSC ,性能稍微低一點,但他是納秒級,Random 類為了防止衝突就用nanoTime生成種子。

Java 如何和外部設備通信

計算機的外部設備有鼠標、鍵盤、打印機、網卡等,通常我們將外部設備和和主存之間的信息傳遞稱為 I/O 操作 , 按操作特性可以分為,輸出型設備,輸入型設備,存儲設備。現代設備都採用通道方式和主存進行交互,通道是一個專門用來處理IO任務的設備, CPU 在處理主程序時遇到I/O請求,啟動指定通道上選址的設備,一旦啟動成功,通道開始控制設備進行操作

,而 CPU 可以繼續執行其他任務,I/O 操作完成後,通道發出 I/O 操作結束的中斷,處理器轉而處理 IO 結束後的事件。其他處理 IO 的方式,例如輪詢、中斷、DMA,在性能上都不見通道,這裡就不介紹了。當然 Java 程序和外部設備通信也是通過系統調用完成,這裡也不在繼續深入了。


分享到:


相關文章: