理論上計算機的運算極限是多少?

最容易的是改變自己

(文/方弦)

在今天,計算機的速度越來越快,能計算的東西也越來越多。指導半導體行業的摩爾定律,說的就是大概每一年半到兩年,集成電路上晶體管的數目大概就要翻一倍。當然,在今天,摩爾定律越來越不靠譜,但集成電路晶體管數目的增加畢竟能夠使我們在單位時間內進行更多的計算。我們不禁要問:這種提升有極限嗎?在理論上,一臺計算機的計算速度有限制嗎?

答案是肯定的,但出人意料的是,答案並非來自計算機科學,而是來自物理學。

計算機也是由物質製造出來的,同樣必須遵守物理定律。雖然我們平時在編程中很少考慮物理定律,但這只是因為我們遠遠沒有達到物理定律設定的極限,所以無需考慮而已。

那麼,物理到底是怎麼跟計算機聯繫起來的呢?

很簡單,因為我們知道,在宇宙的本性中,有一種東西叫不確定性,而不確定性,正正意味著信息的缺失,或者說提取信息的極限。描繪這種不確定性的,就是能量-時間不確定性原理:∆E*∆t≥h/4pi,在這裡,∆E是能量的變化,∆t是時間的間隔,而h是普朗克常數。能量-時間不確定性原理可以有多種物理詮釋,在這裡,我們採用的是有關係統演化的詮釋:對於能量不確定性為∆E的系統,它演化得到另一個正交的態(也就是說可以跟原來區分的態)至少需要h/(4pi∆E)的時間。這個原理還可以擴展到平均能量的情況:如果系統的平均能量是E,那麼它需要至少h/8E的時間才能演化為另一個態。而每處理1bit信息,系統的態必然要改變為可以區分的另一個態,我們就此得到:如果系統中的能量是E的話,每1bit的運算至少需要h/8E的時間。

那麼,如果能量非常大的話,是不是就可以計算得非常快?

的確,但問題是,能量並不能做到非常大。能量相當於質量,而廣義相對論告訴我們,如果在某個空間內聚集了太多的能量,那麼這些能量/質量就會坍縮為黑洞。當然,這並不是說計算就不可行的,因為還未出現的量子引力也許能給予我們處理黑洞信息問題的能力。但廣義相對論無疑給我們定下了空間中能量密度的上限。也就是說,能量是沒有辦法無限提升的,所以計算的速度也沒有辦法無限提升,它總有一個極限。

這個極限叫做Bremermann極限。可以證明,這個宇宙中物質計算的極限速度,就是每公斤物質最多可以達到c^2/h,也就是大概1.35*10^50bit每秒,這裡c是光速。我們能觀察到的宇宙是有限的,它的質量也是有限的,量級大概是10^53公斤。也就是說,即使集整個宇宙之力,最多也只能做到大概10^103bit每秒的運算速度。

而現在的CPU,每秒運算速度的量級遠遠超不過10^15bit每秒,進步的空間還很大。


Mathemlogical

目前還無法正確回答這個問題,日前,我國研製成功了每秒運算1206萬億次的“天河一號”超級計算機,過不了多久,每秒運算億億次、兆億次的超霸計算機也會被研製出來。按這個思路想下去:未來的計算機的運算速度應該是無限的,但是,這個應該是不可能的。光有它的極限速度,那麼計算機的極限速度應該是一個物理能承受的閘值,目前還無法確定這個值到底在哪裡。即使將來的量子計算機,或者未來的生物計算機,也會有一個物理極限閘值,就像光一樣,無法逾越。個人觀點,有不懂看法,可以留言共同探討。


分享到:


相關文章: