這篇文章給大家介紹Linux在多核可擴(kuò)展性設(shè)計(jì)上的有哪些不足,內(nèi)容非常詳細(xì),感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。
成都創(chuàng)新互聯(lián)專注于企業(yè)成都全網(wǎng)營銷、網(wǎng)站重做改版、濟(jì)南網(wǎng)站定制設(shè)計(jì)、自適應(yīng)品牌網(wǎng)站建設(shè)、H5響應(yīng)式網(wǎng)站、商城網(wǎng)站建設(shè)、集團(tuán)公司官網(wǎng)建設(shè)、成都外貿(mào)網(wǎng)站建設(shè)公司、高端網(wǎng)站制作、響應(yīng)式網(wǎng)頁設(shè)計(jì)等建站業(yè)務(wù),價(jià)格優(yōu)惠性價(jià)比高,為濟(jì)南等各大城市提供網(wǎng)站開發(fā)制作服務(wù)。
我其實(shí)并不想討論微內(nèi)核的概念,也并不擅長去闡述概念,這是百科全書的事,但無奈最近由于鴻蒙的發(fā)布導(dǎo)致這個(gè)話題過火,也就經(jīng)不住誘惑,加上我又一直比較喜歡操作系統(tǒng)這個(gè)話題,就來個(gè)老生常談吧。
說起微內(nèi)核,其性能往往因?yàn)镮PC飽受詬病。然而除了這個(gè)顯而易見的 “缺陷” ,其它方面貌似被關(guān)注的很少。因此我寫點(diǎn)稍微不同的。
微內(nèi)核的性能 “缺陷” 我假設(shè)是高開銷的IPC引起的(實(shí)際上也真是),那么,我接下來便繼續(xù)假設(shè)這個(gè)IPC性能是可以優(yōu)化的,并且它已經(jīng)被優(yōu)化(即便不做任何事,隨著硬件技術(shù)的發(fā)展,所謂的歷史缺點(diǎn)往往也將逐漸弱化...)。我不公道地回避了核心問題,這并不是很道德,但為了下面的行文順利,我不得不這么做。
很多人之所以并不看好微內(nèi)核,很大程度上是因?yàn)樗蚅inux內(nèi)核是如此不同,人們認(rèn)為不同于Linux內(nèi)核的操作系統(tǒng)內(nèi)核都有這樣那樣的缺陷,這是因?yàn)長inux內(nèi)核給我們洗了腦。
Linux內(nèi)核的設(shè)計(jì)固化了人們對操作系統(tǒng)內(nèi)核的理解上的觀念 ,以至于 Linux內(nèi)核做什么都是對的,反Linux的大概率是錯(cuò)的。 Linux內(nèi)核就一定正確嗎?
在我看來,Linux內(nèi)核只是在恰當(dāng)?shù)臅r(shí)間出現(xiàn)的一個(gè)恰好能跑的內(nèi)核,并且恰好它是開源的,讓人們可以第一次內(nèi)窺一個(gè)操作系統(tǒng)內(nèi)核的全貌罷了,這并不意味著它就一定是正確的。相反,它很可能是錯(cuò)誤的?!?20世紀(jì)90年代,Windows NT系統(tǒng)初始,但很難看到它的內(nèi)在,《windows internal》風(fēng)靡一時(shí);UNIX陷入糾紛,GNU呼之卻不出,此時(shí)Linux內(nèi)核滿足了人們一切的好奇心,于是先入為主,讓人們覺的操作系統(tǒng)就應(yīng)該是這個(gè)樣子,并且在大多數(shù)人看來,這是它唯一的相貌。 】
本文主要說 內(nèi)核的可擴(kuò)展性 。
先潑一盆冷水,Linux內(nèi)核在這方面做得并非已經(jīng)爐火純青。
誠然,近十幾年來Linux內(nèi)核從2.6發(fā)展到5.3,一直在SMP多核擴(kuò)展方面精益求精,但是說實(shí)話架構(gòu)上并沒有什么根本性的調(diào)整,要說比較大的調(diào)整,當(dāng)屬:
$O(1)$調(diào)度算法。
SMP處理器域負(fù)載均衡算法。
percpu數(shù)據(jù)結(jié)構(gòu)。
數(shù)據(jù)結(jié)構(gòu)拆鎖。
都是一些細(xì)節(jié),沒有什么讓人哇塞的東西,還有更細(xì)節(jié)的cache刷新的管理,這種第二天不用就忘記的東西,引多少人競折腰。
這不禁讓人想起在交換式以太網(wǎng)出現(xiàn)之前,人們不斷優(yōu)化CSMA/CD算法的過程,同樣沒有讓人哇塞,直到交換機(jī)的出現(xiàn),讓人眼前一亮,CSMA/CD隨之幾乎被完全廢棄,因?yàn)樗皇?正確 的東西。
交換機(jī)之所以 正確 的核心在于 仲裁。
當(dāng)一個(gè)共享資源每次只能容納一個(gè)實(shí)體占用訪問時(shí),我們稱該資源為 “必須串行訪問的共享資源” ,當(dāng)有多個(gè)實(shí)體均意欲訪問這種資源時(shí),one by one是必然的,one by one的方案有兩種:
哪個(gè)好?說說看。
爭搶必會產(chǎn)生沖突,沖突便耽誤整體通過的時(shí)間,你會選哪個(gè)?
現(xiàn)在,我們暫時(shí)忘掉諸如宏內(nèi)核,微內(nèi)核,進(jìn)程隔離,進(jìn)程切換,cache刷新,IPC等概念,這些概念對于我們理解事情的本質(zhì)毫無幫助,相反,它們會阻礙我們建立新的認(rèn)知。比如,無論你覺得微內(nèi)核多么好,總有人跳出來說IPC是微內(nèi)核的瓶頸,當(dāng)你提出一個(gè)類似頁表項(xiàng)交換等優(yōu)化后,又會有人說進(jìn)程切換刷cache,寄存器上下文save/restore的開銷也不小,然后你可能知道點(diǎn) 帶有進(jìn)程PID鍵值的cache方案 ,吧啦吧啦,最后一個(gè)show me the code 讓你無言以對,一來二去,還沒有認(rèn)識全貌,便已經(jīng)陷入了細(xì)節(jié)。
所以,把這些忘掉,來看一個(gè)觀點(diǎn):
對待必須串行訪問的共享資源,正確的做法是引入一個(gè)仲裁者排隊(duì)調(diào)度訪問者,而不是任由訪問者們?nèi)ゲl(fā)爭鎖!
所謂 操作系統(tǒng) 這個(gè)概念,本來就是莫須有的,你可以隨便叫它什么,早期它叫 監(jiān)視器 ,現(xiàn)在我們姑且就叫它操作系統(tǒng)吧,但這并不意味著這個(gè)概念有多么神奇。
操作系統(tǒng)本就是用來協(xié)調(diào)多個(gè)進(jìn)程(這也是個(gè)抽象后的概念,你叫它任務(wù)也可以,無所謂)對底層共享資源的 多對一訪問 的,最典型的資源恐怕就是CPU資源了,而幾乎所有人都知道,CPU資源是需要調(diào)度使用的,于是任務(wù)調(diào)度一直都是一個(gè)熱門話題。
你看, CPU就不是所有任務(wù)并發(fā)爭搶使用的,而是調(diào)度器讓誰用誰才能用 。調(diào)度,或者說仲裁,這是操作系統(tǒng)的精髓。
那么對于系統(tǒng)中共享的文件,socket,對于各種表比如路由表等資源,憑什么要用并發(fā)爭搶的方式去使用?!所有的共享資源,都應(yīng)該是被調(diào)度使用的,就像CPU資源一樣。
如果我們循著操作系統(tǒng)理應(yīng)實(shí)現(xiàn)的最本質(zhì)的功能去思考,而不是以Linux作為先入為主的標(biāo)準(zhǔn)去思考,會發(fā)現(xiàn)Linux內(nèi)核處理并發(fā)明顯是一種錯(cuò)誤的方式!
Linux內(nèi)核大量使用了自旋鎖,這明顯是從單核向SMP進(jìn)化時(shí)最最最簡單的方案,即 只要保證不出問題的方案!
也確實(shí)如此,單核上的自旋鎖并不能如其字面表達(dá)的那樣 自旋 , 在單核場景下,Linux的自旋鎖實(shí)現(xiàn)僅僅是 禁用了搶占 。因?yàn)?,這樣即可保證 不出問題 。
但到了必須要支持SMP的時(shí)候,簡單的禁用搶占已經(jīng)無法保證不出問題,所以 待在原地自旋等待持鎖者離開 便成了最顯而易見的方案。自旋鎖就這樣一直用到了現(xiàn)在。一直到今天,自旋鎖在不斷被優(yōu)化,然而無論怎么優(yōu)化,它始終都是一個(gè)不合時(shí)宜的自旋鎖。
可見,Linux內(nèi)核一開始就不是為SMP設(shè)計(jì)的,因此其并發(fā)模式是錯(cuò)誤的,至少不是合適的。
有破就要有立,我下面將用一套用戶態(tài)的代碼來模擬 無仲裁的宏內(nèi)核 以及 有仲裁的微內(nèi)核 分別是如何對待共享資源訪問的。代碼比較簡單,所以我就沒加入太多的注釋。
以下的代碼模擬宏內(nèi)核中訪問共享資源時(shí)的自旋鎖并發(fā)爭搶模式:
#include#include #include #include #include #include #include static int count = 0; static int curr = 0; static pthread_spinlock_t spin; long long end, start; int timer_start = 0; int timer = 0; long long gettime() { struct timeb t; ftime(&t); return 1000 * t.time + t.millitm; } void print_result() { printf("%d\n", curr); exit(0); } struct node { struct node *next; void *data; }; void do_task() { int i = 0, j = 2, k = 0; // 為了更加公平的對比,既然模擬微內(nèi)核的代碼使用了內(nèi)存分配,這里也fake一個(gè)。 struct node *tsk = (struct node*) malloc(sizeof(struct node)); pthread_spin_lock(&spin); // 鎖定整個(gè)訪問計(jì)算區(qū)間 if (timer && timer_start == 0) { struct itimerval tick = {0}; timer_start = 1; signal(SIGALRM, print_result); tick.it_value.tv_sec = 10; tick.it_value.tv_usec = 0; setitimer(ITIMER_REAL, &tick, NULL); } if (!timer && curr == count) { end = gettime(); printf("%lld\n", end - start); exit(0); } curr ++; for (i = 0; i < 0xff; i++) { // 做一些稍微耗時(shí)的計(jì)算,模擬類似socket操作。強(qiáng)度可以調(diào)整,比如0xff->0xffff,CPU比較猛比較多的機(jī)器上做測試,將其調(diào)強(qiáng)些,否則隊(duì)列開銷會淹沒模擬任務(wù)的開銷。 k += i/j; } pthread_spin_unlock(&spin); free(tsk); } void* func(void *arg) { while (1) { do_task(); } } int main(int argc, char **argv) { int err, i; int tcnt; pthread_t tid; count = atoi(argv[1]); tcnt = atoi(argv[2]); if (argc == 4) { timer = 1; } pthread_spin_init(&spin, PTHREAD_PROCESS_PRIVATE); start = gettime(); // 創(chuàng)建工作線程 for (i = 0; i < tcnt; i++) { err = pthread_create(&tid, NULL, func, NULL); if (err != 0) { exit(1); } } sleep(3600); return 0; }
相對的,微內(nèi)核采用將請求通過IPC發(fā)送到專門的服務(wù)進(jìn)程,模擬代碼如下:
#include#include #include #include #include #include #include static int count = 0; static int curr = 0; long long end, start; int timer = 0; int timer_start = 0; static int total = 0; long long gettime() { struct timeb t; ftime(&t); return 1000 * t.time + t.millitm; } struct node { struct node *next; void *data; }; void print_result() { printf("%d\n", total); exit(0); } struct node *head = NULL; struct node *current = NULL; void insert(struct node *node) { node->data = NULL; node->next = head; head = node; } struct node* delete() { struct node *tempLink = head; headhead = head->next; return tempLink; } int empty() { return head == NULL; } static pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER; static pthread_spinlock_t spin; int add_task() { struct node *tsk = (struct node*) malloc(sizeof(struct node)); pthread_spin_lock(&spin); if (timer || curr < count) { curr ++; insert(tsk); } pthread_spin_unlock(&spin); return curr; } // 強(qiáng)度可以調(diào)整,比如0xff->0xffff,CPU比較猛比較多的機(jī)器上做測試,將其調(diào)強(qiáng)些,否則隊(duì)列開銷會淹沒模擬任務(wù)的開銷。 void do_task() { int i = 0, j = 2, k = 0; for (i = 0; i < 0xff; i++) { k += i/j; } } void* func(void *arg) { int ret; while (1) { ret = add_task(); if (!timer && ret == count) { break; } } } void* server_func(void *arg) { while (timer || total != count) { struct node *tsk; pthread_spin_lock(&spin); if (empty()) { pthread_spin_unlock(&spin); continue; } if (timer && timer_start == 0) { struct itimerval tick = {0}; timer_start = 1; signal(SIGALRM, print_result); tick.it_value.tv_sec = 10; tick.it_value.tv_usec = 0; setitimer(ITIMER_REAL, &tick, NULL); } tsk = delete(); pthread_spin_unlock(&spin); do_task(); free(tsk); total++; } end = gettime(); printf("%lld %d\n", end - start, total); exit(0); } int main(int argc, char **argv) { int err, i; int tcnt; pthread_t tid, stid; count = atoi(argv[1]); tcnt = atoi(argv[2]); if (argc == 4) { timer = 1; } pthread_spin_init(&spin, PTHREAD_PROCESS_PRIVATE); // 創(chuàng)建服務(wù)線程 err = pthread_create(&stid, NULL, server_func, NULL); if (err != 0) { exit(1); } start = gettime(); // 創(chuàng)建工作線程 for (i = 0; i < tcnt; i++) { err = pthread_create(&tid, NULL, func, NULL); if (err != 0) { exit(1); } } sleep(3600); return 0; }
我們對比一下執(zhí)行同樣多的任務(wù),在不同的線程數(shù)的約束下,兩種模式的時(shí)間開銷對比圖:
我們看到,在模擬微內(nèi)核的代碼中,用多線程執(zhí)行并行訪問共享數(shù)據(jù)curr時(shí),開銷不會隨著線程數(shù)量的變化而變化,而模擬宏內(nèi)核的代碼中,總時(shí)間隨著線程數(shù)的增加而線性增加,顯然,這部分開銷是自旋鎖的開銷。當(dāng)今流行的CPU cache結(jié)構(gòu)已經(jīng)排隊(duì)自旋鎖的開銷符合這種線性增長。
那么為什么微內(nèi)核的模擬代碼中的鎖開銷沒有隨著線程數(shù)量的增加而增加呢?
因?yàn)樵陬愃坪陜?nèi)核的同步任務(wù)中,由于并發(fā)上下文的相互隔離,整個(gè)任務(wù)必須被一個(gè)鎖保護(hù),比如 Linux內(nèi)核的tcp_v4_rcv 里面的:
bh_lock_sock_nested(sk); // 這部分耗時(shí)時(shí)間不確定,因此CPU空轉(zhuǎn)率不確定,低效,浪費(fèi)! ret = 0; if (!sock_owned_by_user(sk)) { if (!tcp_prequeue(sk, skb)) ret = tcp_v4_do_rcv(sk, skb); } else if (unlikely(sk_add_backlog(sk, skb, sk->sk_rcvbuf + sk->sk_sndbuf))) { bh_unlock_sock(sk); NET_INC_STATS_BH(net, LINUX_MIB_TCPBACKLOGDROP); goto discard_and_relse; } bh_unlock_sock(sk);
然而,在微內(nèi)核的代碼中,類似上面的任務(wù)被打包統(tǒng)一交給單獨(dú)的服務(wù)線程去 調(diào)度執(zhí)行 了,大大減少了鎖區(qū)里的延時(shí)。
宏內(nèi)核的隔離上下文并發(fā)搶鎖場景需要鎖整個(gè)任務(wù),造成搶鎖開銷巨大,而微內(nèi)核只要鎖任務(wù)隊(duì)列的入隊(duì)出隊(duì)操作即可,這部分開銷和具體任務(wù)無關(guān),完全可預(yù)期的開銷。
接下來讓我們對比一下執(zhí)行同樣的任務(wù),在不同CPU數(shù)量的約束下,兩種模式的時(shí)間開銷對比圖:
可見,隨著CPU數(shù)量的增加,模擬宏內(nèi)核的代碼鎖開銷大致在線性增加,而模擬微內(nèi)核的代碼,鎖開銷雖然也有所增加,但顯然并不明顯。
為什么會這樣?請看下面宏內(nèi)核和微內(nèi)核的對比圖,先看宏內(nèi)核:
再看微內(nèi)核:
這顯然是一種更加 現(xiàn)代 的方式,不光是減小了鎖的開銷提高了性能,更重要的是大大減少了CPU的空轉(zhuǎn),提高了CPU的利用率。
我們先看一下模擬宏內(nèi)核的代碼在執(zhí)行10秒時(shí)的CPU利用率:
觀察下熱點(diǎn),可以猜測就是spinlock:
顯然,CPU利用率那么高,并非真的在執(zhí)行有用的task,而是在spin空轉(zhuǎn)。
我們再看下模擬微內(nèi)核的代碼在同樣情況下的表現(xiàn):
看下熱點(diǎn):
顯然,仍然有個(gè)spinlock的熱點(diǎn),但顯然降低了很多。在更高執(zhí)行效率的保證下,CPU并沒有那么高,剩余的空閑時(shí)間可以再去執(zhí)行更多有意義的工作進(jìn)程。
本文只是展示一個(gè)定性的效果,實(shí)際中,微內(nèi)核服務(wù)進(jìn)程的任務(wù)隊(duì)列的管理效率會更高。甚至可以硬件實(shí)現(xiàn)?!緟⒁娊粨Q機(jī)背板的交換網(wǎng)絡(luò)實(shí)現(xiàn)?!?/p>
說了這么多,也許有人會說, NO,你這兩個(gè)比對的case不嚴(yán)謹(jǐn),你只模擬了訪問共享的數(shù)據(jù),如果是真的可并行執(zhí)行的代碼用微內(nèi)核的方案豈不是要降低性能嗎?平白自廢武功,將并行改成串行!確實(shí)如此,但是 內(nèi)核本身就是共享的。 操作系統(tǒng)本身就是協(xié)調(diào)用戶進(jìn)程對底層共享資源訪問的。
所以真并行需要程序員自己來 設(shè)計(jì)可并行的應(yīng)用程序。
內(nèi)核本身就是共享的。共享資源的多線程訪問就應(yīng)該嚴(yán)格串行化,并發(fā)爭鎖是一種最無序的方式,而最有效的方式則是統(tǒng)一仲裁調(diào)度。
在我們?nèi)粘I钪校覀冿@然能看到和理解為什么排隊(duì)上車比擁擠著上車更加高效。在計(jì)算機(jī)系統(tǒng)領(lǐng)域,同樣的事情我們也見于交換式以太網(wǎng)和PCIe,相比CSMA/CD的共享式以太網(wǎng),交換機(jī)就是一個(gè)仲裁調(diào)度器,PCIe的消息hub也是扮演著同樣的角色。
其實(shí),即便是宏內(nèi)核,在訪問共享資源時(shí),也并不是全都是并發(fā)爭鎖的方式,對于敏感度比較高的資源,比如時(shí)延要求很高的硬件資源,系統(tǒng)底層也是仲裁調(diào)度實(shí)現(xiàn)的,比如網(wǎng)卡上層發(fā)包的隊(duì)列調(diào)度程序,此外對于磁盤IO也有對應(yīng)的磁盤調(diào)度程序。
然而對于宏內(nèi)核,更加上層的邏輯資源,比如VFS文件對象,socket對象,各種隊(duì)列等等卻沒有采用仲裁調(diào)度的方式去訪問,當(dāng)它們由多個(gè)線程并發(fā)訪問時(shí),采用了令人遺憾的并發(fā)爭鎖模式,這也是不得已而為之,因?yàn)闆]有哪個(gè)實(shí)體可以完成仲裁,畢竟訪問它們的上下文是隔離的。
來個(gè)插敘。當(dāng)進(jìn)行Linux系統(tǒng)調(diào)優(yōu)時(shí),瞄準(zhǔn)這些方面相關(guān)的熱點(diǎn)基本就夠了。大量熱點(diǎn)問題都是這種引起的,open/close同一個(gè)文件,進(jìn)程上下文和軟中斷同時(shí)操作同一個(gè)socket,收包時(shí)多個(gè)CPU上的軟中斷上下文將包排入同一個(gè)隊(duì)列,諸如此類。\如果你不準(zhǔn)備去調(diào)優(yōu)Linux,或許你已經(jīng)知道Linux內(nèi)核在SMP環(huán)境下的根本缺陷,調(diào)它作甚。多看看外面的世界,搞不好比你眼前唯一的那個(gè)要好。
當(dāng)我們評價(jià)傳統(tǒng)UNIX以及Linux這種操作系統(tǒng)內(nèi)核時(shí),應(yīng)該更多的去看它們?nèi)笔Я耸裁矗皇且晃兜挠X得它們就是對的?!灸阏J(rèn)為它是的,可能僅僅因?yàn)樗悄愕谝粋€(gè)見到并且唯一見過的】
如果非要說下概念,那就有必要說說 現(xiàn)代操作系統(tǒng) 的虛擬機(jī)抽象。
對于我們經(jīng)常說的 現(xiàn)代操作系統(tǒng) 而言,按照最初的馮諾伊曼結(jié)構(gòu),只有 “CPU和內(nèi)存” 在 多處理(包括所有的多進(jìn)程,多線程等機(jī)制) 機(jī)制中被抽象了出來,而對于文件系統(tǒng),網(wǎng)絡(luò)協(xié)議棧等等卻沒有進(jìn)行多處理抽象。換句話說,現(xiàn)代操作系統(tǒng)為進(jìn)程提供了 獨(dú)占的虛擬機(jī)抽象 ,該虛擬機(jī)僅僅包括CPU和內(nèi)存:
時(shí)間片調(diào)度讓進(jìn)程認(rèn)為自己獨(dú)占了CPU。
虛擬內(nèi)存讓進(jìn)程認(rèn)為自己獨(dú)享了內(nèi)存。
再無其它虛擬機(jī)抽象。
在進(jìn)程使用這些抽象資源時(shí),現(xiàn)代操作系統(tǒng)無疑采用了仲裁調(diào)度機(jī)制:
操作系統(tǒng)提供任務(wù)調(diào)度器仲裁CPU的分時(shí)復(fù)用(典型的是多級反饋優(yōu)先級隊(duì)列算法),為進(jìn)程/線程統(tǒng)一分配物理CPU的時(shí)間片資源。
操作系統(tǒng)提供內(nèi)存分配算法仲裁物理內(nèi)存空間的分配(典型的是伙伴系統(tǒng)算法),為進(jìn)程/線程統(tǒng)一分配物理內(nèi)存映射給虛擬內(nèi)存。
顯然,正如本文開頭說過的,操作系統(tǒng)并未任由進(jìn)程們?nèi)ゲl(fā)爭搶CPU和內(nèi)存資源,然而對于其它幾乎所有資源,操作系統(tǒng)并未做任何嚴(yán)格的規(guī)定。操作系統(tǒng)以兩種態(tài)度對待它們:
鴻蒙官方戰(zhàn)略合作共建——HarmonyOS技術(shù)社區(qū)
認(rèn)為其它資源并非操作系統(tǒng)核心的一部分,于是微內(nèi)核,用戶態(tài)驅(qū)動(dòng)等等就形成了概念。
認(rèn)為其它底層的資源也是操作系統(tǒng)核心的一部分,這就是宏內(nèi)核比如Linux的態(tài)度。
態(tài)度如何,這并不重要,宏內(nèi)核,微內(nèi)核,用戶態(tài),內(nèi)核態(tài),這些也只是概念而已,沒有什么大不了的。關(guān)鍵的問題乃是:
如何協(xié)調(diào)共享資源的分配。 或空間資源,或時(shí)間資源的或并發(fā)爭鎖,或仲裁調(diào)度的方式分配。
無疑,最大的爭議就在CPU/內(nèi)存之外如何協(xié)調(diào)非進(jìn)程虛擬化的文件系統(tǒng)的訪問和網(wǎng)絡(luò)協(xié)議棧的訪問。但無論它們倆的哪一個(gè),目前無論是宏內(nèi)核還是微內(nèi)核都有非常非常棒的方案。遺憾的是,這些很棒的方案都不是Linux內(nèi)核所采用的方案。
哦,對了Nginx便采取了類似微內(nèi)核,交換機(jī),PCIe的方法,Apache卻不是。還有很多別的例子,不再一一贅述,只是想說一點(diǎn),操作系統(tǒng)領(lǐng)域,核心的東西都是大象無形的,而不是那些形形色色的概念。
摘錄一段王垠聊微內(nèi)核時(shí)的一段話:
跟有些人聊操作系統(tǒng)是件鬧心的事,因?yàn)槲彝鶗仐壱恍┬g(shù)語和概念,從零開始討論。我試圖從“計(jì)算本質(zhì)”的出發(fā)點(diǎn)來理解這類事物,理解它們的起因,發(fā)展,現(xiàn)狀和可能的改進(jìn)。我所關(guān)心的往往是“這個(gè)事物應(yīng)該是什么樣子”,“它還可以是什么(也許更好的)樣子”,而不只是“它現(xiàn)在是什么樣子”。不明白我的這一特性,又自恃懂點(diǎn)東西的人,往往會誤以為我連基本的術(shù)語都不明白。于是天就這樣被他們聊死了。
這其實(shí)也是我想說的。
so,忘掉微內(nèi)核,宏內(nèi)核,忘掉內(nèi)核態(tài),用戶態(tài),忘掉實(shí)模式,保護(hù)模式,這樣你會更深刻地理解如何仲裁共享資源的訪問的本質(zhì)。
關(guān)于Linux在多核可擴(kuò)展性設(shè)計(jì)上的有哪些不足就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到。