本篇內(nèi)容介紹了“ Linux下的網(wǎng)絡IO模型怎么理解”的有關(guān)知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠?qū)W有所成!
創(chuàng)新互聯(lián)2013年開創(chuàng)至今,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務公司,擁有項目成都做網(wǎng)站、網(wǎng)站設(shè)計、外貿(mào)營銷網(wǎng)站建設(shè)網(wǎng)站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元織金做網(wǎng)站,已為上家服務,為織金各地企業(yè)和個人服務,聯(lián)系電話:13518219792
redis,Nginx,Netty,Node.js 為什么這么香?這些技術(shù)都是伴隨 Linux 內(nèi)核迭代中提供了高效處理網(wǎng)絡請求的系統(tǒng)調(diào)用而出現(xiàn)的。
I/O( INPUT/OUTPUT),包括文件 I/O、網(wǎng)絡 I/O。計算機世界里的速度鄙視:
內(nèi)存讀數(shù)據(jù):納秒級別。
千兆網(wǎng)卡讀數(shù)據(jù):微妙級別。1 微秒= 1000 納秒,網(wǎng)卡比內(nèi)存慢了千倍。
磁盤讀數(shù)據(jù):毫秒級別。1 毫秒=10 萬納秒 ,硬盤比內(nèi)存慢了 10 萬倍。
CPU 一個時鐘周期 1 納秒上下,內(nèi)存算是比較接近 CPU 的,其他都等不起。
CPU 處理數(shù)據(jù)的速度遠大于 I/O 準備數(shù)據(jù)的速度 。任何編程語言都會遇到這種 CPU 處理速度和 I/O 速度不匹配的問題!
在網(wǎng)絡編程中如何進行網(wǎng)絡 I/O 優(yōu)化?怎么高效地利用 CPU 進行網(wǎng)絡數(shù)據(jù)處理?
從操作系統(tǒng)層面怎么理解網(wǎng)絡 I/O 呢?計算機的世界有一套自己定義的概念。
如果不明白這些概念,就無法真正明白技術(shù)的設(shè)計思路和本質(zhì)。所以在我看來,這些概念是了解技術(shù)和計算機世界的基礎(chǔ)。
理解網(wǎng)絡 I/O 避不開的話題:同步與異步,阻塞與非阻塞。
拿山治燒水舉例來說,(山治的行為好比用戶程序,燒水好比內(nèi)核提供的系統(tǒng)調(diào)用),這兩組概念翻譯成大白話可以這么理解:
同步/異步關(guān)注的是水燒開之后需不需要我來處理。
阻塞/非阻塞關(guān)注的是在水燒開的這段時間是不是干了其他事。
同步阻塞:點火后,傻等,不等到水開堅決不干任何事(阻塞),水開了關(guān)火(同步)。
同步非阻塞:點火后,去看電視(非阻塞),時不時看水開了沒有,水開后關(guān)火(同步)。
異步阻塞:按下開關(guān)后,傻等水開(阻塞),水開后自動斷電(異步)。
網(wǎng)絡編程中不存在的模型。
異步非阻塞:按下開關(guān)后,該干嘛干嘛 (非阻塞),水開后自動斷電(異步)。
內(nèi)核空間 、用戶空間
內(nèi)核空間 、用戶空間如上圖:
內(nèi)核負責網(wǎng)絡和文件數(shù)據(jù)的讀寫。
用戶程序通過系統(tǒng)調(diào)用獲得網(wǎng)絡和文件的數(shù)據(jù)。
內(nèi)核態(tài)、用戶態(tài)如上圖:
程序為讀寫數(shù)據(jù)不得不發(fā)生系統(tǒng)調(diào)用。
通過系統(tǒng)調(diào)用接口,線程從用戶態(tài)切換到內(nèi)核態(tài),內(nèi)核讀寫數(shù)據(jù)后,再切換回來。
進程或線程的不同空間狀態(tài)。
線程的切換如上圖,用戶態(tài)和內(nèi)核態(tài)的切換耗時,費資源(內(nèi)存、CPU)。
優(yōu)化建議:
更少的切換。
共享空間。
套接字:Socket
套接字作用如下:
有了套接字,才可以進行網(wǎng)絡編程。
應用程序通過系統(tǒng)調(diào)用 socket(),建立連接,接收和發(fā)送數(shù)據(jù)(I/O)。
Socket 支持了非阻塞,應用程序才能非阻塞調(diào)用,支持了異步,應用程序才能異步調(diào)用。
文件描述符:FD 句柄
網(wǎng)絡編程都需要知道 FD???FD 是個什么鬼???Linux:萬物都是文件,F(xiàn)D 就是文件的引用。
像不像 Java 中萬物都是對象?程序中操作的是對象的引用。Java 中創(chuàng)建對象的個數(shù)有內(nèi)存的限制,同樣 FD 的個數(shù)也是有限制的。
Linux 在處理文件和網(wǎng)絡連接時,都需要打開和關(guān)閉 FD。
每個進程都會有默認的 FD:
0 標準輸入 stdin
1 標準輸出 stdout
2 錯誤輸出 stderr
服務端處理網(wǎng)絡請求的過程
服務端處理網(wǎng)絡請求的過程如上圖:
連接建立后。
等待數(shù)據(jù)準備好(CPU 閑置)。
將數(shù)據(jù)從內(nèi)核拷貝到進程中(CPU 閑置)。
怎么優(yōu)化呢?對于一次 I/O 訪問(以 read 舉例),數(shù)據(jù)會先被拷貝到操作系統(tǒng)內(nèi)核的緩沖區(qū),然后才會從操作系統(tǒng)內(nèi)核的緩沖區(qū)拷貝到應用程序的地址空間。
所以說,當一個 read 操作發(fā)生時,它會經(jīng)歷兩個階段:
等待數(shù)據(jù)準備 (Waiting for the data to be ready)。
將數(shù)據(jù)從內(nèi)核拷貝到進程中 (Copying the data from the kernel to the process)。
正是因為這兩個階段,Linux 系統(tǒng)升級迭代中出現(xiàn)了下面三種網(wǎng)絡模式的解決方案。
阻塞 I/O:Blocking I/O
簡介:最原始的網(wǎng)絡 I/O 模型。進程會一直阻塞,直到數(shù)據(jù)拷貝完成。
缺點:高并發(fā)時,服務端與客戶端對等連接。
線程多帶來的問題:
CPU 資源浪費,上下文切換。
內(nèi)存成本幾何上升,JVM 一個線程的成本約 1MB。
public static void main(String[] args) throws IOException { ServerSocket ss = new ServerSocket(); ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); int idx =0; while (true) { final Socket socket = ss.accept();//阻塞方法 new Thread(() -> { handle(socket); },"線程["+idx+"]" ).start(); } } static void handle(Socket socket) { byte[] bytes = new byte[1024]; try { String serverMsg = " server sss[ 線程:"+ Thread.currentThread().getName() +"]"; socket.getOutputStream().write(serverMsg.getBytes());//阻塞方法 socket.getOutputStream().flush(); } catch (Exception e) { e.printStackTrace(); } }
非阻塞 I/O:Non Blocking IO
簡介:進程反復系統(tǒng)調(diào)用,并馬上返回結(jié)果。
缺點:當進程有 1000fds,代表用戶進程輪詢發(fā)生系統(tǒng)調(diào)用 1000 次 kernel,來回的用戶態(tài)和內(nèi)核態(tài)的切換,成本幾何上升。
public static void main(String[] args) throws IOException { ServerSocketChannel ss = ServerSocketChannel.open(); ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); System.out.println(" NIO server started ... "); ss.configureBlocking(false); int idx =0; while (true) { final SocketChannel socket = ss.accept();//阻塞方法 new Thread(() -> { handle(socket); },"線程["+idx+"]" ).start(); } } static void handle(SocketChannel socket) { try { socket.configureBlocking(false); ByteBuffer byteBuffer = ByteBuffer.allocate(1024); socket.read(byteBuffer); byteBuffer.flip(); System.out.println("請求:" + new String(byteBuffer.array())); String resp = "I/O 多路復用:IO multiplexing
簡介:單個線程就可以同時處理多個網(wǎng)絡連接。內(nèi)核負責輪詢所有 Socket,當某個 Socket 有數(shù)據(jù)到達了,就通知用戶進程。
多路復用在 Linux 內(nèi)核代碼迭代過程中依次支持了三種調(diào)用,即 Select、Poll、Epoll 三種多路復用的網(wǎng)絡 I/O 模型。下文將畫圖結(jié)合 Java 代碼解釋。
①I/O 多路復用:Select
簡介:有連接請求抵達了再檢查處理。
缺點如下:
句柄上限:默認打開的 FD 有限制,1024 個。
重復初始化:每次調(diào)用 select(),需要把 FD 集合從用戶態(tài)拷貝到內(nèi)核態(tài),內(nèi)核進行遍歷。
逐個排查所有 FD 狀態(tài)效率不高。
服務端的 Select 就像一塊布滿插口的插排,Client 端的連接連上其中一個插口,建立了一個通道,然后再在通道依次注冊讀寫事件。
一個就緒、讀或?qū)懯录幚頃r一定記得刪除,要不下次還能處理。
public static void main(String[] args) throws IOException { ServerSocketChannel ssc = ServerSocketChannel.open();//管道型ServerSocket ssc.socket().bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); ssc.configureBlocking(false);//設(shè)置非阻塞 System.out.println(" NIO single server started, listening on :" + ssc.getLocalAddress()); Selector selector = Selector.open(); ssc.register(selector, SelectionKey.OP_ACCEPT);//在建立好的管道上,注冊關(guān)心的事件 就緒 while(true) { selector.select(); Setkeys = selector.selectedKeys(); Iterator it = keys.iterator(); while(it.hasNext()) { SelectionKey key = it.next(); it.remove();//處理的事件,必須刪除 handle(key); } } } private static void handle(SelectionKey key) throws IOException { if(key.isAcceptable()) { ServerSocketChannel ssc = (ServerSocketChannel) key.channel(); SocketChannel sc = ssc.accept(); sc.configureBlocking(false);//設(shè)置非阻塞 sc.register(key.selector(), SelectionKey.OP_READ );//在建立好的管道上,注冊關(guān)心的事件 可讀 } else if (key.isReadable()) { //flip SocketChannel sc = null; sc = (SocketChannel)key.channel(); ByteBuffer buffer = ByteBuffer.allocate(512); buffer.clear(); int len = sc.read(buffer); if(len != -1) { System.out.println("[" +Thread.currentThread().getName()+"] recv :"+ new String(buffer.array(), 0, len)); } ByteBuffer bufferToWrite = ByteBuffer.wrap("HelloClient".getBytes()); sc.write(bufferToWrite); } } ②I/O 多路復用:Poll
簡介:設(shè)計新的數(shù)據(jù)結(jié)構(gòu)(鏈表)提供使用效率。
Poll 和 Select 相比在本質(zhì)上變化不大,只是 Poll 沒有了 Select 方式的最大文件描述符數(shù)量的限制。
缺點:逐個排查所有 FD 狀態(tài)效率不高。
③I/O 多路復用:Epoll
簡介:沒有 FD 個數(shù)限制,用戶態(tài)拷貝到內(nèi)核態(tài)只需要一次,使用事件通知機制來觸發(fā)。
通過 epoll_ctl 注冊 FD,一旦 FD 就緒就會通過 Callback 回調(diào)機制來激活對應 FD,進行相關(guān)的 I/O 操作。
缺點如下:
跨平臺,Linux 支持最好。
底層實現(xiàn)復雜。
同步。
public static void main(String[] args) throws Exception { final AsynchronousServerSocketChannel serverChannel = AsynchronousServerSocketChannel.open() .bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); serverChannel.accept(null, new CompletionHandler() { @Override public void completed(final AsynchronousSocketChannel client, Object attachment) { serverChannel.accept(null, this); ByteBuffer buffer = ByteBuffer.allocate(1024); client.read(buffer, buffer, new CompletionHandler () { @Override public void completed(Integer result, ByteBuffer attachment) { attachment.flip(); client.write(ByteBuffer.wrap("HelloClient".getBytes()));//業(yè)務邏輯 } @Override public void failed(Throwable exc, ByteBuffer attachment) { System.out.println(exc.getMessage());//失敗處理 } }); } @Override public void failed(Throwable exc, Object attachment) { exc.printStackTrace();//失敗處理 } }); while (true) { //不while true main方法一瞬間結(jié)束 } } 當然上面的缺點相比較它的優(yōu)點都可以忽略。JDK 提供了異步方式實現(xiàn),但在實際的 Linux 環(huán)境中底層還是 Epoll,只不過多了一層循環(huán),不算真正的異步非阻塞。
而且就像上圖中代碼調(diào)用,處理網(wǎng)絡連接的代碼和業(yè)務代碼解耦得不夠好。
Netty 提供了簡潔、解耦、結(jié)構(gòu)清晰的 API。
public static void main(String[] args) { new NettyServer().serverStart(); System.out.println("Netty server started !"); } public void serverStart() { EventLoopGroup bossGroup = new NioEventLoopGroup(); EventLoopGroup workerGroup = new NioEventLoopGroup(); ServerBootstrap b = new ServerBootstrap(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer() { @Override protected void initChannel(SocketChannel ch) throws Exception { ch.pipeline().addLast(new Handler()); } }); try { ChannelFuture f = b.localAddress(Constant.HOST, Constant.PORT).bind().sync(); f.channel().closeFuture().sync(); } catch (InterruptedException e) { e.printStackTrace(); } finally { workerGroup.shutdownGracefully(); bossGroup.shutdownGracefully(); } } } class Handler extends ChannelInboundHandlerAdapter { @Override public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception { ByteBuf buf = (ByteBuf) msg; ctx.writeAndFlush(msg); ctx.close(); } @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception { cause.printStackTrace(); ctx.close(); } } bossGroup 處理網(wǎng)絡請求的大管家(們),網(wǎng)絡連接就緒時,交給 workGroup 干活的工人(們)。
“ Linux下的網(wǎng)絡IO模型怎么理解”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識可以關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實用文章!
當前文章:Linux下的網(wǎng)絡IO模型怎么理解
分享網(wǎng)址:http://weahome.cn/article/iiceed.html