這篇文章將為大家詳細(xì)講解有關(guān)Nginx access.log日志怎樣分析shell命令,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個(gè)參考,希望大家閱讀完這篇文章后對(duì)相關(guān)知識(shí)有一定的了解。
創(chuàng)新新互聯(lián),憑借10多年的成都網(wǎng)站設(shè)計(jì)、網(wǎng)站制作經(jīng)驗(yàn),本著真心·誠(chéng)心服務(wù)的企業(yè)理念服務(wù)于成都中小企業(yè)設(shè)計(jì)網(wǎng)站有1000多家案例。做網(wǎng)站建設(shè),選創(chuàng)新互聯(lián)建站。
Nginx 版本信息:
nginx version: nginx/0.8.53
Nginx日志配置項(xiàng):
access_log /data0/logs/access.log combined;
Nginx日志格式:
$remote_addr – $remote_user [$time_local] $request $status $apache_bytes_sent $http_referer $http_user_agent
127.0.0.1 - - [24/Mar/2011:12:45:07 +0800] "GET /fcgi_bin/xxx.fcgi?id=xxx HTTP/1.0" 200 160 "-" "Mozilla/4.0"
通過(guò)日志查看當(dāng)天訪問(wèn)頁(yè)面排前10的url:#>cat access.log | grep "24/Mar/2011" | awk '{print $7}' | sort | uniq -c | sort -nr | head -n 10
通過(guò)日志查看當(dāng)天ip連接數(shù),統(tǒng)計(jì)ip地址的總連接數(shù)#>cat access.log | grep "24/Mar/2011" | awk '{print $1}' | sort | uniq -c | sort –nr
38 112.97.192.16 20 117.136.31.145 19 112.97.192.31 3 61.156.31.20 2 209.213.40.6 1 222.76.85.28
通過(guò)日志查看當(dāng)天訪問(wèn)次數(shù)最多的10個(gè)IP ,只需要在上一個(gè)命令后加上head命令 #>cat access.log | grep "24/Mar/2011" |awk '{print $3}'|sort |uniq -c|sort -nr|head –n 10
38 112.97.192.16 20 117.136.31.145 19 112.97.192.31 3 61.156.31.20 2 209.213.40.6 1 222.76.85.28
通過(guò)日志查看當(dāng)天訪問(wèn)次數(shù)最多的10個(gè)IP#>awk '{print $1}' access.log |sort |uniq -c|sort -nr|head 10680 10.0.21.17 1702 10.0.20.167 823 10.0.20.51 504 10.0.20.255 215 58.60.188.61 192 183.17.161.216 38 112.97.192.16 20 117.136.31.145 19 112.97.192.31 6 113.106.88.10
通過(guò)日志查看當(dāng)天指定ip訪問(wèn)次數(shù)過(guò)的url和訪問(wèn)次數(shù):#>cat access.log | grep "10.0.21.17" | awk '{print $7}' | sort | uniq -c | sort –nr
224 /test/themes/default/img/logo_index.gif 224 /test/themes/default/img/bg_index_head.jpg 224 /test/themes/default/img/bg_index.gif 219 /test/vc.php 219 / 213 /misc/js/global.js 211 /misc/jsext/popup.ext.js 211 /misc/js/common.js 210 /sladmin/home 197 /misc/js/flib.js
通過(guò)日志查看當(dāng)天訪問(wèn)次數(shù)最多的時(shí)間段#>awk '{print $4}' access.log | grep "24/Mar/2011" |cut -c 14-18|sort|uniq -c|sort -nr|head
24 16:49 19 16:17 16 16:51 11 16:48 4 16:50 3 16:52 1 20:09 1 20:05 1 20:03 1 19:55
取出所有的狀態(tài)碼
cat /opt/logs/nginx/access.log | grep -ioE "HTTP\/1\.[1|0]\"[[:blank:]][0-9]{3}"
grep中不用加"\"嗎?
關(guān)于Nginx access.log日志怎樣分析shell命令就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到。