awk-需求案例

知识为进步之母,而进步又为富强之源泉。这篇文章主要讲述awk-需求案例相关的知识,希望能为你提供帮助。
1.
找到b文件在a文件相同记录:

[root@study ~]# seq 1 5 > a
[root@study ~]# seq 3 7 > b
[root@study ~]# awk FNR==NRa[$0]; nextif($0 in a)print $0 a b
3
4
5
[root@study ~]# awk FNR==NRa[$0]; nextif($0 in a)print FILENAME,$0 a b
b 3
b 4
b 5
[root@study ~]# awk FNR==NRa[$0]NR> FNRif($0 in a)print $0 a b
3
4
5

注意 if(字符串 in 数组)这里in  是判断字符串是否在数组的所有下标中。而不是数组的值中是否包含字符串
[root@study ~]# awk FNR==NRa[$0]=1; next(a[$0]==1) a b
3
4
5

注意这里的()用法,是一个模式结果为true时自动打印
方法2
[root@study ~]# awk FILENAME=="a"a[$0]FILENAME=="b"if($0 in a)print $0 a b
3
4
5

方法3
[root@study ~]# awk ARGIND==1a[$0]=1ARGIND==2 & & a[$0]==1 a b
3
4
5

2.
找出b文件在a文件不同记录:
[root@study ~]# #方法1:
[root@study ~]# awk FNR==NRa[$0]; next!($0 in a) a b
6
7
[root@study ~]# #方法2:
[root@study ~]# awk FNR==NRa[$0]=1; next(a[$0]!=1) a b
6
7
[root@study ~]# #方法3:
[root@study ~]# awk FILENAME=="a"a[$0]=1FILENAME=="b" & & a[$0]!=1 a b
6
7
[root@study ~]# #方法4:
[root@study ~]# awk ARGIND==1a[$0]=1ARGIND==2 & & a[$0]!=1 a b
6
7

3.
合并两个文件
将a文件合并到b文件
[root@study ~]# cat a
zhangsan 20
lisi 23
wangwu 29
[root@study ~]# cat b
zhangsan man
lisi woman
wangwu man
[root@study ~]# awk FNR==NRa[$1]=$0; nextprint a[$1],$2 a b
zhangsan 20 man
lisi 23 woman
wangwu 29 man
[root@study ~]# awk FNR==NRa[$1]=$0NR> FNRprint a[$1],$2 a b
zhangsan 20 man
lisi 23 woman
wangwu 29 man

将a文件相同IP的服务名合并
[root@study ~]# awk BEGINFS=":"; OFS=":"a[$1]=a[$1] $2ENDfor(v in a)print v,a[v] a
192.168.1.1: httpd tomcat
192.168.1.2: httpd postfix
192.168.1.3: mysqld
192.168.1.4: httpd

说明:数组 a 存储是$1=a[$1] $2,第一个 a[$1]是以第一个字段为下标,值是 a[$1] $2,也就是$1=a[$1] $2,值的 a[$1]是用第一个字段为下标获取对应的值,但第一次数组 a 还没有元素,那么
a[$1]是空值,此时数组存储是 192.168.1.1=httpd,再遇到 192.168.1.1 时,a[$1]通过第一字段
下标获得上次数组的 httpd,把当前处理的行第二个字段放到上一次同下标的值后面,作为下标
192.168.1.1 的新值。此时数组存储是 192.168.1.1=httpd tomcat。每次遇到相同的下标(第一个
字段)就会获取上次这个下标对应的值与当前字段并作为此下标的新值。
?
4.

将第一列合并到一行
[root@study ~]# cat file1
1 2 3
4 5 6
7 8 9
[root@study ~]# awk for(i=1; i< =NF; i++)a[i]=a[i]$i" "ENDfor(v in a)print a[v] file1
1 4 7
2 5 8
3 6 9

说明:for 循环是遍历每行的字段,NF 等于 3,循环 3 次。
读取第一行时:
第一个字段:a[1]=a[1]1" " 值 a[1]还未定义数组,下标也获取不到对应的值,所以为空,因此
a[1]=1 。
第二个字段:a[2]=a[2]2" " 值 a[2]数组 a 已经定义,但没有 2 这个下标,也获取不到对应的
值,为空,因此 a[2]=2 。
第三个字段:a[3]=a[3]3" " 值 a[2]与上面一样,为空,a[3]=3 。
读取第二行时:
第一个字段:a[1]=a[1]4" " 值 a[2]获取数组 a 的 2 为下标对应的值,上面已经有这个下标了,
对应的值是 1,因此 a[1]=1 4
第二个字段:a[2]=a[2]5" " 同上,a[2]=2 5
第三个字段:a[3]=a[3]6" " 同上,a[2]=3 6读取第三行时处理方式同上,数组最后还是三个下标,分别是 1=1 4 7,2=2 5 8,3=3 6 9。最后for 循环输出所有下标值。
5.
字符串拆分,统计出现的次数
字符串拆分

[root@study ~]# echo "hello world"|awk -Fprint $1
h
[root@study ~]# echo "hello world"|awk -Ffor(i=1; i< =NF; i++)print $i
h
e
l
l
o

w
o
r
l
d
#方法2
[root@study ~]# echo "hello world"|awksplit($0,a,""); for(v in a)print a[v]
l
o

w
o
r
l
d
h
e
l

统计字符串中每个字母出现的次数
[root@study ~]# echo "a.b.c,c.d.e"|awk -F [.,] for(i=1; i< =NF; i++)a[$i]++ENDfor(v in a)print v,a[v]
a 1
b 1
c 2
d 1
e 1

6.
统计平均成绩
[root@study ~]# cat file1
job 80
dave 84
tom 75
dave 73
job 72
tom 83
dave 88
[root@study ~]# awk a[$1]+=$2; b[$1]++ENDfor(i in a)print i,a[i]/b[i] file1
dave 81.6667
tom 79
job 76

费用统计
[root@study ~]# cat file1
zhangsan 8000 1
zhangsan 5000 1
lisi 1000 1
lisi 2000 1
wangwu 1500 1
zhaoliu 6000 1
zhaoliu 2000 1
zhaoliu 3000 1
[root@study ~]# awk name[$1]++; cost[$1]+=$2; number[$1]+=$3ENDfor(v in name)print v,cost[v],number[v] file1
zhaoliu 11000 3
zhangsan 13000 2
wangwu 1500 1
lisi 3000 2

获取数字字段最大值
[root@study ~]# cat file1
a b 1
c d 2
e f 3
g h 3
i j 2
[root@study ~]# #获取第三字段最大值:
[root@study ~]# awk BEGINmax=0if($3> max)max=$3ENDprint max file1
3
[root@study ~]# #
[root@study ~]# #打印第三字段最大行:
[root@study ~]# awk BEGINmax=0a[$0]=$3; if($3> max)max=$3ENDfor(v in a)print v,a[v],max file1
g h 3 3 3
e f 3 3 3
a b 1 1 3
c d 2 2 3
i j 2 2 3
[root@study ~]# awk BEGINmax=0a[$0]=$3; if($3> max)max=$3ENDfor(v in a)if(a[v]==max)print v file1
g h 3
e f 3

7.
去掉第一行和最后一行
[root@study ~]# seq 5 |awk NR> 2print ss=$0
2
3
4

读取第一行,NR=1,不执行 print s,s=1读取第二行,NR=2,不执行 print s,s=2 (大于为真)
读取第三行,NR=3,执行 print s,此时 s 是上一次 p 赋值内容 2,s=3
最后一行,执行 print s,打印倒数第二行,s=最后一行
8.
获取 nginx 负载均衡配置端 IP 和端口:

# cat nginx.conf
upstream example-servers1
server 127.0.0.1:80 weight=1 max_fails=2 fail_timeout=30s;

upstream example-servers2
server 127.0.0.1:80 weight=1 max_fails=2 fail_timeout=30s;
server 127.0.0.1:82 backup;

[root@study ~]# awk /example-servers1/,//if(NR> 2)print ss=$2 nginx.conf
127.0.0.1:80
[root@study ~]# awk /example-servers1/,//if(i> 1)print ss=$2; i++ nginx.conf
127.0.0.1:80
[root@study ~]# awk /example-servers1/,//if(i> 1)print s; s=$2; i++ nginx.conf
127.0.0.1:80
[root@study ~]# awk /example-servers1/,//if(i> 1)print s; s=$2; i++ nginx.conf
127.0.0.1:80

读取第一行,i 初始值为 0,0> 1 为假,不执行 print s,x=example-servers1,i=1读取第二行,i=1,1> 1 为假,不执行 print s,s=127.0.0.1:80,i=2
读取第三行,i=2,2> 1 为真,执行 print s,此时 s 是上一次 s 赋值内容 127.0.0.1:80,i=3
最后一行,执行 print s,打印倒数第二行,s=最后一行。
这种方式与上面一样,只是用 i++作为计数器。
?
知道上述方式,就可以实现这种需求了,打印匹配行的上一行

[root@study ~]# seq 5|awk /3/print ss=$0
2

?








【awk-需求案例】


    推荐阅读