我有一个服务器访问日志,每个http请求的时间戳,我想获得每秒请求数的计数。使用 sed cut -c ,到目前为止,我已设法将文件缩减为时间戳,例如:

  

2008年9月22日20:00:21 +0000
  2008年9月22日20:00:22 +0000
  2008年9月22日20:00:22 +0000
  2008年9月22日20:00:22 +0000
  2008年9月22日20:00:24 +0000
  2008年9月22日20:00:24 +0000

我想要得到的是每个唯一时间戳在文件中出现的次数。例如,通过上面的示例,我想获得看起来像的输出:

  

2008年9月22日20:00:21 +0000:1
  2008年9月22日20:00:22 +0000:3
  2008年9月22日20:00:24 +0000:2

我已经使用 sort -u 将时间戳列表过滤到一个唯一标记列表,希望我可以使用像

这样的grep
grep -c -f <file containing patterns> <file>

但这只会产生一条总共匹配线的单行。

我知道这可以在一行中完成,将几个实用程序串在一起......但我想不出哪个。有人知道吗?

有帮助吗?

解决方案

我认为你正在寻找

uniq --count
  

-c, - count           前缀行数出现次数

其他提示

将AWK与关联数组一起使用可能是另类解决方案。

以防万一你希望以最初指定的格式输出(最后出现的数量):

uniq -c logfile | sed 's/\([0-9]+\)\(.*\)/\2: \1/'

使用 awk

cat file.txt | awk '{count[$1 " " $2]++;} \
                    END {for(w in count){print w ": " count[w]};}'

汤姆的解决方案:

awk '{count[$1 " " $2]++;} END {for(w in count){print w ": " count[w]};}' file.txt

更常见。

我的文件没有排序:

name1 
name2 
name3 
name2 
name2 
name3 
name1

因此,事件并未相互发生,并且 uniq 不能正常工作:

1 name1 
1 name2 
1 name3 
2 name2 
1 name3 
1 name1

然而,使用awk脚本:

name1:2 
name2:3 
name3:2

也许使用xargs?不能把它全部放在我的头上,但是在你的排序-u上使用xargs,这样每个唯一的第二个你可以grep原始文件并做一个wc -l来获取数字。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top