命令分析日志
    cat *.log >example.log #合并后缀名为log的日志文件,你也可以合并指定的日志
    grep "Baiduspider+" example.log >baiduspider.txt #拆分日志
    egrep "Baiduspider+|Googlebot" example.log >spider.txt #将包含“Baiduspider”和“Googlebot”的找出来
    grep "Baiduspider+" example.log |awk '{print $1 "\t" $4 "\t" $7 "\t" $8 "\t" $9 "\t" $10}' #显示指定的内容
    cat access.log |grep Baiduspider |awk '{print $7}'|sort -u|wc #统计不重复的
    |awk -F 'kw=' '{print $2}'| 指定分割符为“kw=” 打印第2列
    |sort |uniq -c| 取出重复 -c为在前面加一列显示重复个数 必须要先sort下。因为uniq只能排除相邻的相同
    sort -n -k1 -r 排序:-k1 按第一列排序 -n 按数字排序 -r 反向排序
    |head -n 40 显示前40行
    awk '{i=9;while(i<=NF) {print NF,$i;i++}}' 循环 NF是最大列数
    awk '{for(i=9;i<=NF;i++) {printf NF,$i}}'
    egrep "abc"+"|bcd"| 包含abc或bcd
    egrep 'abc|bcd'|
    |wc -l 统计数量 -l为行数 -c 字符数
    awk '{if ($1<10) {print "00"$1} else if (true){print $2}}' if语句
    |awk '{a=a+$0}END{print a/NR}' 统计所有列相加后去平均。 END 只打印最后一个 NR 有多少列
    grep PID index.log report.log -c 显示每个文件各有多上行
    awk '{print $0}' 显示所有的列
    grep -A 4 error a.txt 匹配行和它后4行
    grep -B 4 error a.txt 匹配行和它前4行
    grep -C 4 error a.txt 匹配行和它前后各4行
    grep -v 去除匹配的

    sed在后面追加一列
    echo "a"|sed 's/$/ abc/'

    awk传参数进去 需要加单引号
    TIME=100
    |sort -r -n -k1|awk '{if ($1>'$TIME') {print ..}