12.12 怎樣使用 awk 刪掉文件中重複的行

怎樣使用 awk 刪掉文件中重複的行

學習怎樣使用 awk 的 !visited++ 在不重新排序或改變原排列順序的前提下刪掉重複的行。-- Lazarus Lazaridis(作者)

假設你有一個文本文件,你需要刪掉所有重複的行。

TL;DR

要保持原來的排列順序刪掉重複行,使用:

awk '!visited[$0]++' your_file > deduplicated_file

工作原理

這個腳本維護一個關聯數組,索引(鍵)為文件中去重後的行,每個索引對應的值為該行出現的次數。對於文件的每一行,如果這行(之前)出現的次數為 0,則值加 1,並打印這行,否則值加 1,不打印這行。

我之前不熟悉 awk,我想弄清楚這麼短小的一個腳本是怎麼實現的。我調研了下,下面是調研心得:

  • 這個 awk “腳本” !visited[$0]++ 對輸入文件的每一行都執行。
  • visited[] 是一個 關聯數組 (又名 映射 )類型的變量。awk 會在第一次執行時初始化它,因此我們不需要初始化。
  • $0 變量的值是當前正在被處理的行的內容。
  • visited[$0] 通過與 $0(正在被處理的行)相等的鍵來訪問該映射中的值,即出現次數(我們在下面設置的)。
  • ! 對錶示出現次數的值取反:在 awk 中, 任意非零的數或任意非空的字符串的值是 true 。變量默認的初始值為空字符串 ,如果被轉換為數字,則為 0。也就是說:如果 visited[$0] 的值是一個比 0 大的數,取反後被解析成 false。如果 visited[$0] 的值為等於 0 的數字或空字符串,取反後被解析成 true 。++ 表示變量 visited[$0] 的值加 1。如果該值為空,awk 自動把它轉換為 0(數字) 後加 1。注意:加 1 操作是在我們取到了變量的值之後執行的。

總的來說,整個表達式的意思是:

  • true:如果表示出現次數為 0 或空字符串
  • false:如果出現的次數大於 0

awk 由 模式或表達式和一個與之關聯的動作 組成:

 {  }

如果匹配到了模式,就會執行後面的動作。如果省略動作,awk 默認會打印(print)輸入。

省略動作等價於 {print $0}。

我們的腳本由一個 awk 表達式語句組成,省略了動作。因此這樣寫:

awk '!visited[$0]++' your_file > deduplicated_file

等於這樣寫:

awk '!visited[$0]++ { print $0 }' your_file > deduplicated_file

對於文件的每一行,如果表達式匹配到了,這行內容被打印到輸出。否則,不執行動作,不打印任何東西。

為什麼不用 uniq 命令?

uniq 命令僅能對相鄰的行去重。這是一個示例:

$ cat test.txt
A
A
A
B
B
B
A
A
C
C
C
B
B
A
$ uniq < test.txt
A
B
A
C
B
A

其他方法

使用 sort 命令

我們也可以用下面的 sort 命令來去除重複的行,但是原來的行順序沒有被保留。

sort -u your_file > sorted_deduplicated_file

使用 cat + sort + cut

上面的方法會產出一個去重的文件,各行是基於內容進行排序的。 通過管道連接命令 可以解決這個問題。

cat -n your_file | sort -uk2 | sort -nk1 | cut -f2-

工作原理

假設我們有下面一個文件:

abc
ghi
abc
def
xyz
def
ghi
klm

cat -n test.txt 在每行前面顯示序號:

1 abc
2 ghi
3 abc
4 def
5 xyz
6 def
7 ghi

8 klm

sort -uk2 基於第二列(k2 選項)進行排序,對於第二列相同的值只保留一次(u 選項):

1 abc
4 def
2 ghi
8 klm
5 xyz

sort -nk1 基於第一列排序(k1 選項),把列的值作為數字來處理(-n 選項):

1 abc
2 ghi
4 def
5 xyz
8 klm

最後,cut -f2- 從第二列開始打印每一行,直到最後的內容(-f2- 選項:留意 - 後綴,它表示這行後面的內容都包含在內)。

abc
ghi
def
xyz
klm

參考

  • GNU awk 用戶手冊
  • awk 中的數組
  • Awk — 真值
  • Awk 表達式
  • Unix 怎麼刪除文件中重複的行?
  • 不用排序去掉重複的行(去重)
  • ‘!a[$0]++’ 工作原理

以上為全文。


via: https://opensource.com/article/19/10/remove-duplicate-lines-files-awk

作者: Lazarus Lazaridis 選題: lujun9972 譯者: lxbwolf 校對: wxy

本文由 LCTT 原創編譯, Linux中國 榮譽推出


分享到:


相關文章: