Jak používat příkaz awk v systému Linux

V systému Linux  awkje dynamo pro manipulaci s textem na příkazovém řádku a také výkonný skriptovací jazyk. Zde je úvod k některým z jeho nejlepších funkcí.

Jak úžasné jméno

awk Příkaz byl pojmenován s použitím iniciály tří lidí, kteří psali původní verzi v roce 1977: Alfred Aho, Peter Weinberger a Brian Kernighan. Tito tři muži pocházeli z legendárního Unixového panteonu AT&T Bell Laboratories. S přispěním mnoha dalších se od té awk doby nadále vyvíjí.

Je to úplný skriptovací jazyk a také kompletní sada nástrojů pro manipulaci s textem pro příkazový řádek. Pokud vás tento článek potěší, můžete si prohlédnout každý detail  awk a jeho funkčnost.

Pravidla, vzory a akce

awkpracuje na programech, které obsahují pravidla složená ze vzorů a akcí. Akce se provede s textem, který odpovídá vzoru. Vzory jsou uzavřeny do složených závorek ( {}). Společně vzor a akce tvoří pravidlo. Celý awkprogram je uzavřen do jednoduchých uvozovek ( ').

Pojďme se podívat na nejjednodušší typ awkprogramu. Nemá žádný vzor, ​​takže odpovídá každému řádku do něj vloženého textu. To znamená, že akce je provedena na každém řádku. Použijeme to na výstup z whopříkazu.

Tady je standardní výstup z who:

SZO

Možná nepotřebujeme všechny tyto informace, ale spíše chceme vidět jména na účtech. Můžeme posílat výstup z whodo awka potom řekneme, awkže vytiskneme pouze první pole.

Ve výchozím nastavení awkpovažuje pole za řetězec znaků obklopený mezerami, začátkem řádku nebo koncem řádku. Pole jsou označena znakem dolaru ( $) a číslem. Takže  $1představuje první pole, které použijeme s print akcí k tisku prvního pole.

Zadáme následující:

kdo | awk '{print $ 1}'

awk vytiskne první pole a zahodí zbytek řádku.

Můžeme vytisknout tolik polí, kolik chceme. Pokud přidáme čárku jako oddělovač,  awkvytiskne mezeru mezi každým polem.

Zadáme následující, aby se také vytiskl čas přihlášené osoby (pole čtyři):

kdo | awk '{print $ 1, $ 4}'

Existuje několik speciálních identifikátorů polí. Ty představují celý řádek textu a poslední pole v řádku textu:

  • $ 0 : Představuje celý řádek textu.
  • $ 1 : Představuje první pole.
  • $ 2 : Představuje druhé pole.
  • $ 7 : Představuje sedmé pole.
  • 45 $ : Představuje 45. pole.
  • $ NF : Znamená „počet polí“ a představuje poslední pole.

Napíšeme následující, abychom vytvořili malý textový soubor, který obsahuje krátkou nabídku přiřazenou Dennisovi Ritchiemu:

kočka dennis_ritchie.txt

Chceme  awkvytisknout první, druhé a poslední pole nabídky. Všimněte si, že ačkoli je v okně terminálu zabaleno, je to jen jeden řádek textu.

Zadáme následující příkaz:

awk '{print $ 1, $ 2, $ NF}' dennis_ritchie.txt

Neznáme tu „jednoduchost“. je 18. pole v řádku textu a je nám to jedno. Víme, že je to poslední pole a můžeme použít $NFk získání jeho hodnoty. Období je považováno za další znak v těle pole.

Přidání oddělovačů výstupního pole

Můžete také říct, že awkchcete vytisknout určitý znak mezi poli namísto výchozího znaku mezery. Výchozí výstup z  datepříkazu je poněkud zvláštní, protože čas je vykreslen přímo uprostřed. Můžeme však zadat následující a použít awkk extrakci požadovaných polí:

datum
datum | awk '{print 2 $, 3 $, 6 $}'

OFS Proměnnou (oddělovač výstupního pole) použijeme k vložení oddělovače mezi měsíc, den a rok. Všimněte si, že níže uzavřeme příkaz do jednoduchých uvozovek ( '), ne do složených závorek ( {}):

datum | awk 'OFS = "/" {tisk 2 $, 3 $, 6 $}'
datum | awk 'OFS = "-" {tisk 2 $, 3 $, 6 $}'

Pravidla ZAČÍT a KONEC

BEGINPravidlo je proveden jednou před případným zahájením zpracování textu. Ve skutečnosti je spuštěn ještě předtím, než awk přečte jakýkoli text. ENDPravidlo se provede po dokončení zpracování všech. Můžete mít více pravidel BEGIN a  ENDpravidla, která se spustí v pořadí.

V našem příkladu BEGINpravidla vytiskneme celou nabídku ze dennis_ritchie.txtsouboru, který jsme použili dříve, s nadpisem nad ním.

Za tímto účelem zadáme tento příkaz:

awk 'BEGIN {print "Dennis Ritchie"} {print $0}' dennis_ritchie.txt

Note the BEGIN rule has its own set of actions enclosed within its own set of curly braces ({}).

We can use this same technique with the command we used previously to pipe output from who into awk. To do so, we type the following:

who | awk 'BEGIN {print "Active Sessions"} {print $1,$4}'

Input Field Separators

If you want awk to work with text that doesn’t use whitespace to separate fields, you have to tell it which character the text uses as the field separator. For example, the /etc/passwd file uses a colon (:) to separate fields.

We’ll use that file and the -F (separator string) option to tell awk to use the colon (:) as the separator. We type the following to tell awk to print the name of the user account and the home folder:

awk -F: '{print $1,$6}' /etc/passwd

The output contains the name of the user account (or application or daemon name) and the home folder (or the location of the application).

Adding Patterns

If all we’re interested in are regular user accounts, we can include a pattern with our print action to filter out all other entries. Because User ID numbers are equal to, or greater than, 1,000, we can base our filter on that information.

We type the following to execute our print action only when the third field ($3) contains a value of 1,000 or greater:

awk -F: '$3 >= 1000 {print $1,$6}' /etc/passwd

The pattern should immediately precede the action with which it’s associated.

We can use the BEGIN rule to provide a title for our little report. We type the following, using the (\n) notation to insert a newline character into the title string:

awk -F: 'BEGIN {print "User Accounts\n-------------"} $3 >= 1000 {print $1,$6}' /etc/passwd

Patterns are full-fledged regular expressions, and they’re one of the glories of awk.

Let’s say we want to see the universally unique identifiers (UUIDs) of the mounted file systems. If we search through the /etc/fstab file for occurrences of the string “UUID,” it ought to return that information for us.

We use the search pattern “/UUID/” in our command:

awk '/UUID/ {print $0}' /etc/fstab

It finds all occurrences of “UUID” and prints those lines. We actually would’ve gotten the same result without the print action because the default action prints the entire line of text. For clarity, though, it’s often useful to be explicit. When you look through a script or your history file, you’ll be glad you left clues for yourself.

The first line found was a comment line, and although the “UUID” string is in the middle of it, awk still found it. We can tweak the regular expression and tell awk to process only lines that start with “UUID.” To do so, we type the following which includes the start of line token (^):

awk '/^UUID/ {print $0}' /etc/fstab

That’s better! Now, we only see genuine mount instructions. To refine the output even further, we type the following and restrict the display to the first field:

awk '/^UUID/ {print $1}' /etc/fstab

If we had multiple file systems mounted on this machine, we’d get a neat table of their UUIDs.

Built-In Functions

awk has many functions you can call and use in your own programs, both from the command line and in scripts. If you do some digging, you’ll find it very fruitful.

To demonstrate the general technique to call a function, we’ll look at some numeric ones. For example, the following prints the square root of 625:

awk 'BEGIN { print sqrt(625)}'

This command prints the arctangent of 0 (zero) and -1 (which happens to be the mathematical constant, pi):

awk 'BEGIN {print atan2(0, -1)}'

In the following command, we modify the result of the atan2() function before we print it:

awk 'BEGIN {print atan2(0, -1)*100}'

Functions can accept expressions as parameters. For example, here’s a convoluted way to ask for the square root of 25:

awk 'BEGIN { print sqrt((2+3)*5)}'

awk Scripts

If your command line gets complicated, or you develop a routine you know you’ll want to use again, you can transfer your awk command into a script.

In our example script, we’re going to do all of the following:

  • Tell the shell which executable to use to run the script.
  • Prepare awk to use the FS field separator variable to read input text with fields separated by colons (:).
  • Use the OFS output field separator to tell awk to use colons (:) to separate fields in the output.
  • Set a counter to 0 (zero).
  • Set the second field of each line of text to a blank value (it’s always an “x,” so we don’t need to see it).
  • Print the line with the modified second field.
  • Increment the counter.
  • Print the value of the counter.

Our script is shown below.

The BEGIN rule carries out the preparatory steps, while the END rule displays the counter value. The middle rule (which has no name, nor pattern so it matches every line) modifies the second field, prints the line, and increments the counter.

The first line of the script tells the shell which executable to use (awk, in our example) to run the script. It also passes the -f (filename) option to awk, which informs it the text it’s going to process will come from a file. We’ll pass the filename to the script when we run it.

We’ve included the script below as text so you can cut and paste:

#!/usr/bin/awk -f  BEGIN { # set the input and output field separators FS=":" OFS=":" # zero the accounts counter accounts=0 } { # set field 2 to nothing $2="" # print the entire line print $0 # count another account accounts++ } END { # print the results print accounts " accounts.\n" }

Save this in a file called omit.awk. To make the script executable, we type the following using chmod:

chmod +x omit.awk

Now, we’ll run it and pass the /etc/passwd file to the script. This is the file awk will process for us, using the rules within the script:

./omit.awk /etc/passwd

The file is processed and each line is displayed, as shown below.

The “x” entries in the second field were removed, but note the field separators are still present. The lines are counted and the total is given at the bottom of the output.

awk Doesn’t Stand for Awkward

awk doesn’t stand for awkward; it stands for elegance. It’s been described as a processing filter and a report writer. More accurately, it’s both of these, or, rather, a tool you can use for both of these tasks. In just a few lines, awk achieves what requires extensive coding in a traditional language.

Tuto sílu využívá jednoduchý koncept pravidel, která obsahují vzory, vybírají text ke zpracování a akce, které definují zpracování.