Este post explica de forma didáctica y con ejemplos reales los comandos más usados para procesamiento de texto en Linux:
grepawksedsortuniq
Ideal para logs, DevOps, SysAdmin y entrevistas técnicas.
1️⃣ grep – Buscar texto
Buscar errores en un log
grep "ERROR" app.log
Buscar sin distinguir mayúsculas
grep -i "error" app.log
Contar coincidencias
grep -c "ERROR" app.log
Mostrar número de línea
grep -n "Exception" app.log
2️⃣ awk – Trabajar con columnas
Mostrar primera columna
awk '{print $1}' archivo.txt
Ver usuarios conectados
who | awk '{print $1}'
Logs Nginx: IP y URL con error 404
awk '$9 == 404 {print $1, $7}' access.log
Sumar valores (ej. tráfico total)
awk '{sum += $10} END {print sum}' access.log
3️⃣ sed – Editar texto
Reemplazar texto
sed 's/http/https/' archivo.txt
Reemplazo global
sed 's/http/https/g' archivo.txt
Eliminar líneas vacías
sed '/^$/d' archivo.txt
Cambiar configuración directamente
sed -i 's/DEBUG=false/DEBUG=true/' app.conf
4️⃣ sort – Ordenar datos
Ordenar alfabéticamente
sort usuarios.txt
Ordenar números
sort -n numeros.txt
Ordenar por columna
sort -k 2 archivo.txt
Ordenar tamaños reales
ls -lh | sort -k 5 -h
5️⃣ uniq – Eliminar duplicados
⚠️ uniq funciona correctamente solo si los datos están ordenados.
Eliminar duplicados
sort nombres.txt | uniq
Contar repeticiones
sort nombres.txt | uniq -c
Mostrar solo duplicados
sort nombres.txt | uniq -d
🔥 Casos reales combinados
IPs que más requests hacen
awk '{print $1}' access.log | sort | uniq -c | sort -nr | head
URLs con más errores 404
awk '$9 == 404 {print $7}' access.log | sort | uniq -c | sort -nr
Errores más frecuentes
grep "ERROR" app.log | awk '{print $5}' | sort | uniq -c | sort -nr
🧠 Resumen rápido
| Comando | Uso principal |
|---|---|
| grep | Buscar texto |
| awk | Procesar columnas |
| sed | Editar texto |
| sort | Ordenar |
| uniq | Quitar duplicados |
📌 Tip DevOps: estos comandos son fundamentales para analizar logs de Docker, Kubernetes, Nginx, AWS, GCP y Azure.
¡Guárdalo, practícalo y úsalo en entrevistas! 🚀
Top comments (0)