COMO ESCARBAR INFORMACIÓN DE PÁGINAS WEB??



Me encanta el nombre de esta herramienta, elEscarbador.... Hoy les enseñare una herramienta muy interesante para escarbar información de forma profunda de páginas web y sacar la mayor cantidad de datos públicos disponibles de ellas. La herramienta se llama theHarvester. Esta interesante herramienta permite buscar bajo distintas fuentes de información (véase google, bing, etc), información relevante de la página TARGET que usaremos. Además de opciones interesantes que ella tiene.

theHarvester es una herramienta poderosa que busca información de páginas web de forma profunda. Tiene opciones muy interesantes como la enumeración de subdominios que no están a la vista, fuzzing activo y la opción de sacar fotocapturas a todo lo que vaya encontrando en su camino cuando está fuzzeando. Encuentra páginas interesantes mediante fuzzing y un diccionario, y le va sacando fotocaptura (no es necesario andar metiendose en la URL para ver de qué se trata eso tan interesante que va hallando). Vamos a desglozar los siguientes comandos y los pondremos en acción.

***Recuerden siempre tener el sistema actualizado con
sudo apt update && sudo apt upgrade -y


Nuestra víctima será: https://omaera.org

El comando más común para hacer un escaneo básico es el siguiente:

theHarvester -d omaera.org -b all

desglose del comando

  • theHarvester : nombre del programa
  • -d : dominio víctima
  • omaera.org : URL víctima
  • -b : fuente donde se escarbarán los datos
  • all : todas las fuentes disponibles

En este caso encontró un montón de subdominios pero si repiten el proceso pueden llegar a encontrar más información, si quieren. Recuerden que esto es parte de la fase de reconocimiento, donde recopilaremos la mayor parte de datos de la víctima para explorar posibles vulnerabilidades



Ahora probaremos este comando que es más completo buscando subdominios secretos:
sudo theHarvester -d omaera.org --screenshot /home/kali/omaera -c -f /home/kali/omaera/omaera.xml -w /usr/share/seclists/Discovery/DNS/subdomains-top1million-5000.txt -q -b all

desglose del comando

  • sudo : ejecutar con privilegios root
  • theHarvester : nombre del programa
  • -d : dominio víctima
  • omaera.org : URL víctima
  • --screenshot : guardar screenshots de los resultados 200 del fuzzing
  • -c : hacer ataque de fuerza bruta en los DNS
  • -f : guardar resultados en archivo XML
  • -w : especificar un diccionario para el fuzz
  • -q : suprimir errores de la API
  • -b : fuente donde se escarbarán los datos
  • all : todas las fuentes disponibles


Advertencia: si le ponen muchos parámetros se les va a llenar la memoria RAM, mejor mantener los menos posibles y hacerlos por tramos guardando cada escaneo en diferentes XML. Este escaneo al ser más completo tardará un poco más en devolver resultados, ya que se están especificando más opciones dentro del comando. En total se habrá demorado unos 10 minutos en hacer el escaneo, pero con resultados mucho más interesantes.

  • Subdominios
  • IPs
  • Búsqueda profunda desde distintas fuentes
  • Nuestra víctima sigue siendo https://omaera.org , y sí, si se lo están preguntando: es una de mis víctimas preferidas.
    Podemos especificar muchas otras opciones como el uso de shodan con -s, que en este caso no especifiqué, pero que traería más información en el escaneo.



    -------------- Volver al inicio