Google hacking


Con este término se conoce a las técnicas para recabar información de una organización a través de los buscadores de internet–particularmente, utilizando Google. Esto no es algo que pueda catalogarse como un ataque en sí, pero sí puede ser de gran importancia para determinar el éxito o el fracaso de un atacante. 
Los buscadores de internet almacenan muchísima información (quizá, demasiada) acerca de los sitios web que analizan. Además, buscadores como Google ofrecen varias opciones de búsqueda para encontrar tipos de archivo específicos, buscar solo dentro de un dominio particular, y muchos otros parámetros. 

Para protegernos de las búsquedas de información sensible en nuestros servidores web, podemos enumerar las siguientes consideraciones: 
• No alojar información verdaderamente confidencial en los servidores web. 
• Prohibir el listado de directorios. 
• Utilizar el archivo robots .TXT para definir qué secciones de nuestro sitio web van a catalogar los robots de los buscadores. 
• Proteger las secciones privadas de nuestro sitio web mediante contra- señas. 

Si queremos que nuestro sitio web detalle qué partes no deben ser analizadas por los robots de los buscadores, podemos ubicar el archivo robots.txt en la raíz, con un contenido como el siguiente: 

User-agent: * 
Disallow: /administrator/ 
Disallow: /images/ 
Disallow: /includes/ 
Disallow: /templates/ 
Disallow: /tmp/ 

Pero debemos recordar que este tipo de configuraciones solo funciona si los robots respetan estos archivos. Los buscadores más famosos, como Google , Yahoo! y Bing , sí lo hacen. 
Como siempre, uno de los métodos más efectivos para protegernos, es verificar qué información relacionada con nuestra organización aparece en los buscadores web. Para esto, la forma más sencilla es ingresar en el sitio de algunos buscadores y realizar consultas a partir del nombre de nuestra empresa y de otros aspectos relacionados con ella, como teléfonos, direcciones de correo electrónico, etcétera.

No hay comentarios