Google hacking
Con este término se conoce a las técnicas para recabar información de
una organización a través de los buscadores de internet–particularmente,
utilizando
Google. Esto no es algo que pueda catalogarse como un ataque
en sí, pero sí puede ser de gran importancia para determinar el éxito o el
fracaso de un atacante.
Los buscadores de internet almacenan muchísima información (quizá,
demasiada) acerca de los sitios web que analizan. Además, buscadores
como Google ofrecen varias opciones de búsqueda para encontrar tipos
de archivo específicos, buscar solo dentro de un dominio particular, y muchos otros parámetros.
Para protegernos de las búsquedas de información sensible en nuestros
servidores web, podemos enumerar las siguientes consideraciones:
•
No alojar información verdaderamente confidencial en los servidores web.
•
Prohibir el listado de directorios.
•
Utilizar el archivo
robots
.TXT
para definir qué secciones de nuestro
sitio web van a catalogar los robots de los buscadores.
•
Proteger las secciones privadas de nuestro sitio web mediante contra-
señas.
Si queremos que nuestro sitio web detalle qué partes no deben ser
analizadas por los robots de los buscadores, podemos ubicar el archivo
robots.txt
en la raíz, con un contenido como el siguiente:
User-agent: *
Disallow: /administrator/
Disallow: /images/
Disallow: /includes/
Disallow: /templates/
Disallow: /tmp/
Pero debemos recordar que este tipo de configuraciones solo funciona
si los robots respetan estos archivos. Los buscadores más famosos, como
Google
,
Yahoo!
y
Bing
, sí lo hacen.
Como siempre, uno de los métodos más efectivos para protegernos, es
verificar qué información relacionada con nuestra organización aparece en los buscadores web. Para esto, la forma más sencilla es ingresar en el sitio
de algunos buscadores y realizar consultas a partir del nombre de nuestra
empresa y de otros aspectos relacionados con ella, como teléfonos, direcciones de correo electrónico, etcétera.
No hay comentarios