Seguridad Informática: Tipos de ataque (Parte II)
En la captura de pantalla puede apreciarse un conjunto de
documentos del CSI (Center of Internet Security).
Errores en configuraciones
El caso de las configuraciones, ya sean del sistema operativo o de las
aplicaciones, también constituye un punto sensible, dado que por más
seguro que sea un software, una mala configuración puede tornarlo
tan maleable como un papel. Pensemos en un ejemplo muy elemental,
como sería un antivirus: su configuración deficiente podría hacer que
cumpliera su función de manera poco efectiva, provocando que una
buena herramienta terminara por traducirse en una mala solución
y, por ende, en una brecha de seguridad. Aquí reside el peligro; ni
siquiera las herramientas de protección y seguridad son fiables en sí
mismas solo por su función.
Esto podría producir algo muy grave, pero
que suele darse con frecuencia tanto en el ambiente corporativo como
en el personal: una falsa sensación de seguridad.
Si bien con el paso del tiempo las empresas han incorporado cada
vez más medidas de seguridad en sus configuraciones de fábrica,
un atacante, como primera medida, tratará de aprovecharse de las
configuraciones estándar, ya sean aplicaciones, equipos informáticos,
dispositivos de red, etcétera. Por ejemplo, si un panel de administración
web se instala con un conjunto de credenciales
de acceso por defecto y estas no son modificadas,
cualquiera que conozca dichas credenciales
podrá acceder.
No perdamos de vista que en
Internet existe una gran cantidad de sitios que
presentan contraseñas por defecto de aplicaciones
y dispositivos, por ejemplo, http://cirt.net/
passwords. En este sitio podremos encontrar,
clasificados por fabricante, una gran variedad de
dispositivos con sus claves predefinidas.
La solución más efectiva a estos problemas, sin
dudas, es el hardening. Este proceso consiste en utilizar las propias
características de dispositivos, plataformas y aplicaciones para aumentar
sus niveles de seguridad.
Cerrar puertos que no son imprescindibles,
deshabilitar protocolos y funciones que no se utilicen, cambiar
parámetros por defecto y eliminar usuarios que no sean necesarios son
solo algunos ejemplos sencillos de un proceso de hardening.
En el ámbito corporativo, como resultado de este proceso y luego
de un análisis exhaustivo de sus propios sistemas, surge una serie de
configuraciones mínimas indispensables para obtener el mejor nivel de
seguridad sin perder de vista los requerimientos de negocio de la
organización.
Este conjunto de configuraciones se documenta y recibe
el nombre de baseline, ya que describe cuáles son las necesarias para
que los equipos y las aplicaciones implementen las recomendaciones
propuestas por las buenas prácticas de seguridad y, a su vez, estén
alineadas con los objetivos de negocio.
En función de lo comentado previamente, podemos notar que deben
existir diversos baselines, uno por cada aplicación o sistema. De esta
forma, por ejemplo, tendremos un baseline para sistemas Microsoft
Windows 2008, otro para Ubuntu Server, otro para routers Cisco, etc.
Pero a su vez, también podríamos tener un baseline para MS SQL 2005,
que deberá contemplar todos los puntos del baseline de Windows
Server 2008; uno para servidores de correo sendmail, que deberá contemplar los puntos de baseline de Ubuntu Server, y otros más.
La implementación de baselines permite garantizar que todos los
sistemas estén estandarizados en sus configuraciones y que posean el
mejor nivel de seguridad en función de los requerimientos del negocio.
Errores en protocolos
Otro problema, tal vez más grave pero menos frecuente con el
que podemos enfrentarnos, es que los errores estén directamente en
los protocolos. Esto implica que, sin importar la implementación, el
sistema operativo, ni la configuración, algo que se componga de dicho
protocolo podría verse afectado. El ejemplo clásico es el Transmission
Control Protocol/Internet Protocol (TCP/IP), una suite de
protocolos tan efectiva y flexible, que, luego de más de tres décadas
de existencia, aún perdura y continúa en uso.
El problema aquí es que,
en su momento, a principios de los años 70, su diseño no obedecía
a aspectos de seguridad por determinados motivos propios de su objetivo de uso, y con toda razón. Con el tiempo, su utilización se
extendió a tal punto, que comenzó a ser implementado de maneras que
el propio esquema permitía, pero para fines que no había sido pensado
en un principio, de modo que se transformó en un arma de doble filo.
A pesar de esto, TCP/IP nunca ha estado en dudas, ya que todos los
fallos se han ido corrigiendo o bien se mitigaron sus efectos a partir de
las mejoras realizadas por las implementaciones; incluso, el modelo de
referencia Open System Interconnection (OSI) se basó en él.
Por otro lado, la masividad que tiene el protocolo hace que su
reemplazo sea imposible en la práctica. Como podemos imaginar, dado que existen centenares de protocolos,
hay, a la vez, muchas posibilidades de encontrar fallos en ellos. El
problema más grave es que un error en el diseño de uno implica que las
situaciones sean potencialmente incorregibles, y que deben realizarse
modificaciones a distintos niveles para resolverlo, incluyendo a veces
su variación total o parcial, o su reemplazo por otro más seguro. Dentro de esta rama de errores, también incluimos los protocolos y algoritmos
criptográficos, que, como veremos, tienen un alto nivel de complejidad
y pueden producir huecos de seguridad realmente muy grandes dada la
función de protección para la que son utilizados.
No hay comentarios