Regular la seguridad

Hola,

Traigo hoy a la portada un tema que suele levantar polvareda, sobre todo cuando las comunidades técnica y no técnica de la seguridad opinan al respecto: certificaciones y regulación. Lo hago al hilo de una propuesta de Michael Chertoff, antiguo secretario de Homeland Security en la administración Bush.

La idea de Chertoff es básicamente hacer algo parecido a lo que hoy en día se hace con SoX: ponerle nombre y apellidos a los directivos que serán responsables de certificar qué han hecho para fortalecer la seguridad de su información. ¿Es esta una solución al problema? Posiblemente no por sí misma, aunque hay que reconocer que con todo lo malo que tiene SoX, ya que es costosa y algo anacrónica en cuanto a tecnología, algo se ha mejorado en lo que a su propósito inicial se refiere. No olvidemos que SoX no es una regulación de seguridad, sino financiera, aunque lógicamente tenga algunos controles tecnológicos como cualquier otro proceso empresarial moderno hoy en día. Aunque SoX sea vista sólo como un sumidero de euros por muchas organizaciones, al menos fija responsabilidades para quien estampe la firma en la información financiera de una organización, lo que debería estimular la necesidad de que esta información sea veraz y transparente si no queremos que el responsable acabe entre rejas.

Mi experiencia con los reguladores ha sido siempre sol y sombra. Los hay auténticamente enfocados y prácticos, solicitando con gran acierto medidas que sin duda refuerzan la seguridad de la información, y los hay absolutamente desorientados y desenfocados, exigiendo el cumplimiento de condiciones que llevan años sin ser revisadas, y que sólo sirven para acumular papel en lo alto de las mesas. Con los auditores, tres cuartos de lo mismo: desde profesionales incisivos que van al grano, aportando valor con soluciones constructivas y conociendo los entresijos tecnológicos, hasta despistados encorbatados que no saben vivir separados de su checklist y que nunca han tenido ni tendrán el suficiente fondo para comprender cómo se construye la seguridad en un entorno tecnológico complejo.

Respecto a las regulaciones, suelo mantener una postura intermedia. Es lógico y evidente que las empresas por sí mismas rara vez miran por la seguridad a no ser que les des con el palo, con lo que la regulación puede, al menos, obligar a quien no mira por la seguridad a que haga algo. Desgraciadamente cumplir con determinadas regulaciones y pasar la auditoría de turno está muy lejos de ser lo que yo entiendo por gestionar la seguridad, pero menos da una piedra.

Algunos casos que os puedo contar, por poner dos ejemplos simples, son el de la FFIEC norteamericana, con su guía relacionada con la autenticación en banca electrónica (esa que sigue sin reflejar la importancia de autenticar transacciones, y no a personas) o las archifamosas condiciones de PCI-DSS, que entre otras muchas cosas solicitan la utilización de autenticación segura insistiendo en que la aplicación de pagos no corra con usuario administrador, como si eso solucionara todos los problemas. En ambos casos el cumplimiento no supone ni de lejos tener seguridad en los procesos de banca electrónica y medios de pago telemáticos, respectivamente, pero siempre es mejor tener algo que no tener nada.

Creo que regular la seguridad no será, ni de lejos, la solución a nuestros problemas. Pero viendo el turbio camino que va tomando esto, donde la tecnología avanza imparable y viendo que las organizaciones rara vez están a la altura de la exigencias en lo que a seguridad se refiere, quizás vaya siendo hora de que pongan el nombre del CISO o del CIO en un papelito oficial tal y como se hace con la SoX, responsabilizándolo en última instancia de la seguridad de la organización para la que trabaja. ¿No es ese acaso uno de sus cometidos? Quizás así más de uno se pondría las pilas, que buena falta nos hace.

Un saludo,

Análisis de volcados de núcleo colapsado (Kernel Crash Dump) y volcados de procesos en ejecución en auditorías de sistemas Unix

Hola,

Aunque no es un tema estrictamente relacionado con la seguridad, ya que los colapsos de núcleo pueden tener otros disparadores como por ejemplo el desarrollo y la depuración, quiero compartir con vosotros estas notas sobre cómo analizar este tipo de volcados. Como parte de la explicación veremos igualmente la potencial necesidad de estudiar estos volcados en una auditorí­a de un sistema de producción Unix. Llamaremos a estos eventos de colapso Kernel Crash Dump (KCD), ya que en la literatura es frecuente que se respete la acepción anglosajona original.

¿Por qué analizar KCDs?

Una de las grandes ventajas que ofrecen los núcleos derivados de Unix es la posibilidad de modificarlos para que, en un evento catastrófico, como por ejemplo pánico en el núcleo (kernel panic) salvemos una copia de la memoria. A muchos os sonará el término core dump, o volcado del núcleo, que no deja de ser una grabación de la memoria en el momento del evento catastrófico. Esto se hace fundamentalmente para habilitar una traza que permite detectar problemas, algo especialmente útil en el desarrollo de aplicaciones y complementos para el sistema y del propio sistema, pero también pueden tener utilidad para investigaciones de seguridad.

Los volcados de núcleo suelen estar relacionados con errores en el desarrollo, pero también es factible que se provoquen por la acción maliciosa de los usuarios del sistema. Generalmente, en caso de este segundo hipotético escenario, los volcados catastróficos pueden ser provocados de manera no intencionada, por ejemplo, al tratar de modificar un componente del sistema de manera maliciosa cometiendo algún error relevante que lleve al núcleo a un estado de pánico, aunque es igualmente factible que el estado sea inducido de una manera controlada, no sólo para el núcleo completo, sino para determinados procesos. Afortunadamente estos casos son enrevesados, requieren un conocimiento elevado y no suelen ser frecuentes, siendo mucho más frecuente la grabación de volcados legí­timos que luego quedan a merced, por una pobre configuración de seguridad, de los usuarios del sistema, los cuales pueden acceder a ellos y obtener datos especialmente sensibles.

Dejando atrás las implicaciones en la seguridad, las razones usuales para inspeccionar volcados son, principalmente, debidas a problemas que requieren depuración y análisis. Ejemplos usuales son sistemas que no responden adecuadamente, kernel y aplicaciones lentas, acceso constante a disco duro, fallos catastróficos, etc.

¿Cómo se analiza un Kernel Crash Dump (KCD)?

Aunque existen numerosas herramientas quizás la más completa sea crash de Redhat. Es ventajosa por múltiples razones, la primera es que permite el análisis de sistemas en ejecución, así­ como sistemas accesibles en red. También permite el análisis estático de volcados obtenidos con Kdump, makedumpfile, Diskdump y otras facilidades similares, incluyendo volcado s390/s390x incluso en entornos virtualizados (xendump). Desde el punto de vista técnico crash resuelve las limitaciones de utilizar gdb sobre /proc/kcore, especialmente la dificultad de acceder a la totalidad de la estructura del kernel si el fichero vmlinux se ha construido con determinados flags. Tampoco conviene olvidar que a veces el acceso a /proc/kcore es limitado dependiendo del entorno que estemos estudiando, con lo que quizás no sea la mejor fuente para obtener un volcado. Estas y otras razones han convertido a crash en prácticamente un estándar de facto en el análisis de volcados.

Los requisitos par analizar un KCD

En el caso de crash la utilidad puede ser lanzada en un sistema en ejecución, y hará uso de la memoria (/dev/mem) o incluso, en sistemas Red Hat y derivados, del dispositivo /dev/crash dispuesto al efecto. De todos modos no es normal realizar análisis en sistemas en ejecución, ya que habitualmente si están en ejecución es porque no presentan problemas, siendo mucho más usual proporcionar a la utilidad un fichero de volcado procedente de un sistema que ha sufrido un evento catastrófico que requiere estudio.

Para la obtención de un volcado destacamos Linux Kernel Crash Dump (LKCD), ya que producir un colapso en el núcleo no es, por motivos obvios, una funcionalidad innata del sistema. En este modo de operación son necesarios siempre dos componentes: un fichero vmlinux construido con los flags -g C (para que contenga los datos de depuración necesarios) y un volcado del kernel.

Nótese la diferencia entre los ficheros vmlinux y vmlinuz. En la mayorí­a de sistemas sólo estará presente el segundo, que es una versión comprimida y ejecutable del primero. Si vais a usar crash aseguraos de tener la versión descomprimida o de lo contrario la utilidad arrojará un mensaje del tipo cannot find booted kernel — please enter namelist argument. Sin vmlinux no es posible ejecutar crash sobre /dev/mem ni con ficheros de volcado. Aunque es factible realizar la descompresión manualmente, tened en cuenta que no es inmediata y que suele ser mucho más fácil recompilar el núcleo para disponer de ambas versiones.

Una vez se disponga de los requisitos comentados, se puede lanzar crash para efectuar el análisis. Si queréis conocer más de esta utilidad, podéis leer el documento http://people.redhat.com/anderson/crash_whitepaper/.

Analizado volcados de procesos

Lo descrito anteriormente tiene, desde el punto de vista de la seguridad, una gran problemática asociada. Los volcados del núcleo contienen absolutamente todo lo que estaba en ejecución, y por tanto son una fuente jugosa de información, pero quizás excesivamente abundante, lo que puede dificultar encontrar información. Adicionalmente, para tener un fichero de volcado hay que o bien inducir un evento de colapso (lo cual no es tan sencillo como parece), o bien esperar a que el sistema, de manera natural, colapse para que las utilidades que hayamos dispuesto graben la memoria del núcleo, si es que estas utilidades están instaladas. Esto, en un sistema Unix bien depurado no es algo que pase todos los dí­as. Incluso teniendo lo necesario no es trivial ahondar en las cadenas de texto de un volcado para localizar, por ejemplo, contraseñas, ya que no vienen marcadas como tal.

Para resolver este problema es posible recurrir, en vez de a la grabación e inspección completa del núcleo, al forzado de colapsos en determinados procesos. Estos son mucho más silenciosos y los ficheros a analizar son mucho más pequeños y nos permiten localizar información relevante de una manera más compartimentalizada. Para obtener volcados de procesos en ejecución existen múltiples opciones, si bien gcore facilita la tarea enormemente.

El análisis de procesos tiene sentido, una vez más, desde el punto de vista del desarrollo. Desde la oṕtica de la seguridad tendrá sentido cuando querramos determinar si los volcados que se puedan estar ejecutando pueden quedar a merced de los usuarios del sistema. Que nadie espere encontrar contraseñas en el volcado de un proceso SSH o FTP, ya que lo máximo que hallará son llamadas a PAM, con lo cual el escenario tí­pico de revelación de información sensible será aquel en el que se realicen volcados legí­timos de procesos que luego pueden ser accedidos por terceros a consecuencia de una pobre configuración de seguridad. Pongamos un par de ejemplos. En el primer caso vamos a capturar un volcado de un proceso Skype:

forensics

Una vez obtenido, investigamos las cadenas y buscamos, siendo inmediato encontrar información sensible. Además de la contraseña, que lógicamente aparecerá en el volcado, en este caso obtenemos los teléfonos de los contactos del usuario:

forensics

Este ejemplo es perfecto para volver a la utilidad de los volcados desde la óptica del desarrollo y de la seguridad. Si el usuario que invoca el volcado es el mismo que tiene abierto el proceso, es obvio que desde la óptica de seguridad no hay problema alguno, ya que yo sé mi contraseña y sé a quien tengo agregado en Skype como contacto. Este volcado será útil para mí­ para analizar hipotéticos problemas técnicos, pero poco más. Sin embargo, ¿qué sucederí­a si yo ejecutase regularmente estos volcados con una tarea cron y los estuviera volcando en un recurso local o de red al que tengan acceso otros usuarios? Evidentemente se genera un problema de seguridad, ya que estoy facilitando a terceros el acceso a mis datos sensibles. Otro ejemplo con Thunderbird:

forensics
forensics

Conclusiones

Estos ejemplos sirven perfectamente para ilustrar la necesidad, en una auditorí­a Unix, de entender si existen volcados totales o parciales y dónde se almacenan. Estos volcados, útiles y frecuentes en el desarrollo y optimización de sistemas, pueden provocar problemas de seguridad si no se gestionan adecuadamente.

Estos ejemplos también deben hacernos plantearnos los alcances de las auditorí­as. Yo soy el primero que no suelo conceder mucha importancia a los volcados, ya que como se ha visto son aspectos técnicos muy concretos que no siempre están presentes, con lo que los riesgos pueden ser inexistentes si no se producen, o poco relevantes si se producen de una manera controlada. No obstante, en un sistema crí­tico de producción, donde existan datos verdaderamente relevantes, siempre dedico 5 minutos a comprender si existen volcados y cómo se gestionan.

Un saludo,