Un viaje por los Sistemas de Información Multiusuario

Un viaje por los Sistemas de Información Multiusuario

Si hay algo que siempre está ahí, latiendo en el centro de cualquier organización (ya sea una pequeña oficina o un ministerio entero), son los sistemas de información multiusuario.

Estamos muy acostumbrados a nuestro ordenador personal, pero cuando cientos o miles de personas necesitan acceder a la misma información, procesar datos a la vez y usar los mismos programas corporativos sin que todo colapse, las reglas del juego cambian por completo.

En esta entrada vamos a dejar a un lado nuestro PC de escritorio para mirar debajo del capó de las organizaciones. Vamos a desgranar cómo se clasifican estos sistemas según su tamaño, entenderemos de una vez por todas qué hace un servidor de datos frente a uno de aplicaciones, y hablaremos de la auténtica revolución: la virtualización.

¿Listos para meternos de lleno en la arquitectura de sistemas?

El tamaño importa

No es lo mismo dar soporte informático a una gestoría de cinco empleados que gestionar los millones de transacciones diarias de una Administración Pública. Por eso, la arquitectura de estos sistemas se clasifica principalmente por su envergadura:

  • Sistemas Pequeños: Pensad en la clásica pyme. Suelen depender de uno o dos servidores físicos (a veces, incluso un buen NAS vitaminado hace las veces de servidor de archivos, de impresión y de pequeña base de datos). Son económicos y fáciles de administrar, pero tienen un gran talón de Aquiles: si ese "hierro" falla, la empresa entera se paraliza hasta que se repara.
  • Sistemas Medios: Aquí ya entramos en empresas más grandecitas. Pasamos a tener un CPD (Centro de Procesamiento de Datos) local o, como mínimo, un armario rack en condiciones. Empezamos a ver especialización y redundancia: varios servidores repartiéndose el trabajo, cabinas de almacenamiento compartidas (SAN/NAS) y balanceadores de carga básicos. Si falla un componente, suele haber un plan B automatizado.
  • Sistemas Grandes: Bienvenidos a las grandes corporaciones y a la Administración Pública. Hablamos de inmensas granjas de servidores, arquitecturas en clúster distribuidas geográficamente y, en algunos sectores como el bancario, los míticos Mainframes. Aquí exigimos alta disponibilidad (el famoso 99.999% de uptime). La caída de un servicio crítico es impensable, por lo que toda la infraestructura se diseña asumiendo que el hardware va a fallar en algún momento y el sistema debe sobrevivir sin que el usuario lo note.

Servidores de Datos vs. Servidores de Aplicaciones: ¿Quién hace qué?

En la arquitectura clásica (y más sana) de cualquier sistema mediano o grande, el "divide y vencerás" es la regla de oro. Es como la cocina de un gran restaurante: no puedes tener a la misma persona cobrando, picando cebolla y cocinando los platos.

  • El Servidor de Datos (La Despensa): Es el guardián absoluto de la información. Su único trabajo es almacenar, organizar, indexar y devolver datos a una velocidad de vértigo, asegurando la integridad transaccional. Aquí viven los pesados motores de bases de datos (Oracle, SQL Server, PostgreSQL...). Si le pides el expediente "X", él busca en sus entrañas y te devuelve los registros en crudo.
  • El Servidor de Aplicaciones (El Cocinero): Es el que contiene la "lógica de negocio". Coge esos datos crudos que le da la base de datos, los procesa, hace los cálculos pertinentes, aplica las normativas y se los presenta al usuario de forma visual a través de una interfaz (normalmente vía web). Son los que ejecutan el código de nuestros programas corporativos (funcionando sobre Tomcat, WebSphere, IIS, etc.).

Separar esto en capas es vital por seguridad y rendimiento. Si un ciberataque tumba la capa de aplicación, los datos (que están en otros servidores protegidos en una red mucho más profunda y aislada) siguen a salvo.

Virtualización: La magia de clonar servidores

Si lleváis unos cuantos años en este mundillo, recordaréis la época en la que cada nueva aplicación corporativa requería comprar un servidor físico nuevo. Los CPDs eran hornos ruidosos llenos de máquinas que estaban rascándose la barriga, usando apenas un 10% de su procesador. Un despilfarro absoluto de recursos y energía.

Y entonces la virtualización se popularizó y lo cambió todo.

En lugar de instalar un sistema operativo directamente sobre la máquina de metal (el bare-metal), instalamos una fina capa de software llamada Hipervisor (VMware ESXi, Microsoft Hyper-V, Proxmox...). Este hipervisor es un director de orquesta que nos permite crear múltiples Máquinas Virtuales (VMs) dentro del mismo servidor físico.

Básicamente, "engañamos" a los sistemas operativos invitados (Windows Server, Linux) haciéndoles creer que tienen una placa base, CPU y RAM dedicadas en exclusiva para ellos, cuando en realidad están compartiendo los recursos de un super-servidor físico.

¿Por qué ha sido la mejor invención?

  • Ahorro brutal y Green IT: Exprimimos el hardware al 80-90%. Menos servidores físicos significa menos gasto en compras, en licencias y, sobre todo, en electricidad y aire acondicionado.
  • Despliegue ultrarrápido: ¿Necesitamos un nuevo entorno de pruebas para los desarrolladores? Haces un par de clics, clonas una plantilla y en 3 minutos está funcionando. Antes, esto requería semanas de burocracia, compra y montaje de componentes.
  • Alta Disponibilidad y Disaster Recovery: Las máquinas virtuales no son más que un conjunto de archivos. Si un servidor físico sale ardiendo, las máquinas virtuales que vivían en él pueden reiniciarse automáticamente en otro servidor físico en cuestión de segundos.

Hoy en día, en la Administración y en cualquier empresa seria, el 99% de los servidores están virtualizados (o directamente empaquetados en contenedores como Docker/Kubernetes, ¡pero eso da para otro post!).

Espero que este paseo por las "tripas" de las organizaciones os haya servido para ordenar conceptos o, al menos, para ver con otros ojos toda esa maravillosa y compleja infraestructura invisible que hace que nuestro trabajo diario fluya.

Ahora me toca leeros a vosotros: ¿Habéis sufrido alguna vez una caída catastrófica en el trabajo por no tener los sistemas bien dimensionados o redundados? Y en cuanto a virtualización... ¿sois del team clásico de VMware, preferís la integración de Hyper-V o apostáis todo al Open Source con Proxmox?

¡Dejadme vuestras anécdotas y opiniones en los comentarios, que siempre aprendo un montón con vuestras batallitas de trinchera! 👇💬