Glosario de Inteligencia Artificial: Los términos que debes conocer en 2026

Glosario de Inteligencia Artificial: Los términos que debes conocer en 2026

Si llevas tiempo leyendo sobre IA y sientes que cada artículo asume que ya sabes lo que es un transformer, un embedding o un agente autónomo, este glosario es para ti.

He reunido los términos clave de la Inteligencia Artificial que aparecen constantemente en conversaciones técnicas, entrevistas de trabajo, oposiciones TIC y titulares de prensa. Cada definición está escrita en español, sin renunciar al rigor técnico.

Guárdalo en favoritos. Lo vas a necesitar más de una vez.

Fundamentos

Inteligencia Artificial (IA) Campo de la informática que busca crear sistemas capaces de realizar tareas que, ejecutadas por humanos, requerirían inteligencia: razonar, aprender, planificar, comprender el lenguaje o reconocer imágenes.

IA Débil (Narrow AI) Sistema de IA diseñado y entrenado para una tarea específica. Es el tipo de IA que existe hoy: un modelo que juega al ajedrez no sabe conducir, y uno que traduce idiomas no sabe diagnosticar enfermedades.

IA General (AGI — Artificial General Intelligence) IA hipotética capaz de realizar cualquier tarea cognitiva que pueda hacer un humano, con la misma flexibilidad y capacidad de generalización. Aún no existe, aunque el debate sobre cuándo llegará es uno de los más encendidos del sector.

IA Superinteligente (ASI) Nivel teórico de IA que superaría la inteligencia humana en todos los ámbitos. Concepto más filosófico que técnico por ahora, pero relevante en debates sobre seguridad y alineamiento.

Algoritmo Conjunto de instrucciones ordenadas que un sistema sigue para resolver un problema o tomar una decisión. En IA, los algoritmos definen cómo aprende un modelo a partir de datos.

Dato de entrenamiento Información con la que se alimenta un modelo para que aprenda. La calidad, cantidad y diversidad de estos datos determinan en gran medida la calidad del modelo resultante.

Inferencia Proceso por el que un modelo ya entrenado genera una respuesta o predicción a partir de una entrada nueva. Diferente al entrenamiento: en inferencia el modelo no aprende, solo aplica lo que ya sabe.

Parámetro Variable interna de un modelo cuyo valor se ajusta durante el entrenamiento. Los modelos grandes actuales tienen cientos de miles de millones de parámetros. Más parámetros no siempre significa mejor rendimiento, pero sí mayor capacidad de representación.

Modelos de lenguaje y LLMs

LLM (Large Language Model — Modelo de Lenguaje Grande) Modelo de IA entrenado con enormes cantidades de texto para predecir y generar lenguaje natural. GPT-4, Claude, Gemini o Llama son ejemplos. La palabra "grande" hace referencia al número de parámetros y a la escala del entrenamiento.

Token Unidad mínima que procesa un LLM. Puede ser una palabra completa, una sílaba o incluso un signo de puntuación, dependiendo del modelo. Los LLMs no leen letras ni palabras: leen tokens. El límite de contexto de un modelo se mide en tokens.

Contexto (Context Window) Cantidad máxima de texto (medido en tokens) que un LLM puede procesar en una sola interacción. Todo lo que quede fuera de la ventana de contexto es invisible para el modelo. Algunos modelos actuales superan el millón de tokens de contexto.

Prompt Instrucción o texto de entrada que se le proporciona a un LLM para obtener una respuesta. La calidad del prompt influye directamente en la calidad de la salida.

Prompt Engineering Arte y técnica de diseñar prompts eficaces para obtener los mejores resultados de un modelo de lenguaje. Incluye técnicas como few-shot prompting, chain-of-thought o el uso de roles.

Few-shot Prompting Técnica en la que se incluyen ejemplos dentro del propio prompt para guiar al modelo. Si le muestras tres ejemplos de cómo quieres que responda antes de hacer tu pregunta, estás haciendo few-shot prompting.

Zero-shot Prompting Técnica opuesta: se le pide al modelo que realice una tarea sin proporcionarle ningún ejemplo previo. Funciona bien en modelos grandes con capacidad de generalización.

Chain-of-Thought (CoT) Técnica de prompting que anima al modelo a razonar paso a paso antes de dar una respuesta final. Mejora notablemente el rendimiento en tareas de razonamiento lógico o matemático.

Temperatura (Temperature) Parámetro que controla la aleatoriedad de las respuestas de un LLM. Temperatura baja (cerca de 0) → respuestas más deterministas y repetibles. Temperatura alta → respuestas más creativas e impredecibles.

Alucinación Fenómeno por el que un LLM genera información falsa pero presentada con total confianza. El modelo no "miente" conscientemente: simplemente predice tokens plausibles aunque no verídicos. Es uno de los problemas más importantes a resolver en IA.

RAG (Retrieval-Augmented Generation) Técnica que combina un LLM con un sistema de recuperación de información externo. En lugar de depender solo de lo que el modelo aprendió durante el entrenamiento, el sistema busca información relevante en tiempo real y se la proporciona como contexto. Reduce alucinaciones y permite trabajar con información actualizada.

Fine-tuning Proceso de ajuste adicional de un modelo preentrenado utilizando un conjunto de datos más específico y pequeño. Permite especializar un modelo general en un dominio concreto (medicina, derecho, atención al cliente...) sin entrenarlo desde cero.

RLHF (Reinforcement Learning from Human Feedback) Técnica de entrenamiento en la que humanos evalúan las respuestas del modelo y ese feedback se usa para ajustarlo. Es la base de cómo se "alinean" modelos como ChatGPT o Claude para que sean útiles, inofensivos y honestos.

Aprendizaje automático

Machine Learning (ML / Aprendizaje Automático) Subcampo de la IA en el que los sistemas aprenden a partir de datos sin ser programados explícitamente con reglas. En lugar de decirle al sistema "si pasa A, haz B", le mostramos ejemplos y él mismo aprende los patrones.

Aprendizaje supervisado El modelo aprende con datos etiquetados: se le muestra la entrada y la salida correcta esperada. Ejemplo: miles de imágenes de gatos y perros con su etiqueta correspondiente para que aprenda a clasificarlos.

Aprendizaje no supervisado El modelo aprende sin etiquetas, buscando patrones y estructuras en los datos por sí mismo. Útil para clustering, detección de anomalías o reducción de dimensionalidad.

Aprendizaje por refuerzo (Reinforcement Learning) El modelo aprende mediante prueba y error, recibiendo recompensas o penalizaciones según sus acciones. Es la base del entrenamiento de sistemas que juegan a videojuegos, controlan robots o toman decisiones en entornos complejos.

Sobreajuste (Overfitting) Problema que ocurre cuando un modelo aprende demasiado bien los datos de entrenamiento, incluyendo el ruido, y falla al generalizar con datos nuevos. Es el equivalente a memorizar las respuestas de un examen sin entender la materia.

Subajuste (Underfitting) Lo contrario: el modelo es demasiado simple para capturar los patrones del problema y falla tanto en entrenamiento como en datos nuevos.

Conjunto de entrenamiento, validación y test División estándar de los datos en ML. Con el conjunto de entrenamiento se ajustan los parámetros; con el de validación se ajusta el modelo durante el desarrollo; con el de test se mide el rendimiento final de forma objetiva.

Hiperparámetro Configuración del proceso de entrenamiento que se establece antes de que empiece el aprendizaje: número de capas, tasa de aprendizaje, tamaño del batch... A diferencia de los parámetros del modelo, los hiperparámetros no se aprenden automáticamente.

Redes neuronales

Red neuronal artificial Modelo computacional inspirado (de forma muy laxa) en el funcionamiento del cerebro. Está formada por nodos (neuronas artificiales) organizados en capas que procesan y transforman la información.

Deep Learning (Aprendizaje profundo) Subcampo del ML basado en redes neuronales con muchas capas (de ahí "profundo"). Ha sido el motor detrás de los mayores avances recientes en visión artificial, reconocimiento de voz y procesamiento de lenguaje natural.

Transformer Arquitectura de red neuronal introducida en 2017 que revolucionó el procesamiento de lenguaje natural. Se basa en el mecanismo de atención para relacionar palabras entre sí en un texto, sin importar su distancia. Prácticamente todos los LLMs modernos están basados en transformers.

Atención (Attention Mechanism) Componente clave de los transformers que permite al modelo "prestar atención" a las partes más relevantes de un texto al procesar cada token. La variante Self-Attention permite que cada palabra del texto se relacione con todas las demás.

Embedding Representación numérica (vector) de un texto, imagen u otro dato en un espacio de alta dimensión. Permite que conceptos similares estén cerca en ese espacio matemático. Son la forma en que los modelos "entienden" el significado.

CNN (Convolutional Neural Network / Red Neuronal Convolucional) Tipo de red neuronal especialmente eficaz para procesar datos con estructura espacial, como imágenes. Muy utilizada en visión artificial, reconocimiento facial y diagnóstico médico por imagen.

RNN (Recurrent Neural Network) Arquitectura diseñada para datos secuenciales (texto, audio, series temporales). Antes de los transformers, era la arquitectura dominante para tareas de lenguaje. Tiene dificultades con secuencias muy largas debido al problema del gradiente evanescente.

IA Generativa

IA Generativa Categoría de modelos de IA capaces de crear contenido nuevo: texto, imágenes, audio, vídeo o código. A diferencia de los modelos discriminativos (que clasifican), los generativos producen salidas originales.

GAN (Generative Adversarial Network) Arquitectura de IA generativa formada por dos redes que compiten entre sí: un generador que crea contenido sintético y un discriminador que intenta distinguir lo real de lo falso. Esta competición hace que ambos mejoren. Muy usada en generación de imágenes.

Modelo de difusión (Diffusion Model) Tipo de modelo generativo que aprende a generar imágenes eliminando progresivamente ruido de una imagen aleatoria. Stable Diffusion, DALL·E y Midjourney se basan en esta arquitectura. Han superado a las GANs en calidad de imagen generada.

Texto a imagen (Text-to-Image) Capacidad de un modelo para generar imágenes a partir de descripciones en lenguaje natural. Midjourney, DALL·E 3 y Stable Diffusion son los ejemplos más conocidos.

Multimodal Modelo capaz de procesar y generar diferentes tipos de datos: texto, imágenes, audio y vídeo. GPT-4o y Gemini Ultra son ejemplos de modelos multimodales. Representan la tendencia dominante en el desarrollo de IA actual.

Agentes y automatización

Agente de IA (AI Agent) Sistema de IA que no solo genera respuestas, sino que puede planificar, tomar decisiones y ejecutar acciones de forma autónoma para alcanzar un objetivo. Puede usar herramientas, navegar por internet, escribir y ejecutar código o interactuar con APIs.

Agentic AI Corriente de desarrollo de IA centrada en crear sistemas autónomos capaces de completar tareas complejas y de múltiples pasos con mínima intervención humana. Es la evolución natural de los LLMs conversacionales hacia sistemas que hacen cosas.

MCP (Model Context Protocol) Protocolo estándar abierto, impulsado por Anthropic, que define cómo los modelos de IA se conectan con herramientas externas, APIs y fuentes de datos. Está convirtiéndose en el estándar de facto para construir agentes de IA modulares e interoperables.

Orquestación de agentes Mecanismo por el que un agente principal coordina a otros agentes especializados para resolver tareas complejas. Cada subagente se ocupa de una parte del problema (búsqueda web, generación de código, análisis de datos...) y el orquestador integra los resultados.

Herramientas (Tools / Function Calling) Capacidad de un LLM para llamar a funciones externas o APIs durante una conversación. En lugar de simplemente generar texto, el modelo puede ejecutar código, buscar en internet o consultar bases de datos en tiempo real.

Memoria en IA Capacidad de un sistema de IA para recordar información a lo largo del tiempo. Puede ser de corto plazo (dentro de una conversación, limitado por la ventana de contexto) o de largo plazo (almacenamiento externo que persiste entre sesiones).

Ética y regulación

Alineamiento (AI Alignment) Campo de investigación que busca asegurar que los sistemas de IA actúen conforme a los valores, intenciones y objetivos humanos. Un sistema desalineado podría optimizar un objetivo de formas inesperadas y perjudiciales.

Sesgo algorítmico (Bias) Tendencia de un modelo a producir resultados sistemáticamente injustos o incorrectos hacia ciertos grupos, generalmente heredada de los datos de entrenamiento. Un sistema de selección de currículums entrenado con datos históricos puede perpetuar discriminaciones pasadas.

Caja negra (Black Box) Sistema de IA cuyo proceso de toma de decisiones interno es opaco e incomprensible incluso para sus creadores. Contrasta con los modelos explicables (XAI — Explainable AI), que pueden justificar sus decisiones.

XAI (Explainable AI / IA Explicable) Campo de investigación centrado en hacer que los modelos de IA sean más transparentes e interpretables, de forma que los humanos puedan entender por qué tomaron una decisión concreta. Especialmente relevante en sectores regulados como banca, sanidad o justicia.

AI Act (Reglamento Europeo de IA) Primera regulación integral sobre IA aprobada en el mundo, en vigor desde 2024. Clasifica los sistemas de IA según su nivel de riesgo (inaceptable, alto, limitado, mínimo) e impone obligaciones proporcionales a ese riesgo. Afecta a cualquier empresa que comercialice o use IA en la Unión Europea.

Deepfake Contenido audiovisual generado o manipulado con IA para hacer parecer que alguien dijo o hizo algo que nunca ocurrió. Plantea serios retos en desinformación, fraude y privacidad. El AI Act europeo exige etiquetar explícitamente el contenido sintético.

¿Te ha resultado útil?

Este glosario se actualizará periódicamente a medida que el campo evolucione. Si hay algún término que crees que debería estar aquí y no está, déjalo en los comentarios.

Última actualización: marzo de 2026