AI Act 2026: Europa retrasa obligaciones, pero endurece la batalla contra los deepfakes
La regulación europea de la inteligencia artificial acaba de entrar en una fase más realista. No porque Bruselas haya abandonado el AI Act, sino porque ha aceptado algo evidente: una cosa es aprobar una norma ambiciosa y otra desplegarla sin romper media cadena de cumplimiento. El acuerdo provisional alcanzado por Parlamento y Consejo retrasa algunas obligaciones para sistemas de alto riesgo, reduce solapamientos normativos y, al mismo tiempo, introduce una prohibición específica contra los llamados “nudifiers”. Es decir: más margen para empresas, pero menos tolerancia con los usos más dañinos de la IA generativa.
Qué ha cambiado exactamente en el AI Act
El acuerdo forma parte del paquete Digital Omnibus, una iniciativa para simplificar regulación digital europea. En el AI Act, el cambio central es el calendario. Las obligaciones para sistemas de IA de alto riesgo pasarían a aplicarse desde el 2 de diciembre de 2027 en casos como biometría, infraestructuras críticas, educación, empleo, aplicación de la ley o control fronterizo. Para sistemas de IA usados como componentes de seguridad y cubiertos por legislación sectorial, la fecha se desplazaría al 2 de agosto de 2028.
Esto no significa que el AI Act desaparezca ni que Europa renuncie a regular la IA. Significa que el calendario inicial se ha considerado demasiado ajustado para tener listas normas técnicas, guías, estándares y mecanismos de supervisión suficientemente claros. En regulación tecnológica, esa parte menos visible decide si una ley funciona o se convierte en una carga confusa.
Más tiempo para empresas, menos doble regulación
La lectura empresarial es evidente: más margen para adaptarse. Muchas compañías no solo tenían que interpretar el AI Act, sino también encajarlo con normas sectoriales ya existentes. El acuerdo intenta reducir esa doble capa, especialmente en productos de maquinaria. La idea es que determinados sistemas cumplan la legislación sectorial de seguridad en lugar de quedar atrapados automáticamente por obligaciones duplicadas del AI Act. También se estrecha el concepto de “componente de seguridad”, para que una función de IA meramente auxiliar no active por defecto el régimen de alto riesgo.
Desde un punto de vista técnico, esto tiene bastante sentido. No toda IA integrada en un producto industrial merece el mismo tratamiento que un sistema que decide sobre empleo, frontera o acceso a servicios esenciales. El riesgo no está en que haya un modelo, sino en qué decisión toma, sobre quién actúa y qué consecuencias tiene un error.
La prohibición de los “nudifiers” marca el límite político
La parte más dura del acuerdo está en los deepfakes sexuales. Parlamento y Consejo han pactado prohibir sistemas de IA destinados a crear material de abuso sexual infantil o a representar partes íntimas de una persona identificable, o actividades sexualmente explícitas, sin consentimiento. La prohibición cubre imágenes, vídeo y audio. También alcanza a proveedores que pongan estos sistemas en el mercado sin medidas razonables para impedir ese uso, y a quienes los desplieguen con esa finalidad. Las empresas tendrán hasta el 2 de diciembre de 2026 para adaptarse.
Aquí la UE manda una señal clara. Puede aceptar más plazo para documentación, evaluación de conformidad o estándares técnicos, pero no quiere esperar cuando el daño es directo, personal y difícil de reparar. Los “nudifiers” no son un caso teórico de laboratorio: son herramientas que convierten la capacidad generativa de la IA en infraestructura de acoso, chantaje y humillación.
Transparencia: el contenido generado por IA tendrá que dejar rastro
Otro cambio importante afecta al etiquetado técnico del contenido generado por IA. El acuerdo retrasa las obligaciones de marcado de agua hasta el 2 de diciembre de 2026. La idea es que el contenido sintético pueda detectarse y trazarse mejor, aunque conviene no vender esto como una solución mágica. El watermarking ayuda, pero no resuelve por sí solo la desinformación, el fraude ni la manipulación audiovisual. Puede eliminarse, degradarse o quedar fuera de herramientas que operen al margen de la norma.
Aun así, es una pieza necesaria. En Tecnoic ya expliqué, al hablar del EU AI Act, que Europa no solo está regulando modelos, sino también trazabilidad, documentación y gobernanza. Y en el análisis sobre ChatGPT y la DSA europea se veía la misma tendencia: Bruselas mira cada vez menos la IA como una curiosidad técnica y cada vez más como una capa de infraestructura digital con impacto social.
El riesgo: que simplificar se convierta en rebajar
El equilibrio es delicado. Si la simplificación sirve para eliminar solapamientos, aclarar obligaciones y dar tiempo a que los estándares estén maduros, puede fortalecer el AI Act. Una norma aplicable vale más que una norma impecable sobre el papel. Pero si el mensaje que reciben las grandes tecnológicas es que basta con presionar para mover plazos, Europa puede perder parte de la ventaja política que obtuvo al aprobar el primer gran marco integral de IA. Reuters ha descrito el acuerdo como una versión suavizada de las reglas, con críticas por posibles concesiones a grandes tecnológicas.
La clave estará en la ejecución. La Oficina de IA, las autoridades nacionales y los estándares técnicos tendrán que convertir este calendario en controles reales. Porque el problema de fondo no ha cambiado: la IA ya decide, recomienda, filtra, genera, clasifica y automatiza procesos que antes exigían intervención humana. Retrasar obligaciones no reduce el riesgo técnico; solo aplaza el momento en que el mercado tendrá que demostrar que lo gestiona bien.
Conclusión
El nuevo acuerdo sobre el AI Act no es una marcha atrás completa. Es una corrección de calendario con una línea roja muy clara: más tiempo para cumplir, pero menos tolerancia frente a los usos más dañinos de la IA generativa. A mí me parece una señal razonable, siempre que la simplificación no acabe convertida en desregulación silenciosa. La pregunta queda abierta: ¿Europa está afinando su regulación o empezando a ceder demasiado pronto?