El Reglamento (UE) 2024/1689 — la Ley de IA Europea — clasifica los sistemas de inteligencia artificial en cuatro categorias de riesgo. Cada categoria tiene obligaciones diferentes, y saber donde encaja cada herramienta que usas en tu asesoria es el primer paso para cumplir.

En este articulo desglosamos las cuatro categorias con ejemplos concretos para asesorias fiscales y despachos profesionales.

Las cuatro categorias de riesgo

El AI Act sigue un enfoque basado en riesgo (risk-based approach). La logica es sencilla: a mayor impacto potencial del sistema de IA sobre las personas, mayores son las obligaciones regulatorias.

Categoria Nivel de obligacion Ejemplos en asesoria
Inaceptable Prohibido Scoring social, reconocimiento emocional de empleados
Alto Documentacion + evaluacion + supervision IA que decide sobre creditos o acceso a servicios
Limitado Transparencia Chatbots fiscales, generacion de textos con IA
Minimo Ninguna obligacion especifica OCR, asistentes de redaccion, software fiscal con IA

Riesgo inaceptable: lo que nunca debes usar

El Articulo 5 del Reglamento prohibe directamente ciertos usos de la IA. Estas prohibiciones ya estan en vigor desde el 2 de febrero de 2025.

Los sistemas prohibidos incluyen:

En la practica de una asesoria: es muy improbable que uses alguno de estos sistemas. Pero verifica tus herramientas de RRHH: si alguna evalua el estado de animo de tus empleados o categoriza candidatos por caracteristicas sensibles, esta prohibida.

Riesgo alto: donde las obligaciones son reales

Los sistemas de IA de alto riesgo estan definidos en el Articulo 6 y detallados en el Anexo III del Reglamento. Son los que requieren el mayor nivel de cumplimiento.

Que hace que un sistema sea de alto riesgo

Un sistema de IA es de alto riesgo si:

  1. Se usa como componente de seguridad de un producto regulado por la UE (maquinaria, dispositivos medicos, etc.), o
  2. Pertenece a una de las areas enumeradas en el Anexo III

Areas del Anexo III relevantes para asesorias

Punto 4 — Empleo y gestion de trabajadores:

Si tu asesoria usa alguna herramienta de IA para filtrar CVs automaticamente, evaluar el rendimiento del equipo o decidir ascensos, entra en alto riesgo.

Punto 5 — Acceso a servicios esenciales y operaciones financieras:

Si tu asesoria usa IA para evaluar el riesgo financiero de clientes, decidir si les concedes facilidades de pago o recomendarles productos financieros basandose en scoring automatizado, entra aqui.

Punto 8 — Administracion de justicia y procesos democraticos:

Menos relevante para la mayoria de asesorias, salvo que prestes servicios juridicos con IA que interprete jurisprudencia para tomar decisiones.

Obligaciones para sistemas de alto riesgo

Si usas un sistema de alto riesgo, como responsable del despliegue (Art. 26) debes:

  1. Usarlo conforme a las instrucciones del proveedor
  2. Asignar personas competentes para la supervision humana
  3. Garantizar que los datos de entrada son adecuados
  4. Monitorizar su funcionamiento
  5. Conservar los logs automaticos al menos 6 meses
  6. Informar a las personas afectadas por las decisiones del sistema

El proveedor del sistema (quien lo desarrollo) tiene obligaciones adicionales mucho mas extensas: documentacion tecnica, sistema de gestion de riesgos, gestion de datos, registro en la base de datos de la UE, marcado CE.

Riesgo limitado: la transparencia es obligatoria

El Articulo 50 establece obligaciones de transparencia para ciertos sistemas de IA. No son tan exigentes como las de alto riesgo, pero son de obligado cumplimiento.

Chatbots y asistentes virtuales

Si ofreces un chatbot fiscal a tus clientes — por ejemplo, un asistente automatizado que responde consultas sobre plazos de la AEAT, deducciones o tramites — debes informar al usuario de que esta interactuando con un sistema de IA.

Esto se aplica a cualquier sistema de IA disenado para interactuar directamente con personas fisicas. No basta con ponerlo en los terminos y condiciones: la informacion debe ser clara, comprensible y proporcionarse antes o al inicio de la interaccion.

Ejemplo practico: tu chatbot debe mostrar un mensaje tipo "Soy un asistente de IA. Puedo ayudarte con consultas fiscales generales, pero mis respuestas no sustituyen el asesoramiento profesional."

Contenido generado por IA

Si generas textos, informes, documentos o comunicaciones con asistencia de IA y los publicas o envias a terceros, debes indicar que han sido generados o asistidos por IA, especialmente si pueden confundirse con contenido creado por humanos.

Esto incluye: informes para clientes generados con IA, emails redactados por asistentes de IA, analisis fiscales producidos con herramientas automatizadas.

Excepcion: si el contenido de IA pasa por una revision humana significativa y el humano es responsable del resultado, la obligacion de etiquetado se atenua. Es decir, si la IA genera un borrador y tu lo revisas, editas y firmas como propio, la obligacion de transparencia es menor.

Deepfakes

Si se genera audio, imagen o video con IA que simula personas reales (deepfakes), debe etiquetarse obligatoriamente. Poco relevante para asesorias fiscales, pero conviene saberlo.

Riesgo minimo: la mayoria de tu software

La gran mayoria de las herramientas de IA que una asesoria fiscal usa en el dia a dia son de riesgo minimo:

Para estos sistemas, el AI Act no impone obligaciones regulatorias especificas. El Reglamento reconoce que la mayoria de sistemas de IA presentan un riesgo minimo o nulo y no requieren intervencion regulatoria.

Sin embargo, el Articulo 95 anima a los proveedores de sistemas de riesgo minimo a aplicar voluntariamente codigos de conducta que incluyan transparencia, supervision y buenas practicas. No es obligatorio, pero es recomendable.

Como clasificar los sistemas de IA de tu asesoria

Un ejercicio practico en 5 pasos:

Paso 1: Inventario

Haz una lista de todas las herramientas con algun componente de IA que usas. No solo el software etiquetado como "IA" — tambien las funciones de IA embebidas en herramientas existentes.

Paso 2: Identificar el proposito

Para cada herramienta, responde: que decision influye o que accion automatiza. Un OCR que extrae numeros de facturas es diferente de una IA que decide si un cliente es solvente.

Paso 3: Verificar el Anexo III

Compara el proposito de cada herramienta con las categorias del Anexo III del Reglamento. Si encaja en alguna, es alto riesgo. Si no, pasa al paso 4.

Paso 4: Verificar interaccion con personas

Si la herramienta interactua directamente con personas (chatbot, asistente virtual), es riesgo limitado con obligacion de transparencia.

Paso 5: Documentar

Registra la clasificacion de cada sistema con su justificacion. No es legalmente obligatorio para riesgo minimo, pero demuestra diligencia y te prepara para auditorias futuras.

Arbol de decision simplificado

  1. El sistema manipula, explota o categoriza biometricamente? → Prohibido
  2. El sistema toma decisiones en areas del Anexo III (creditos, empleo, servicios esenciales)? → Alto riesgo
  3. El sistema interactua con personas o genera contenido que simula ser humano? → Riesgo limitado
  4. Ninguno de los anteriores → Riesgo minimo

Si quieres hacer esta clasificacion de forma guiada, usa nuestro autodiagnostico gratuito — en 2 minutos sabras donde esta tu asesoria.

Errores frecuentes en la clasificacion

Error 1: "Uso ChatGPT, asi que soy de alto riesgo." No necesariamente. ChatGPT es un modelo de IA de proposito general (GPAI). El riesgo depende de como lo uses, no de la herramienta en si. Si lo usas para redactar emails, es riesgo minimo. Si lo integras en un sistema que decide sobre creditos, es alto riesgo.

Error 2: "Mi software dice que cumple con el AI Act." Verifica. El cumplimiento del proveedor no te exime de tus obligaciones como responsable del despliegue. Tu tienes obligaciones independientes (Art. 26).

Error 3: "Solo uso herramientas de terceros, no tengo obligaciones." Incorrecto. Como responsable del despliegue, tienes obligaciones propias: uso conforme a instrucciones, supervision humana, conservacion de logs, informacion a afectados.

Error 4: "Esto no me aplica porque soy una pyme." El AI Act aplica a todas las organizaciones, independientemente de su tamano. Las pymes tienen ciertas adaptaciones en cuanto a sanciones (Art. 99.6), pero las obligaciones sustantivas son las mismas.

Proximos pasos

Si ya has clasificado tus sistemas, el siguiente paso es preparar tu asesoria para agosto de 2026. En nuestro articulo Como preparar tu asesoria para el AI Act antes de agosto de 2026 encontraras un plan de accion detallado con calendario.


Carmen Esteban es asesora fiscal con mas de 30 anos de experiencia y fundadora de IAFiscal, plataforma de gestion fiscal y contable con inteligencia artificial para asesorias en Espana.