El Reglamento (UE) 2024/1689 — la Ley de IA Europea — clasifica los sistemas de inteligencia artificial en cuatro categorias de riesgo. Cada categoria tiene obligaciones diferentes, y saber donde encaja cada herramienta que usas en tu asesoria es el primer paso para cumplir.
En este articulo desglosamos las cuatro categorias con ejemplos concretos para asesorias fiscales y despachos profesionales.
Las cuatro categorias de riesgo
El AI Act sigue un enfoque basado en riesgo (risk-based approach). La logica es sencilla: a mayor impacto potencial del sistema de IA sobre las personas, mayores son las obligaciones regulatorias.
| Categoria | Nivel de obligacion | Ejemplos en asesoria |
|---|---|---|
| Inaceptable | Prohibido | Scoring social, reconocimiento emocional de empleados |
| Alto | Documentacion + evaluacion + supervision | IA que decide sobre creditos o acceso a servicios |
| Limitado | Transparencia | Chatbots fiscales, generacion de textos con IA |
| Minimo | Ninguna obligacion especifica | OCR, asistentes de redaccion, software fiscal con IA |
Riesgo inaceptable: lo que nunca debes usar
El Articulo 5 del Reglamento prohibe directamente ciertos usos de la IA. Estas prohibiciones ya estan en vigor desde el 2 de febrero de 2025.
Los sistemas prohibidos incluyen:
- Puntuacion social: sistemas que evaluan o clasifican personas en funcion de su comportamiento social o caracteristicas personales, con consecuencias perjudiciales
- Manipulacion subliminal: tecnicas que explotan el subconsciente para distorsionar el comportamiento de las personas
- Explotacion de vulnerabilidades: dirigirse a personas por su edad, discapacidad o situacion socioeconomica para manipular su conducta
- Reconocimiento de emociones en el trabajo o la educacion: sistemas que infieren estados emocionales de empleados o estudiantes
- Categorizacion biometrica sensible: clasificar personas por raza, orientacion sexual, creencias religiosas o politicas
- Scraping masivo de imagenes faciales: recopilar imagenes de internet o CCTV para crear bases de datos de reconocimiento facial
En la practica de una asesoria: es muy improbable que uses alguno de estos sistemas. Pero verifica tus herramientas de RRHH: si alguna evalua el estado de animo de tus empleados o categoriza candidatos por caracteristicas sensibles, esta prohibida.
Riesgo alto: donde las obligaciones son reales
Los sistemas de IA de alto riesgo estan definidos en el Articulo 6 y detallados en el Anexo III del Reglamento. Son los que requieren el mayor nivel de cumplimiento.
Que hace que un sistema sea de alto riesgo
Un sistema de IA es de alto riesgo si:
- Se usa como componente de seguridad de un producto regulado por la UE (maquinaria, dispositivos medicos, etc.), o
- Pertenece a una de las areas enumeradas en el Anexo III
Areas del Anexo III relevantes para asesorias
Punto 4 — Empleo y gestion de trabajadores:
- IA para seleccion y filtrado de candidatos en procesos de contratacion
- IA para tomar decisiones sobre promocion, terminacion o asignacion de tareas
- IA para monitorizar y evaluar el rendimiento de empleados
Si tu asesoria usa alguna herramienta de IA para filtrar CVs automaticamente, evaluar el rendimiento del equipo o decidir ascensos, entra en alto riesgo.
Punto 5 — Acceso a servicios esenciales y operaciones financieras:
- IA para evaluar la solvencia crediticia de personas fisicas (excepto deteccion de fraude)
- IA para la fijacion de primas de seguros de vida y salud
- IA para evaluar y clasificar llamadas de emergencia
Si tu asesoria usa IA para evaluar el riesgo financiero de clientes, decidir si les concedes facilidades de pago o recomendarles productos financieros basandose en scoring automatizado, entra aqui.
Punto 8 — Administracion de justicia y procesos democraticos:
- IA para investigar, interpretar o aplicar la ley
- IA para influir en procesos electorales
Menos relevante para la mayoria de asesorias, salvo que prestes servicios juridicos con IA que interprete jurisprudencia para tomar decisiones.
Obligaciones para sistemas de alto riesgo
Si usas un sistema de alto riesgo, como responsable del despliegue (Art. 26) debes:
- Usarlo conforme a las instrucciones del proveedor
- Asignar personas competentes para la supervision humana
- Garantizar que los datos de entrada son adecuados
- Monitorizar su funcionamiento
- Conservar los logs automaticos al menos 6 meses
- Informar a las personas afectadas por las decisiones del sistema
El proveedor del sistema (quien lo desarrollo) tiene obligaciones adicionales mucho mas extensas: documentacion tecnica, sistema de gestion de riesgos, gestion de datos, registro en la base de datos de la UE, marcado CE.
Riesgo limitado: la transparencia es obligatoria
El Articulo 50 establece obligaciones de transparencia para ciertos sistemas de IA. No son tan exigentes como las de alto riesgo, pero son de obligado cumplimiento.
Chatbots y asistentes virtuales
Si ofreces un chatbot fiscal a tus clientes — por ejemplo, un asistente automatizado que responde consultas sobre plazos de la AEAT, deducciones o tramites — debes informar al usuario de que esta interactuando con un sistema de IA.
Esto se aplica a cualquier sistema de IA disenado para interactuar directamente con personas fisicas. No basta con ponerlo en los terminos y condiciones: la informacion debe ser clara, comprensible y proporcionarse antes o al inicio de la interaccion.
Ejemplo practico: tu chatbot debe mostrar un mensaje tipo "Soy un asistente de IA. Puedo ayudarte con consultas fiscales generales, pero mis respuestas no sustituyen el asesoramiento profesional."
Contenido generado por IA
Si generas textos, informes, documentos o comunicaciones con asistencia de IA y los publicas o envias a terceros, debes indicar que han sido generados o asistidos por IA, especialmente si pueden confundirse con contenido creado por humanos.
Esto incluye: informes para clientes generados con IA, emails redactados por asistentes de IA, analisis fiscales producidos con herramientas automatizadas.
Excepcion: si el contenido de IA pasa por una revision humana significativa y el humano es responsable del resultado, la obligacion de etiquetado se atenua. Es decir, si la IA genera un borrador y tu lo revisas, editas y firmas como propio, la obligacion de transparencia es menor.
Deepfakes
Si se genera audio, imagen o video con IA que simula personas reales (deepfakes), debe etiquetarse obligatoriamente. Poco relevante para asesorias fiscales, pero conviene saberlo.
Riesgo minimo: la mayoria de tu software
La gran mayoria de las herramientas de IA que una asesoria fiscal usa en el dia a dia son de riesgo minimo:
- OCR inteligente para escanear facturas y extraer datos
- Categorizacion automatica de documentos contables
- Sugerencias de asientos contables basadas en patrones
- Correctores ortograficos y gramaticales con IA
- Asistentes de redaccion como herramientas de ayuda para escribir emails o informes
- Busqueda inteligente en bases de datos de normativa
- Software fiscal que calcula cuotas, aplica deducciones y prepara borradores de modelos AEAT
- Filtros de spam y herramientas de productividad con IA
Para estos sistemas, el AI Act no impone obligaciones regulatorias especificas. El Reglamento reconoce que la mayoria de sistemas de IA presentan un riesgo minimo o nulo y no requieren intervencion regulatoria.
Sin embargo, el Articulo 95 anima a los proveedores de sistemas de riesgo minimo a aplicar voluntariamente codigos de conducta que incluyan transparencia, supervision y buenas practicas. No es obligatorio, pero es recomendable.
Como clasificar los sistemas de IA de tu asesoria
Un ejercicio practico en 5 pasos:
Paso 1: Inventario
Haz una lista de todas las herramientas con algun componente de IA que usas. No solo el software etiquetado como "IA" — tambien las funciones de IA embebidas en herramientas existentes.
Paso 2: Identificar el proposito
Para cada herramienta, responde: que decision influye o que accion automatiza. Un OCR que extrae numeros de facturas es diferente de una IA que decide si un cliente es solvente.
Paso 3: Verificar el Anexo III
Compara el proposito de cada herramienta con las categorias del Anexo III del Reglamento. Si encaja en alguna, es alto riesgo. Si no, pasa al paso 4.
Paso 4: Verificar interaccion con personas
Si la herramienta interactua directamente con personas (chatbot, asistente virtual), es riesgo limitado con obligacion de transparencia.
Paso 5: Documentar
Registra la clasificacion de cada sistema con su justificacion. No es legalmente obligatorio para riesgo minimo, pero demuestra diligencia y te prepara para auditorias futuras.
Arbol de decision simplificado
- El sistema manipula, explota o categoriza biometricamente? → Prohibido
- El sistema toma decisiones en areas del Anexo III (creditos, empleo, servicios esenciales)? → Alto riesgo
- El sistema interactua con personas o genera contenido que simula ser humano? → Riesgo limitado
- Ninguno de los anteriores → Riesgo minimo
Si quieres hacer esta clasificacion de forma guiada, usa nuestro autodiagnostico gratuito — en 2 minutos sabras donde esta tu asesoria.
Errores frecuentes en la clasificacion
Error 1: "Uso ChatGPT, asi que soy de alto riesgo." No necesariamente. ChatGPT es un modelo de IA de proposito general (GPAI). El riesgo depende de como lo uses, no de la herramienta en si. Si lo usas para redactar emails, es riesgo minimo. Si lo integras en un sistema que decide sobre creditos, es alto riesgo.
Error 2: "Mi software dice que cumple con el AI Act." Verifica. El cumplimiento del proveedor no te exime de tus obligaciones como responsable del despliegue. Tu tienes obligaciones independientes (Art. 26).
Error 3: "Solo uso herramientas de terceros, no tengo obligaciones." Incorrecto. Como responsable del despliegue, tienes obligaciones propias: uso conforme a instrucciones, supervision humana, conservacion de logs, informacion a afectados.
Error 4: "Esto no me aplica porque soy una pyme." El AI Act aplica a todas las organizaciones, independientemente de su tamano. Las pymes tienen ciertas adaptaciones en cuanto a sanciones (Art. 99.6), pero las obligaciones sustantivas son las mismas.
Proximos pasos
Si ya has clasificado tus sistemas, el siguiente paso es preparar tu asesoria para agosto de 2026. En nuestro articulo Como preparar tu asesoria para el AI Act antes de agosto de 2026 encontraras un plan de accion detallado con calendario.
Carmen Esteban es asesora fiscal con mas de 30 anos de experiencia y fundadora de IAFiscal, plataforma de gestion fiscal y contable con inteligencia artificial para asesorias en Espana.