
Orientaciones de la AEPD sobre el uso de la IA agéntica
La Agencia Española de Protección de Datos (AEPD) publicó el 18 de febrero de 2026 sus «Orientaciones sobre Inteligencia Artificial agéntica desde la perspectiva de protección de datos», dirigidas a ayudar a responsables y encargados a identificar los riesgos que surgen cuando se utilizan agentes de IA en tratamientos de datos personales. El mensaje de fondo es claro: la IA agéntica obliga a revisar cómo se gobiernan los tratamientos y cómo se protegen los derechos de las personas.
La AEPD aclara que no pretende resolver un caso concreto, sino ofrecer un marco para gestionar las peculiaridades que incorpora esta tecnología. No es una guía sobre prompts, sino sobre cómo cambia el tratamiento cuando el sistema planifica, consulta herramientas, accede a memoria y ejecuta acciones con distintos grados de autonomía.
Qué entiende la AEPD por IA agéntica
La AEPD define la IA agéntica como sistemas capaces de actuar de forma autónoma para alcanzar objetivos. A diferencia de un modelo reactivo, el agente puede descomponer tareas, usar herramientas, consultar memoria y ejecutar acciones en varios pasos.
Dicho de otro modo, la IA agéntica no es solo «un chatbot más». Hay, al menos, cuatro elementos que explican por qué la AEPD le dedica una guía específica:
- Trabaja por objetivos, no solo por instrucciones aisladas. El agente no solo responde: puede planificar subtareas y encadenar pasos hasta alcanzar un resultado, con intervención de distintos sistemas y niveles de confianza.
- Puede usar herramientas y conectarse con el exterior. Estos sistemas pueden interactuar con múltiples servicios y fuentes externas, lo que amplía la superficie de exposición y explica por qué el análisis no puede limitarse al LLM aislado.
- Puede incorporar memoria. La memoria permite contextualizar acciones futuras, pero también puede arrastrar datos personales y sesgos si no existen reglas claras de conservación y borrado.
- Puede operar con distintos niveles de autonomía. La AEPD distingue entre agentes que solo proponen y agentes que ejecutan. Cuanta más autonomía, mayor exigencia en supervisión, minimización, explicabilidad y reversibilidad.
Qué cambia el enfoque de protección de datos
Introducir IA agéntica en un tratamiento altera su naturaleza: puede reducir riesgos existentes, pero también crear otros nuevos. Por ello, la AEPD exige reabrir el análisis y la gestión del riesgo.
La autonomía del agente desplaza el análisis al comportamiento global del sistema: qué consulta, recuerda, comparte, infiere y ejecuta. Con ello, pueden variar intervinientes, datos, flujos, plazos de conservación, transparencia y finalidades.
La guía aclara, además, que la IA agéntica no obliga automáticamente a realizar una EIPD en todos los casos, pero sí puede exigirla —o requerir revisar una ya realizada— si altera el riesgo inicialmente valorado.
Los riesgos que más preocupan a la AEPD
La guía aterriza riesgos concretos y no se queda en una advertencia genérica sobre «usar la IA con cuidado».
- Opacidad y falsa sensación de control. Usuarios y desarrolladores pueden no comprender bien cómo decide el agente. La combinación de inferencias distribuidas, herramientas externas y memoria puede aparentar fiabilidad y dificultar explicabilidad, auditoría y supervisión humana.
- Exceso de datos, memoria persistente y perfilado. Conservar demasiado contexto o reutilizar memoria entre casos puede arrastrar datos irrelevantes y perfilar a usuarios del sistema si no se limitan, seudonimizan y caducan los registros.
- Acceso excesivo a información y quiebra del principio de minimización. Los agentes con acceso autónomo a múltiples fuentes pueden hacer scraping masivo o reenviar más datos de los necesarios.
- Inyección de prompts y amenazas indirectas. La instrucción maliciosa puede llegar incrustada en una web, un correo o un documento consultado por el agente.
- Shadow leaks o filtraciones silenciosas. También alerta del shadow leak: respuestas parciales que permiten reconstruir información confidencial.
Qué medidas recomienda la AEPD a las organizaciones
La respuesta de la AEPD es estructural: gobernanza y diseño, no simples avisos o validaciones finales.
En primer lugar, exige integrar la IA agéntica en la gobernanza del tratamiento e involucrar al DPD desde el diseño.
En segundo lugar, insiste en la privacidad desde el diseño: tratar solo los datos necesarios y mantener trazabilidad y explicabilidad.
En tercer lugar, reclama medidas técnicas concretas: minimización granular, filtrado entre componentes y eliminación de metadatos innecesarios.
También pide limitar memoria y logs, seudonimizar registros y fijar caducidades.
Por último, el responsable debe fijar y documentar la autonomía del agente según contexto y riesgo. La «regla de 2» alerta frente a combinar entrada no controlada, datos sensibles y acción automática.

IP/IT Lawyer
Graduado en Derecho y diplomado en Derecho Económico por la Universidad de Navarra, comenzó su contacto con el derecho digital al realizar el Máster en Derecho Digital, Telecomunicaciones y Energía impartido por la Universidad CEU San Pablo. Desde el año 2021, ha desarrollado su trayectoria profesional en las áreas de Propiedad Intelectual e Industrial, Derecho de la Competencia, Protección de Datos, Derecho Digital y Corporate en general.






