
«Cuidado con lo que le confIAs», el nuevo decálogo de la AEPD
El 27 de enero de 2026, víspera del Día Internacional de la Protección de Datos (28 de enero), la Agencia Española de Protección de Datos (AEPD) publicaba el decálogo “Cuidado con lo que le confIAs”, con recomendaciones prácticas para reducir riesgos de privacidad cuando interactuamos con sistemas de IA.
Objetivos del decálogo de la AEPD
Consciente del creciente uso y del potencial (ya palpable) de los sistemas de inteligencia artificial, la Agencia considera importante trasladar un conjunto de consejos para conocer y poder prevenir los riesgos para la privacidad de las personas derivados de un uso inadecuado de estas herramientas.
En palabras de la propia Agencia, este decálogo “tiene como objetivo ofrecer claves a la ciudadanía para promover un uso seguro, responsable y consciente de la inteligencia artificial y fomentar un entorno digital respetuoso con los derechos fundamentales de las personas.”
Además, esta iniciativa se enmarca en la línea marcada por la AEPD en su Plan Estratégico 2025-2030, de Innovación responsable y defensa de la dignidad en la era digital, en el que marcaba su compromiso por impulsar una cultura en privacidad y protección de datos entre la ciudadanía y las organizaciones, así como por una innovación tecnología con garantías.
Uso responsable de la inteligencia artificial
Hablar de “uso responsable” no es solo una cuestión ética, también es práctica. En el uso cotidiano de IA generativa, hay cuatro ideas que conviene tener claras:
1. Tu prompt no siempre es “solo texto”
Cuando escribes una consulta, no viaja únicamente el contenido del mensaje. En muchos servicios, el uso puede implicar datos técnicos y de contexto (navegación, identificadores, metadatos, etc.). Es decir: aunque tu pregunta sea inocente, el ecosistema alrededor puede no serlo tanto.
2. La privacidad no se rompe solo por el nombre y apellidos
Hay datos que no parecen personales, pero pueden acabar siéndolo por acumulación: hábitos, localizaciones frecuentes, rutinas, preocupaciones o preferencias. Con suficiente repetición, la suma de pequeñas pistas perfila.
3. La IA no “entiende” como un profesional (aunque lo parezca)
Estas herramientas pueden sonar convincentes incluso cuando se equivocan. Y, en temas delicados (salud, asesoramiento legal, apoyo psicológico), el riesgo no es solo de privacidad: también puede ser de decisiones mal informadas.
4. No solo es tu privacidad: también respondes por los datos de los demás
Un error muy común es pensar “esto no es mío” y bajar la guardia: datos de un cliente, un candidato, un proveedor, un compañero, un menor, una captura de pantalla con nombres, un email reenviado…
Si tú los introduces en una IA, estás realizando un tratamiento y puedes estar exponiendo información de terceros sin base, sin necesidad y sin control.
Las buenas prácticas que recomienda la AEPD
La utilidad del decálogo radica precisamente en que no se queda en generalidades: propone hábitos concretos. Estas son las 10 recomendaciones que recoge la Agencia:
1. No subas a la IA tu información personal
Evita incluir información que te identifique directamente (p. ej., datos de contacto, documentos, imágenes personales). Si necesitas plantear un caso, anonimiza o formula un supuesto ficticio.
2. Evita especialmente subir información delicada o sensible
Hay categorías que conviene mantener fuera por defecto: datos de salud, finanzas, temas contractuales, localizaciones o estancias. Son datos con potencial de daño alto si se exponen.
3. Respeta la privacidad de terceros
Si tu consulta involucra a otras personas, elimina cualquier elemento que pueda identificarlas. Y regla de oro: no subas imágenes de terceros para generar contenido nuevo, especialmente si hablamos de menores.
4. No incluyas información profesional
Si usas la IA en un contexto profesional, aplica el estándar “como si lo fueras a pegar en un canal público” (porque, en la práctica, el riesgo de exposición existe). Nada de contratos, informes, estrategias, datos de clientes o información de empleados.
5. Revisa las condiciones del servicio de IA antes de usarlo y elige las versiones más seguras
Antes de usar una herramienta, revisa qué ocurre con tu información (retención, uso para mejora, configuración de privacidad, permisos). Prioriza soluciones que recaben lo mínimo necesario y ofrezcan controles claros.
6. Si necesitas asesoramiento profesional especializado, apoyo emocional o psicológico, acude a un profesional antes que a la IA
Si necesitas un diagnóstico, orientación clínica, asesoramiento legal o acompañamiento psicológico, no lo sustituyas por una conversación con IA. Puedes usarla como apoyo, pero no como “profesional”.
7. No creas todo lo que dice una IA: mantén una postura crítica
Mantén una postura crítica. No delegues decisiones relevantes sin verificación, y contrasta en fuentes fiables (especialmente en temas con impacto legal, económico o personal).
8. Asesora y guía a los menores a tu cargo
Explícales qué riesgos existen, qué tipo de datos no se deben compartir y fomenta su pensamiento crítico. Aquí, prevención significa educación digital práctica.
9. Utiliza distintas cuentas y borra el historial
Si estás probando herramientas, evita mezclarlo con tu correo personal o profesional. Usa cuentas diferenciadas, revisa opciones de borrado y elimina conversaciones con frecuencia cuando el servicio lo permita.
10. Tus preguntas pueden definirte
No hace falta contar “mi DNI” para dejar rastro. Preguntas repetidas sobre hábitos, miedos, gustos o rutinas pueden construir un perfil muy preciso. Practica el mínimo necesario también en lo que consultas.

Letslaw es una firma de abogados internacionales especializada en el derecho de los negocios.






