
Regulación de los deepfakes y la desinformación
La era digital ha traído consigo una revolución en la forma en que consumimos contenido. Desde redes sociales hasta plataformas de vídeo, el acceso a información visual es más fácil y rápido que nunca. Sin embargo, con estas innovaciones también han surgido nuevos retos en términos de veracidad y responsabilidad.
Uno de los fenómenos más preocupantes es el de los deepfakes, un tipo de contenido visual creado mediante inteligencia artificial que puede alterar imágenes y vídeos de manera tan realista que resulta casi imposible distinguirlos de los originales.
Contenidos visuales que parecen reales
Los deepfakes son una forma de contenido manipulado creado mediante técnicas de inteligencia artificial y aprendizaje automático. Utilizando redes neuronales y algoritmos avanzados, se pueden generar imágenes, audios y vídeos extremadamente realistas que imitan la apariencia y la voz de una persona. Estos contenidos pueden ser utilizados para crear falsificaciones de discursos, actuaciones o incluso momentos históricos que nunca ocurrieron.
Lo más inquietante de los deepfakes es que, debido a su realismo, pueden engañar a la audiencia, haciendo que sea casi imposible distinguir entre lo que es verdadero y lo que es manipulado. Esto es especialmente peligroso cuando se trata de información que circula rápidamente en redes sociales, donde los usuarios no siempre verifican la veracidad de los contenidos antes de compartirlos. Los deepfakes pueden ser usados para manipular opiniones, difamar a personas públicas o incluso influir en procesos electorales.
En cuanto a la regulación, el artículo 18 de la Constitución española garantiza el derecho al honor, a la intimidad personal y familiar, y a la propia imagen. Esto implica que cualquier manipulación o distorsión de la imagen de una persona mediante deepfakes, sin su consentimiento, podría ser considerado una vulneración de este derecho. La Ley Orgánica 1/1982 sobre el derecho al honor, a la intimidad personal y familiar y a la propia imagen refuerza este aspecto, considerando que la alteración de una imagen sin consentimiento constituye una acción ilegal.
Retos legales para regular la desinformación
La LOPDGDD establece la protección de los datos personales, lo que incluye imágenes y grabaciones. Si se usan deepfakes para alterar o crear contenidos que afecten la integridad de una persona o manipulen su identidad, podrían estar vulnerando su derecho a la protección de sus datos personales.
Sin embargo, la legislación existente sobre desinformación no está diseñada para abordar específicamente los deepfakes. Las leyes que regulan las noticias falsas o la manipulación mediática suelen centrarse en contenidos escritos o divulgados a través de otros medios, pero no consideran de manera directa las nuevas formas de manipulación visual. Esto hace que la regulación de los deepfakes sea un terreno incierto y, en muchos casos, sin precedentes legales claros.
Aquí es donde entra en juego la nueva Ley de Inteligencia Artificial (IA). El pasado 11 de marzo de 2025 el Gobierno dio luz verde al anteproyecto de ley de gobernanza de la IA, con el objetivo de garantizar un uso ético, inclusivo y beneficioso de esta tecnología. La Ley de IA pretende ofrecer un marco legal que contemple los riesgos asociados con los algoritmos de IA, como los que generan deepfakes, y garantizar la transparencia, la fiabilidad y la equidad en su implementación.
Una de las principales preocupaciones de esta ley será la clasificación de las tecnologías de IA de riesgo, imponiendo obligaciones más estrictas a aquellas que generen o distribuyan contenido visual manipulativo, como los deepfakes. En particular, se dará un enfoque especial a la protección de la integridad de los datos personales, lo que ayudará a regular más eficazmente el uso de herramientas basadas en IA para manipular imágenes y vídeos. La Ley de IA también fomenta la creación de mecanismos para identificar y denunciar estos contenidos falsificados, permitiendo que las plataformas tecnológicas asuman una mayor responsabilidad en su distribución.
Por otro lado, existe un problema de jurisdicción. Los deepfakes, al igual que otros contenidos digitales, pueden ser creados y distribuidos desde cualquier lugar del mundo. Esto complica aún más la tarea de aplicar leyes locales sobre desinformación, ya que las plataformas de distribución, como las redes sociales, operan globalmente y no siempre están sujetas a las mismas normativas en diferentes países.
Asimismo, la responsabilidad de las plataformas digitales también es un tema de debate. Las redes sociales y los servicios de vídeo en línea, como YouTube y Facebook, juegan un papel fundamental en la distribución de contenidos, incluidos los deepfakes. La LSSI establece la responsabilidad de los prestadores de servicios de la sociedad de la información en cuanto a contenidos ilícitos. Si una plataforma facilita la distribución de deepfakes, podría ser considerada responsable si no toma medidas adecuadas para prevenir su difusión.
Mecanismos de detección y denuncia
Para combatir la desinformación generada por los deepfakes, es crucial contar con mecanismos efectivos de detección y denuncia. Afortunadamente, la tecnología también ha avanzado en este ámbito. Los investigadores y las empresas tecnológicas están desarrollando herramientas de inteligencia artificial capaces de identificar deepfakes mediante el análisis de inconsistencias en la imagen o el sonido. Estas herramientas buscan patrones que son difíciles de replicar, como los movimientos de los ojos, los parpadeos o los microdetalles en la piel que los deepfakes aún no pueden replicar con precisión.
En conclusión, la regulación de los deepfakes y la desinformación representa un desafío importante que requiere una acción conjunta entre gobiernos, instituciones, plataformas tecnológicas y usuarios. Si bien la tecnología ha avanzado de manera impresionante, las soluciones para mitigar los riesgos asociados con los deepfakes están en una etapa incipiente. No obstante, con una regulación adecuada, la implementación de tecnologías de detección y la promoción de la educación digital, podemos mitigar los efectos negativos de los deepfakes y proteger la integridad de la información que circula en la sociedad digital.
En Letslaw somos abogados expertos en derecho digital, por lo que podremos asesorarte en todo aquello que necesites.

Carmen Araolaza es abogada especialista en derecho digital, propiedad intelectual y protección de datos.
Graduada en Derecho con especialidad TIC por la Universidad de Deusto, completó su formación con un máster en acceso a la abogacía y otro en propiedad industrial, competencia y nuevas tecnologías en ISDE Law & Business School y PONS. Asesora en comercio electrónico, marketing digital y derecho de la competencia, con un enfoque dinámico y orientado al entorno tecnológico.