- El Consejo de Ministros aprueba un anteproyecto de ley que pretende poner coto a las imágenes creadas por inteligencia artificial.
- El objetivo de esta ley es frenar la manipulación de imágenes y voces creadas con inteligencia artificial.
- Además el anteproyecto de ley del derecho al honor y a la intimidad tratará de poner en el centro el consentimiento para el uso de la imagen, que podrá darse a partir de los 16 años.
En una era donde la inteligencia artificial (IA) transforma casi todos los aspectos de la vida cotidiana, los gobiernos también tienen que adaptar las leyes para frenar los riesgos derivados de su uso malintencionado. El Gobierno de España ha aprobado un anteproyecto de ley que incluye los deepfakes en el catálogo de delitos contra el honor, una medida que busca frenar la manipulación de imágenes y voces creadas con IA que afecten gravemente a la reputación y dignidad de las personas.
La reforma se articula mediante la actualización de una ley de 1982, adaptándola al contexto tecnológico actual e incorporando de forma explícita el término inteligencia artificial.
Este cambio normativo llega en un contexto de crecimiento exponencial de contenidos manipulados digitalmente que, fuera de los entornos técnicos, son cada vez más difíciles de identificar y controlar. La iniciativa legal refuerza además el consentimiento en la difusión y uso de la propia imagen y voz, subrayando que la difusión indiscriminada o la creación de deepfakes sin autorización puede constituir un atentado contra derechos fundamentales como el honor, la intimidad y la propia imagen.
Para el jurista Borja Adsuara, experto en derecho digital, la antigua norma ya era garantista. “No se refuerza la protección del derecho al honor porque ya está recogido en la ley. No hace falta retocar las normas con cada tecnología que surge. Se trata de un mero anuncio, al hilo de lo sucedido en Grok, para que parezca que el Gobierno está haciendo algo”, opina en una intervención en el elpais.
A continuación profundizaremos en qué son estos contenidos, cómo se clasifican, qué problemas sociales generan y qué implicaciones legales tiene la reforma propuesta en España.
¿Qué son los deepfakes?
La palabra deepfake combina deep learning («aprendizaje profundo» en inglés) y fake («falso»), y se refiere a contenidos digitales altamente realistas generados o manipulados mediante inteligencia artificial para dar la impresión de que una persona hace, dice o representa algo que nunca ocurrió realmente.
Técnicamente, los deepfakes son un tipo de medio sintético que puede abarcar imágenes, videos, audio e incluso texto creado por IA. Su objetivo fundamental es engañar o manipular la percepción de quien los ve o escucha: desde simular declaraciones falsas de una personalidad pública hasta crear escenas íntimas inexistentes de una persona privada.
La plataforma de ciberseguridad sentinelone explica que la creación de deepfakes se basa en redes neuronales profundas, en particular en las redes generativas adversariales (GAN). Estas enfrentan dos modelos de IA: uno encargado de generar el contenido falso y otro dedicado a evaluar su autenticidad. A través de este proceso competitivo, la calidad del resultado se perfecciona hasta lograr un nivel de realismo altamente convincente.
Este tipo de tecnología ha avanzado vertiginosamente en los últimos años, lo que plantea desafíos legales y éticos importantes en torno a la protección de los derechos individuales, la reputación, la seguridad y la confianza en la información digital.
Tipos principales de deepfakes
Los deepfakes no son un fenómeno homogéneo: pueden tomar diversas formas según el medio que se manipula o crea. Estos son los tipos más relevantes:
1. Deepface (imágenes y vídeos)
Este tipo consiste en la superposición o sustitución del rostro de una persona por el de otra dentro de un video o imagen. La tecnología detecta rasgos faciales, expresiones y gestos para integrarlos en un nuevo contexto, con frecuencia de forma indistinguible de la realidad.
Ejemplo: un video en el que parece que un personaje famoso pronuncia un discurso que nunca dio.
2. Deepvoice (audio)
En este caso se manipula o sintetiza la voz de una persona. A partir de grabaciones reales —incluso fragmentarias— un modelo de IA puede recomponer frases completas o generar voz que suena casi idéntica a la original.
Ejemplo: un mensaje de audio supuestamente de una figura pública que nunca pronunció esas palabras.
3. Otras formas de sintéticos (texto, combinados, etc.)
Más allá de los clásicos deepface o deepvoice, los medios sintéticos también pueden incluir:
- Imágenes generadas por IA sin reproducción facial de alguien específico (caras completamente artificiales o paisajes),
- Contenido textual escrito por IA con la intención de suplantar a una persona o generar noticias falsas,
- Versiones híbridas de audio y video con sincronización de labios generada por IA.
Aunque INCIBE se centra sobre todo en los deepfakes de video y voz, es útil entender que la manipulación sintética puede extenderse a textos, animaciones e incluso contextos interactivos más complejos.
Categorización de deepfakes
Desde INCIBE, autoridad española en ciberseguridad, ofrece una aproximación clara para entender los deepfakes, especialmente desde el punto de vista de ciberriesgos y seguridad ciudadana:
- Tipología: principalmente videos manipulados, tanto en rostros como en movimientos.
- Funcionamiento: estos videos o audios falsos se construyen mediante herramientas con IA que permiten intercambiar rostros y modificar voces de forma automatizada.
- Objetivo: hacer creer al público que una persona ha dicho o hecho algo real cuando no ha ocurrido.
Esta definición, aunque concisa, subraya un punto esencial: los deepfakes buscan crear una percepción errónea de la realidad, lo que puede tener consecuencias legales y sociales muy graves cuando se usan con fines malintencionados como difamación, fraude o chantaje.
¿Por qué los deepfakes preocupan tanto?
Aunque la tecnología detrás de los deepfakes puede tener aplicaciones legítimas, por ejemplo, en el cine o en la restauración de material histórico, los usos maliciosos han llamado mucho más la atención pública y jurídica. Entre los principales riesgos se encuentran:
1. Difamación y ataques al honor y reputación
Un deepfake puede mostrar a alguien diciendo o haciendo algo ofensivo, íntimo o ilegal, generando un efecto inmediato en su reputación personal, profesional o social. Esta capacidad de fabricar hechos puede equivaler a un ataque directo al honor de una persona, especialmente cuando se hace circular en redes sociales o medios de comunicación.
2. Abuso sexual digital
Los deepfakes con contenido sexual no consentido han sido uno de los usos más frecuentes y perjudiciales de esta tecnología. Según diversas fuentes, la mayoría de deepfakes distribuidos en internet tienen un carácter sexual y afectan en alta proporción a mujeres, lo que plantea preocupaciones de violencia digital de género.
En este apartado destacan noticias como las menores de Almendralejo desnudadas con inteligencia artificial (IA) o la reciente polémica con la IA de X, Grok, y el comando «ponle un bikini».
3. Desinformación y manipulación política
Los escenarios políticos pueden verse gravemente afectados si se difunden deepfakes que muestran a líderes o figuras públicas en situaciones comprometedoras o pronunciando falsedades. Esto puede influir en procesos electorales, debates públicos o decisiones colectivas.
4. Fraude y robo de identidad
Estos contenidos también se emplean para suplantar identidades en contextos financieros, corporativos o personales, abriendo la puerta a fraudes sofisticados o ataques de ingeniería social.
La reforma legal en España: delitos contra el honor
La gran novedad legislativa es que el Gobierno de España ha incluido los deepfakes en el catálogo de delitos contra el honor dentro de un anteproyecto de ley que modifica la normativa sobre el derecho al honor, la intimidad personal y la propia imagen.
¿Qué contempla exactamente la reforma?
Como recoge la noticia de rtve, se trata de una norma que tendrá rango orgánico y que debe ser, por tanto, aprobada por mayoría absoluta en el Congreso de los Diputados. La aprobación de esta ley orgánica forma parte del Plan de Acción por la Democracia que presentó el presidente del Gobierno, Pedro Sánchez, en 2024 y es una norma impulsada por los Ministerios de Justicia y de Juventud e Infancia.
- Los deepfakes que representen a una persona de forma falsa y perjudicial serán considerados intromisiones ilegítimas en el derecho al honor.
- Se reforzará la exigencia de consentimiento para el tratamiento, difusión y uso de la imagen o voz de una persona, especialmente en plataformas digitales.
- El anteproyecto también forma parte de una iniciativa más amplia que incluye normas para la protección de menores en entornos digitales.
- Más protección para los menores: los menores de 16 años no podrán dar consentimiento para el uso de la propia imagen y en el caso de los mayores de esa edad se considerará una intromisión ilegítima, aunque haya prestado el consentimiento, cuando se menoscabe su dignidad o reputación.
- Límites al consentimiento en redes sociales: en materia de consentimiento, establece que compartir imágenes personales en una red social no supone que terceros puedan usarlas en otras redes o canales de difusión, esto es, el consentimiento está limitado a la red social en la que se sube una determinada imagen.
Este cambio sitúa a España en la vanguardia de Europa en la regulación de contenidos de IA maliciosos, y responde a crecientes demandas sociales de protección jurídica frente a abusos tecnológicos.
La Agencia Española de Protección de Datos (AEPD) también ha publicado una circular en la que advierte de los riesgos de manipular imágenes con estas herramientas y señala que, incluso, se puede incurrir en delito.
La agencia recuerda que las imágenes, ya sean fotografías o vídeos, en las que una persona sea identificable, constituyen un dato personal, y eso es así tanto si la imagen es real o generada por sistemas de IA. Por tanto, reenviar esas imágenes, subirlas a internet, moverlas por redes sociales o modificarlas con herramientas de IA “supone un tratamiento de datos personales”. Y, si el afectado no ha dado su consentimiento para que eso suceda, se está vulnerando el Reglamento General de Protección de Datos (RGPD).
Un vínculo con normativas europeas
Según se recoge la noticia en Reuters, la reforma también se conecta con esfuerzos de la Unión Europea para combatir contenidos de IA dañinos: la UE exige que los Estados miembros criminalicen los deepfakes no consentidos (especialmente de naturaleza sexual) para 2027 como parte de marcos legales más amplios sobre IA y protección de datos.
Artículos relacionados
- Decálogo para detectar desinformación e información maliciosa en Internet
- Diez pasos contra la Información Engañosa en Internet
- Consejos y herramientas para desenmascarar noticias falsas en Internet
- El Gobierno aprueba la Ley para la protección de las personas menores de edad en los entornos digitales
- La Policía Nacional defiende una educación digital crítica y acompañada ante el auge de la IA, V Jornadas Salud Digital
