Deepfakes, derecho al honor y a la propia imagen: qué debe saber hoy
El uso de la inteligencia artificial para crear imágenes, vídeos o audios falsos —los llamados deepfakes— se ha convertido en uno de los mayores retos actuales para el derecho al honor, la intimidad y la propia imagen. Lo que empezó como una curiosidad tecnológica hoy plantea riesgos legales reales para particulares, empresas y personajes públicos.
En España, la protección de estos derechos se apoya principalmente en la Ley Orgánica 1/1982, pero el avance de la tecnología ha puesto de manifiesto la necesidad de actualizar el marco legal para dar respuesta a situaciones que antes no existían.
¿Qué es un deepfake y por qué es un problema legal?
Un deepfake es un contenido generado o manipulado mediante inteligencia artificial que suplanta la imagen, la voz o los gestos de una persona, haciéndole decir o hacer algo que nunca ocurrió. El problema surge cuando ese contenido se difunde sin consentimiento y afecta a la reputación, la vida privada o la imagen pública del afectado.
Por ejemplo, imaginemos un vídeo falso en el que aparentemente Bad Bunny promociona una inversión fraudulenta o realiza declaraciones ofensivas. Aunque el contenido sea falso, el daño a su imagen puede ser inmediato: millones de visualizaciones, pérdida de confianza y un impacto económico y reputacional difícil de revertir.
Derecho al honor y a la propia imagen en la era digital
El derecho al honor protege frente a expresiones o informaciones que lesionan la dignidad de una persona. El derecho a la propia imagen permite decidir sobre el uso de la imagen personal. Los deepfakes pueden vulnerar ambos derechos simultáneamente.
Pensemos en otro ejemplo: una marca utiliza un audio generado por IA que imita la voz de Bad Bunny para un anuncio en redes sociales, sin autorización. Aunque no haya intención de difamar, se estaría explotando su identidad con fines comerciales, lo que podría dar lugar a reclamaciones civiles por uso indebido de la imagen y, en ciertos casos, a responsabilidades adicionales.
¿Y si la persona no es famosa?
Aunque los casos más visibles afectan a celebridades, cualquier persona puede ser víctima. Un deepfake que muestre a un profesional en una situación comprometida o a un particular en un contexto íntimo puede causar daños personales, laborales y emocionales muy graves. La diferencia es que, en estos casos, la víctima suele tener menos recursos para reaccionar rápidamente.
Qué se está planteando a nivel legal
Las propuestas de actualización normativa buscan:
- Reforzar la protección frente a contenidos generados por IA.
- Facilitar la retirada rápida de deepfakes dañinos.
- Clarificar criterios de indemnización por daños morales.
- Extender la protección incluso después del fallecimiento en determinados supuestos.
Conclusión
Los deepfakes no son un problema futuro, sino una realidad actual con importantes implicaciones legales. Tanto si se trata de una figura pública como Bad Bunny, como de cualquier ciudadano, el uso no autorizado de imagen o voz puede tener consecuencias jurídicas serias.
Ante cualquier duda o situación concreta, lo más recomendable es consultar con un profesional especializado. En iasesorate puede encontrar despachos que le orienten sobre cómo proteger sus derechos y actuar frente a este tipo de contenidos.