'Deepfakes' pornográficos: Cuando la IA desnuda tu intimidad y vulnera tus derechos
«Desviste a cualquiera con nuestro servicio gratuito», reza el mensaje de bienvenida de una página web para crear deepfakes pornográficos. No se tiene que ser un experto para encontrar estas webs ni tampoco para usarlas, solo hace falta subir una foto de cuerpo entero y esperar menos de un minuto para obtener el resultado esperado.
Para hacer un vídeo porno deepfake de 60 segundos, hacen falta menos de 25 minutos y cuesta 0€ (si la web es gratuita, también las hay de pago) usando solo una imagen del rostro de alguien, según datos del informe State of deepfakes 2023 de Home Security Heroes. No es nuevo, los primeros deepfakes empezaron con mujeres famosas: los rostros de Jennifer Lawrence o Scarlett Johansson eran recortados e incrustados en escenas pornográficas que después eran colgadas en páginas para adultos, tanto en vídeo como en imágenes.
«La creación de imágenes sexuales creadas por inteligencia artificial, o deepfakes sexuales, no se contempla, aún, como un delito específico en el Código Penal. Ahora bien, atendiendo a la idea de la violencia de género como toda aquella violencia que en su extensión se ejerce contra las mujeres, la creación de este tipo de imágenes no deja de ser una herramienta y una forma de violencia más contra estas», explica Rocío Pina, profesora de los Estudios de Psicología y Ciencias de la Educación y del grado de Criminología de la Universitat Oberta de Catalunya (UOC). «Se desinforma, se manipula y se destruye la reputación de la víctima de la misma manera que lo hace el revenge porn (porno de venganza) o la sextorsión», añade.
De acuerdo con el estudio antes mencionado, entre 2022 y 2023, la cantidad de pornografía deepfake creada aumentó un 464%, pasando de 3725 vídeos en 2022 a 21.019 en 2023, un patrón alarmante según los propios investigadores del informe. «Estas aplicaciones se fundamentan en sistemas de inteligencia artificial generativos, en este caso imágenes: crean un algoritmo que se ha entrenado con muchísimas imágenes y que se ha combinado con una aplicación web o una aplicación móvil, en la que la aportación de entrada es una imagen y la de salida otra imagen, pero se le aplica una transformación, que en este caso es un desnudo», explica Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC.
Este fenómeno vulnera dos grandes derechos: la protección de datos o privacidad, y también la intimidad, honor y propia imagen. “Se vulnera la normativa de protección de datos porque existe una difusión de información que, aunque sea esencialmente falsa, se utilizan datos personales reales, como el rostro de una persona o a veces incluso la voz, y esto conlleva frecuentemente un tratamiento de datos personales sin consentimiento del afectado. Además, la vulneración de la normativa también se ocasiona en el momento de compartir o difundir estas creaciones con IA a terceras personas, y a veces incluso a través de redes sociales en abierto, también sin el consentimiento del afectado. Por tanto, la norma obliga a recabar el permiso del interesado no sólo para la creación de estas imágenes sino también para su posterior difusión a un alto número de personas o en redes sociales”, detalla Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Política de la UOC y experto en derecho a la privacidad.
Además, es importante destacar la naturaleza de esta información y el impacto sobre los sujetos afectados. En particular, añade el experto “estas imágenes conllevan a menudo un tratamiento de datos sensibles, ya que la información se encuentra relacionada con la vida íntima o sexual de una persona y, en función de la imagen generada mediante esta tecnología, se puede ocasionar también una lesión al derecho al honor, intimidad y/o propia imagen de la persona”.
va dirigido contra las mujeres
«La inmensa mayoría de los vídeos tienen a las mujeres como víctimas, que ven vulnerado su derecho a la propia imagen, convertida en un objeto de consumo pornográfico. Tiene un efecto psicológico importante porque representa unas prácticas sexuales que, aunque nunca hayan ocurrido en realidad, son muy realistas», afirma Cristina Pujol, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC e investigadora del grupo GAME. Así lo confirma el informe State of deepfake 2023, que afirma que el 99% del contenido pornográfico deepfake está protagonizado por mujeres.
«Desafortunadamente, existe un mercado muy grande que está más orientado a generar imágenes de mujeres desnudas. No significa que sea más fácil crear imágenes de mujeres que de hombres, pero básicamente hacia aquí donde están orientados estos servicios o hacia aquí se busca llamar la atención. Además, los grandes consumidores de pornografía son hombres y, por tanto, estos son el público al que están apuntando», detalla Curto. De hecho, según el citado informe, el 48% de los hombres encuestados afirmaban haber visto pornografía deepfake al menos una vez (en base a una encuesta a 1.522 participantes masculinos de los Estados Unidos que habían consumido pornografía en los últimos 6 meses). El 74% de estos usuarios que había interactuado con pornografía deepfake no se sentía culpable por su consumo.
«Es una forma de extender un terror sexual hacia las mujeres en un contexto de ciberacoso generalizado en el que prolifera una doble moral que penaliza o sanciona socialmente a las mujeres que aparecen en vídeos sexuales con mucha más dureza que cuando los protagonistas son hombres», añade Pujol.
«Esta nueva forma de ejercer violencia por medios digitales que amplían su alcance y magnifican las consecuencias en las víctimas que las padecen», explica Pina. La ciberviolencia contra las mujeres golpea directamente su salud mental. La pérdida de calidad de vida de las mujeres, el impacto en su situación laboral al no poder participar en igualdad de condiciones en el mundo digital o la atención médica que requieren son consecuencias directas de este acoso. De hecho, el Parlamento Europeo ha estimado el valor económico para el conjunto de la UE de estas consecuencias en una cifra que está entre los 49.000 y los 89.300 millones de euros. Otras investigaciones afirman que se han encontrado «altas tasas» de problemas de salud mental —como ansiedad, depresión, autolesiones y suicidio— como resultado de este abuso digital, independientemente de si es un deepfake falso o real.
«Aunque las imágenes no sean reales, el impacto y la repercusión que tienen hacia las víctimas son muy elevados, porque la sexualidad femenina se ha construido sobre la culpa y la vergüenza. Mientras que, para los hombres, alardear de sus conquistas sexuales ha sido siempre un símbolo de masculinidad (el mismo término de conquista ya implica un logro), las mujeres objeto de esas conquistas se han visto expuestas a la vergüenza pública. El patriarcado es un sistema que penaliza la libertad sexual de las mujeres y, cuando queda expuesta, aunque sea con imágenes falsas, la sensación de desprotección, violencia y pérdida de control es real», explica Pujol. En esta línea, Rocío Pina añade: «Podemos equiparar, por tanto, sus consecuencias a las mismas que podría llegar a padecer quien sufre cualquier otro tipo de ciberdelincuencia sexual».
«Cabe destacar que en un contexto viral como el actual, donde las imágenes circulan muy rápido, la capacidad de respuesta es ínfima respecto al daño causado», puntualiza Pujol. La dificultad para controlar estas tecnologías de generación de imagen se complica por la facilidad de acceso que hay (software libre, modelos de algoritmos que se pueden descargar y reutilizar) y la dificultad de hacer una trazabilidad de esa imagen. «Estamos viviendo en una situación de proliferación masiva de estos nuevos aplicativos, puesto que ha habido grandes avances en estos sistemas generadores de texto y de imagen en el último año», advierte Curto.
Este nuevo método de violencia digital contra las mujeres es cada vez más popular, pero también se está ejerciendo contra las niñas o jóvenes menores. Este año, han sido varios los casos de creación de pornografía infantil a través de la inteligencia artificial, como el de Almendralejo o el de los cuatro canteranos del Real Madrid.
El último estudio realizado por Internet Watch Foundation confirma el aumento de estos contenidos de forma preocupante. Durante un mes se monitorizó la actividad de la web y se encontraron 11.108 imágenes sospechosas de infringir algún delito relacionado con el abuso sexual infantil. De estas, cerca de 3.000 eran ilegales, según la ley del Reino Unido sobre el abuso infantil, y una de cada cinco, 564, se clasifican como categoría A, que es el tipo más grave. «El impacto de esta difusión puede derivar en distintas consecuencias emocionales y de comportamiento. Si bien siempre dependerá del alcance de la conducta sufrida, el tiempo o la importancia subjetiva que quien sufre este tipo de agresión pueda tener, varias investigaciones ya han evidenciado efectos negativos que pueden hacerse visibles a partir de trastornos depresivos y ansiosos, pérdida de autoestima, impotencia, alteraciones del sueño, de la conducta alimentaria o el consumo de sustancias, entre otros», advierte Rocío Pina. Según un estudio del Observatorio Nacional de Tecnología y Sociedad (ONTSI) del año pasado, el 42 % de las niñas y las jóvenes que ha sufrido acoso online muestran estrés emocional, baja autoestima y pérdida de autoconfianza.
IWF afirma que existen pruebas razonables de que la IA está ayudando a «desnudar» a los niños cuyas imágenes vestidas se han subido a internet y que aumenta el potencial de revictimización de las víctimas conocidas de abuso sexual infantil. Además, advierte que la mayoría de los contenidos de abuso sexual infantil de la IA encontrados son lo suficientemente realistas como para tratarse como contenidos de abuso sexual infantil «real». Según los propios investigadores del estudio, es cada vez más difícil distinguir el contenido real del falso. «Los sistemas generadores de inteligencia artificial hace ya mucho tiempo que existen, pero no eran precisos, había muchos errores en la disposición de los elementos de una cara, de las manos… Se han realizado muchos avances en los que, básicamente, estos defectos se han ido corrigiendo de forma progresiva. Esta mejora se ha dado en los últimos seis meses o un año, pero se han focalizado en mejorar el algoritmo y no se ha atendido cuáles podrían ser las derivadas de los casos de uso de esta tecnología», explica Curto.
En España existe, desde hace algunos años, un mecanismo para frenar de forma urgente la transmisión de estas imágenes. «Se puede acudir directamente al canal prioritario de la Agencia Española de Protección de Datos. Es un canal indicado para situaciones donde exista una sensibilidad, ya sea por cuestiones sexuales o en compartición de imágenes íntimas, o bien donde se vean agresiones, en temas de acoso, de acoso escolar, fundamentalmente», explica Blasi. En menos de 24 horas, a través de la Agencia de Datos, se intentará evitar que se comparta esta información o que se siga difundiendo para cortar así la cadena de transmisión. «Otra vía que puede activarse en paralelo es la vía penal. La compartición o difusión de estas imágenes pornográficas creadas o no con inteligencia artificial comporta la comisión de un delito tipificado en el Código Penal, tanto si se trata de menores como si no», confirma el experto. Después, se debe poner una denuncia en el cuerpo de policía indicado (Policía Nacional, Guardia Civil o Mossos d’Esquadra), que tiene brigadas tecnológicas que se encargan, precisamente, de identificar quién ha sido el creador y perseguir ese delito en particular. «Y, como última vía, la vía civil, daños y perjuicios. En caso de haber sufrido daños cuantificables y reales (muchas veces este tipo de situación da lugar a estos), se puede iniciar una vía civil donde se busque una compensación económica para este tipo de daños», concluye Blasi.