22.5 C
Buenos Aires
InicioTecnologíaPreocupa el crecimiento del uso de deepfakes de famosas en sitios de...

Preocupa el crecimiento del uso de deepfakes de famosas en sitios de videos para adultos

En los últimos años se han subido al menos 244.625 clips a los 35 principales sitios web creados exclusiva o parcialmente para alojar contenidos de pornografía generados con inteligencia artificial sin consentimiento de sus protagonistas.

Rodrigo Álvarez

25 de octubre 2023, 18:57hs

Deepfake: crecen los fraudes con manipulación de imágenes creadas con inteligencia artificial

Crece el uso de deepfakes de famosos en sitios de videos para adultos. (Foto: AdobeStock)

Con la ayuda de la inteligencia artificial y herramientas de aprendizaje automático, la manipulación de contenidos audiovisuales alcanzó un nivel de sofisticación y perfección en los que ya se hace difícil distinguir un video real de uno falso. Pero el problema es aún más grave: en los últimos años ha surgido toda una industria del uso indebido de deepfakes, que se dirige sobre todo a las mujeres y se produce sin su consentimiento o conocimiento.

Estos videos manipulados, que utilizan la tecnología de generación de imágenes para reemplazar la cara y la voz de una persona con el cuerpo de otra, encontraron un inquietante nicho de mercado en la industria de entretenimiento para adultos.

Leé también: Deepfake: aumentan los fraudes con manipulación de imágenes creadas por inteligencia artificial

Cada vez más, los deepfakes de famosos se han vuelto populares en sitios web para adultos, y esto plantea serias preocupaciones éticas y de privacidad.

Preocupa el crecimiento del uso de deepfakes de famosos en sitios de videos para adultos. (AdobeStock)

Preocupa el crecimiento del uso de deepfakes de famosos en sitios de videos para adultos. (AdobeStock)

¿Qué son los Deepfakes?

Los deepfakes son un tipo de contenido multimedia generado por algoritmos de aprendizaje automático que pueden reemplazar el rostro, la voz, o incluso el cuerpo de una persona, insertarlo en un clip de video y hacerlo actuar o interactuar de acuerdo a lo que desee quien lo programa.

Esto se logra mediante la recopilación de datos de imágenes y videos de la persona a ser sustituida y luego se utiliza para entrenar el modelo de inteligencia artificial. Una vez que el modelo está entrenado, se puede superponer el rostro de la persona en el cuerpo de otra, en un video, o crear diálogos que parezcan auténticos pero que, en realidad, son generados por la IA.

El crecimiento del uso de deepfakes de famosas en sitios de videos para adultos

Un reciente análisis publicado por la revista especializada Wired reveló que en los últimos siete años se han subido al menos 244.625 clips a los 35 principales sitios web creados exclusiva o parcialmente para alojar videos de pornografía deepfake.

El dato asusta: en los nueve primeros meses de este año se subieron 113.000 videos a esta páginas, lo que supone un aumento del 54% respecto a todo 2022 (73.000 piezas de contenido). Según las previsiones de la investigación, a finales de 2023 se habrán producido más videos que en todos los demás años juntos. Y dentro de esa categoría, los contenidos que simulan la participación de mujeres famosas, actrices, cantantes y deportistas, por ejemplo, están entre los más reproducidos.

Estas asombrosas cifras son solo una instantánea de lo tremendo que se ha vuelto el tema de los deepfakes no consentidos: el problema es mucho mayor de lo que se supone y abarca todo tipo de imágenes manipuladas. Las aplicaciones de intercambio de rostros que funcionan con imágenes fijas y que permiten quitarle la ropa a una persona en una foto con solo unos clics son cada vez más y se van perfeccionando con el correr de los meses.

Con estas herramientas, de fácil acceso y uso, es probable que se creen miles de imágenes por día, millones al año.

Sitios web exclusivos para deepfakes para adultos

La investigación destaca que existen al menos 35 sitios web diferentes que alojan exclusivamente videos de pornografía deepfake. Muchas de estas webs aclaran que los contenidos, que tienen millones de vistas, no son reales, pero no dicen nada acerca del consentimiento de quienes los protagonizan.

La investigación también da cuenta de más de 300 sitios web de pornografía general que incorporan de algún modo porno deepfake no consentido. Además, el reporte hace mención a las páginas que buscan imágenes en redes sociales, las pasan por filtros con IA, y las vuelven a publicar. Por ejemplo, un sitio web dedicado a las fotografías afirma que tiene en su base de datos 350.000 fotos de personas desnudadas por la inteligencia artificial.

Un caso típico

Casos de este tipo, abundan. A principios de julio, 15 estudiantes de la Facultad de Urbanismo de la Universidad de San Juan denunciaron que alguien estaba vendiendo fotos de ellas desnudas, solo que ellas jamás se habían sacado esas fotografías.

Las publicaciones venían de un mismo perfil y aseguraba que con un bot de Telegram podía tomar las imágenes de chicas en las redes sociales y “desnudarlas” a través de inteligencia artificial. Ante la denuncia, la Justicia logró dar con la cuenta de correo electrónico asociada al perfil que hacía esas publicaciones bajo el alias “MarioMJohn68″ y de allí sacar los datos para dar con la identidad del responsable: era un compañero de la Facultad.

¿Querés recibir más información de Tecno?

Suscribite acáLa herramienta que utilizó el detenido es “una nueva forma de deepfake, que usa algoritmos de deep learning para analizar una imagen de una persona y generar una nueva imagen en la que la persona parece estar desnuda”, explicó a TN Tecno el Ing. Fredi Vivas, especialista en inteligencia artificial. “El deep learning es un tipo de inteligencia artificial, que usa redes neuronales (como las del cerebro) artificiales y aprendizaje de máquina para imitar funciones similares a la inteligencia humana. Las imágenes se manipulan para eliminar la ropa y reemplazarla por piel de aspecto realista”, detalló Vivas.

Esto abre el debate a si se debe regular el uso de inteligencia artificial, al tratarse de una herramienta que puede generar grandes cambios positivos como consecuencias negativas. En ese vacío legal es donde cayó el Fiscal Eduardo Gallastegui cuando tomó el caso e intentó encuadrar el comportamiento del detenido con una figura penal.

¿Se puede combatir el deepfake?

Para Marina Benitez Demtschenko, abogada especializada en derecho informático, para la imputación penal en la denuncia de las jóvenes lo importante es la comercialización de ese material (para mujeres adultas) con el fin de que encuadre en promoción de la prostitución. Si no se comercializa es discutible porque ahí no hay figura específica.

Leé también: Si tenés fotos de desnudos propios o imágenes comprometedoras, Google lanzó una función para protegerlas

Sin embargo, aún queda una vía: la civil. “La vía penal (denuncia), no es la única para enmarcar un caso así. También -si se individualiza a quien está detrás-, puede accionarse por daños y perjuicios e invocando el derecho a la imagen, que es un bien jurídico tutelado en art. 53 del Código Civil. (Para esto) es necesario que las fotografías tomadas como base de la generación artificial sean de la/las personas damnificadas. Por ejemplo: tomó 10 fotos de su Instagram y las usó para crear una foto desnuda”, explicó a TN Tecno Benitez Demtschenko.

Por otra parte, diferentes expertos señalan la necesidad de nuevas leyes y regulaciones, así como una mayor educación sobre estas tecnologías. Además, es vital que las empresas que alojan sitios web y los motores de búsqueda tomen medidas para reducir la propagación de este tipo de contenidos no consensuados.

Agregar barreras al proceso de búsqueda de estos videos y herramientas que impidan su publicación y propagación, también puede ayudar a disminuir que siguen compartiéndose y haciéndose virales.

Más noticias
Noticias Relacionadas