X

Pedófilos utilizan IA de código abierto para crear contenido de abuso sexual

La Organización Internet Watch Foundation alertó que están explotando software para fabricar material a través de la alteración de fotografías de niños conocidos o famosos.

La IWF alertó que los pedófilos están explotando software de inteligencia artificial de código abierto para fabricar material.
Actualizada: 13/09/2023 12:55
PUBLICIDAD

La Organización Internet Watch Foundation (IWF), con sede en el Reino Unido, alertó que los pedófilos están explotando software de inteligencia artificial (IA) de código abierto para fabricar material de abuso sexual infantil (CSAM), a través de la alteración de fotografías de niños conocidos o famosos con las que producen el contenido ilegal inédito.

La principal diferencia entre la IA de código abierto y las herramientas de modelo cerrado, como Dall-E de OpenAI o Imagen de Google, radica en que los usuarios pueden descargar, modificar y ajustar el software de la primera, mientras que los modelos subyacentes de la segunda no están disponibles al público, indicó la organización.

Dan Sexton, director de tecnología de la IWF, dijo que "existe una comunidad técnica dentro del espacio de los delincuentes, particularmente en los foros de la web oscura, donde se discute esta tecnología. Comparten imágenes, modelos de IA y guías".

En declaraciones al diario The Guardian, Sexton destacó la dificultad de abordar el problema debido a que el contenido generado con software de código abierto "se descarga y ejecuta localmente en las computadoras de las personas".

Para IWF el abuso sexual infantil en línea ya es una epidemia de salud pública.

Una epidemia

El alerta destaca que los delincuentes comienzan con un modelo básico de generación de imágenes, que luego se ajusta con imágenes de abuso sexual infantil, lo que permite generar contenido más realista y perturbador con menos requerimientos de computación.

"El abuso sexual infantil en línea ya es una epidemia de salud pública. Potencialmente esto sólo empeorará las cosas”, dijo Sexton ante el posible incremento de contenido de abuso infantil generado por IA.

A los expertos también les preocupa que esos contenidos ilícitos generado por IA dificulten la identificación y asistencia a las víctimas reales. Además, la creación masiva de imágenes realistas podría ampliar su consumo.

(Télam)

PUBLICIDAD

EN PORTADA EL CHORRILLERO

SUBIR