Índice de contenidos
«La lucha contra la IA: una nueva arma para los artistas»
La batalla entre los artistas y la inteligencia artificial (IA) está tomando un giro inesperado. A medida que avanzamos en el año, el entusiasmo generalizado por las tecnologías que prometen crear imágenes realistas y copiar estilos artísticos se ha visto empañado por los problemas éticos que conllevan. La utilización de modelos de generación de imágenes como Stable Diffusion, MidJourney y Dall-E, que requieren entrenamiento con billones de muestras obtenidas sin permiso de los autores, ha llevado a una discusión sobre la ética de estas herramientas.
El problema radica en que estas tecnologías permiten la copia y el plagio sin un respaldo legal, incluso para crear imágenes que no pretenden copiar directamente el trabajo de otros. Los desarrolladores han tomado obras ajenas sin pagar regalías, lo cual es una mala práctica que está siendo cuestionada.
«Una solución innovadora: el ‘veneno para IA'»
En respuesta a esta problemática, se está desarrollando un nuevo programa llamado «Nightshade» en la Universidad de Chicago. Este proyecto, creado por el profesor Ben Zhao y su equipo, es una herramienta diseñada para permitir a los artistas realizar cambios mínimos en los píxeles de sus obras. A simple vista, estos cambios son invisibles, pero tienen el potencial de corromper los modelos de aprendizaje de la IA, incluso llegando a volverlos obsoletos.
«Nightshade» manipula los píxeles y los metadatos de las imágenes de manera en que los modelos de IA interpreten incorrectamente lo que ven. Por ejemplo, una imagen de un gato podría ser interpretada como si fuera un perro, lo cual afecta la fidelidad y la efectividad de la imagen resultante.
«Un incentivo para apoyar al arte»
El objetivo detrás de «Nightshade» no es simplemente molestar a los modelos de IA, sino impulsar a las compañías detrás de estas tecnologías a tomar medidas éticas. El profesor Zhao sugiere que estas compañías comiencen a pagar los derechos de autor correspondientes a los artistas cuyas obras son utilizadas para entrenar los modelos de IA. De lo contrario, arriesgan dañar sus propios productos.
Los investigadores han demostrado que incluso un pequeño número de imágenes envenenadas puede tener un impacto significativo en los modelos de IA. Por ejemplo, menos de 300 imágenes fueron suficientes para que un perro empiece a mutar en un gato en el modelo Stable Diffusion. Esta vulnerabilidad muestra que los modelos de IA trabajan por asociación, lo que significa que cualquier palabra o concepto relacionado también se verá afectado.
Además, una vez que «Nightshade» esté disponible, el equipo planea dejar el código abierto para que otros puedan utilizar y expandir esta defensa contra el abuso de la IA.