Protección de los artistas contra el robo de la inteligencia artificial

Desarrollan sistema para corromper la inteligencia artificial y proteger obras originales

Un arma contra la invasión de la IA

La balanza en la batalla contra la inteligencia artificial (IA) está a punto de inclinarse a favor de los artistas. Después de que este año comenzara con gran entusiasmo por las tecnologías de IA, especialmente en el campo de las artes visuales, se hizo evidente que estas promesas están llenas de problemas éticos.

Los modelos de generación de imágenes como Stable Diffusion, MidJourney y Dall-E necesitan ser entrenados con un vasto número de muestras obtenidas de internet, muchas de las cuales se adquieren sin permiso de los autores, fomentando así la copia y el plagio sin ninguna protección legal. Esta situación ha generado una discusión en curso en cuanto al uso de estas herramientas, incluso para crear imágenes que no sean una copia directa del trabajo de otros artistas, ya que los desarrolladores han utilizado obras ajenas sin pagar regalías. Afortunadamente, una solución innovadora parece estar al alcance.

Una solución creativa

Un nuevo programa llamado «Nightshade» está siendo desarrollado por un equipo de la Universidad de Chicago, liderado por el profesor Ben Zhao, los mismos creadores de «Glaze», otra herramienta diseñada para proteger el estilo personal de los artistas y evitar el robo de sus obras. Nightshade, que se espera sea implementado dentro de Glaze, permitirá a los artistas hacer cambios minúsculos en los píxeles de sus imágenes, lo suficientemente sutiles como para pasar desapercibidos para el ojo humano, pero capaces de corromper los modelos de aprendizaje de la IA hasta el punto de volverlos obsoletos.

«Nightshade» manipula tanto los píxeles como los metadatos de las imágenes, lo cual implica que ciertas imágenes podrían ser interpretadas erróneamente por los modelos de IA. Por ejemplo, un gato podría ser reconocido como un perro, distorsionando así la fidelidad de la imagen resultante. Esta técnica no solo arruina el producto final, sino que también afecta la efectividad de las herramientas de IA utilizadas para generar imágenes.

Un incentivo para proteger el arte

Según el profesor Zhao, mientras más imágenes envenenadas se introduzcan en un sistema, mayor será el daño. Dado que las IA necesitan billones de imágenes para entrenar sus algoritmos, es virtualmente imposible identificar las imágenes específicas que están causando un mal funcionamiento. El objetivo no es simplemente sabotear estas herramientas o desactivarlas, sino más bien incitar a las compañías detrás de MidJourney, Dall-E y otras a pagar los derechos de autor correspondientes a los artistas. De lo contrario, correrán el riesgo de dañar seriamente sus productos.

Los investigadores demostraron la vulnerabilidad de estos modelos al introducir menos de 300 imágenes en el sistema Stable Diffusion, lo que resultó en una mutación del perro a gato. Esta fragilidad se extiende a las asociaciones que los modelos de IA hacen con las palabras. Por lo tanto, no solo se envenenará la palabra «perro», sino también cualquier sinónimo o término relacionado, como las razas de perros.

Además, una vez que «Nightshade» esté disponible para el público, el equipo de investigación tiene la intención de ofrecerlo como código abierto, permitiendo que otros lo aprovechen, lo mejoren y desarrollen sus propias versiones, lo que ampliaría el uso de esta defensa contra el abuso de la IA.

Videos destacados

Deja un comentario