La nueva herramienta #Nightshade permite añadir cambios invisibles a los píxeles de obras antes de subirlas a internet.
Así, si se suman a un sistema de entrenamiento de inteligencia artificial, el modelo resultante puede romperse de forma caótica e impredecible 👇
technologyreview.es//s/15858/e…
El envenenamiento de datos, la estrategia para proteger los derechos de artistas ante la IA
La herramienta, llamada Nightshade, desordena los datos de entrenamiento para causar graves daños a los modelos de IA generadores de imágenesMIT Technology Review