Un nuevo instrumento llamado Nightshade está revolucionando la lucha de los artistas contra la apropiación indebida de inteligencia artificial en 2023. Desarrollado por el profesor Ben Zhao de la Universidad de Chicago y su equipo, Nightshade permite a los artistas añadir píxeles indetectables en sus obras que podrían corromper los datos de entrenamiento de una IA, según informa el MIT Technology Review. Esto surge en medio de demandas contra grandes empresas como OpenAI y Meta por infracción de derechos de autor y apropiación de trabajos personales sin compensación.
Nightshade actúa como un veneno, alterando cómo un modelo de aprendizaje automático produce contenido y qué aspecto tiene el producto final. Puede hacer que un sistema de IA interprete una solicitud de un bolso como una tostadora o muestre una imagen de un gato en lugar del perro solicitado.
Esta tecnología da a los artistas una forma de proteger sus obras y podría impulsar a las grandes empresas de IA a solicitar y compensar adecuadamente el trabajo de los artistas, en lugar de modificar sus sistemas. Sin embargo, el profesor Zhao advierte sobre posibles usos maliciosos, pero subraya que causar un daño real requeriría miles de obras corrompidas.