Nel tentativo di risolvere questa asimmetria di potere, abbiamo progettato e implementato Nightshade, uno strumento che trasforma qualsiasi immagine in un campione di dati inadatto all’addestramento dei modelli. Più precisamente, Nightshade trasforma le immagini in campioni “velenosi”, in modo che i modelli che si addestrano su di esse senza consenso vedano i loro modelli apprendere comportamenti imprevedibili che si discostano dalle norme previste, ad esempio un prompt che chiede l’immagine di una mucca che vola nello spazio potrebbe invece ottenere l’immagine di una borsetta che fluttua nello spazio.