Tristemente, a seguito della rapida ascesa dell'intelligenza artificiale, questo strumento è stato impropriamente utilizzato, con sempre più frequenza, per generare immagini di nudo e, più precisamente, per "spogliare" artificialmente i soggetti presenti all'interno di qualsiasi materiale visivo datogli in pasto. Per poter far fronte al vergognoso utilizzo di una risorsa che vanta potenzialità ben più nobili, è stato creato un classificatore di immagini in grado di rilevare la nudità in un'immagine.
Quest'ultimo è stato addestrato utilizzando i contenuti presenti su NudeNet, un dataset contenente 700.000 immagini raccolte da Internet. Secondo una recente ricerca effettuata dal Centro canadese per la protezione dei minori (C3P), tuttavia, quest'ultimo conterrebbe svariate immagini raffiguranti materiale pedopornografico.
Il solo possesso del materiale verrebbe automaticamente classificato come un reato, nonostante gli utenti siano probabilmente all'oscuro della presenza di tali contenuti nel dataset.