La moda di trasformarsi in Action Figure tramite l’Intelligenza Artificiale ha conquistato i social. Ma dietro all’apparente innocenza di questo nuovo trend si celano insidie complesse, legate alla privacy e al trattamento dei dati biometrici. Gli utenti cedono una mole significativa di informazioni personali, che può essere utilizzata per addestrare i modelli di AI.
Action figure: cosa si nasconde dietro il nuovo trend AI
Nel mese di aprile, i principali canali social sono stati letteralmente invasi da immagini generate tramite l’Intelligenza Artificiale raffiguranti action figure sorprendentemente realistiche, modellate sulle fattezze degli utenti stessi. A rendere possibile questa ondata di contenuti virali è stato il nuovo generatore di immagini di OpenAI. Alimentato dal potente modello GPT-4o, questo strumento amplia le capacità di ChatGPT nel creare ed elaborare contenuti visivi.
Con un semplice account gratuito e una fotografia, chiunque può ottenere la propria miniatura digitale corredata di accessori personalizzati. Tuttavia, per generare immagini di questo tipo, o illustrazioni nello stile del famoso studio Ghibli, è necessario fornire una mole considerevole di dati personali, spesso inconsapevolmente. Il problema? Queste informazioni non si fermano all’immagine caricata, ma comprendono metadati come coordinate GPS, dati sul dispositivo e persino comportamenti d’uso della piattaforma. L’utente, dunque, offre a OpenAI molto più di un semplice volto.
Metadati e dati comportamentali: una miniera d’oro
Tom Vazdar, responsabile dell’area cybersecurity dell’Open Institute of Technology, ha sottolineato che ogni immagine caricata su ChatGPT contiene “un intero pacchetto di metadati”. OpenAI, infatti, raccoglie informazioni sul sistema operativo, sul browser e sugli identificatori unici. Questo flusso continuo di dati rappresenta una risorsa preziosa per l’addestramento dei modelli generativi, specialmente quelli multimodali, capaci di comprendere input visivi anche complessi.
Camden Woollven, responsabile marketing dei prodotti AI del GRC International Group, ha evidenziato che non è solo il soggetto al centro dell’immagine a essere rilevante: sfondi, oggetti, testi visibili e altre persone presenti nella scena vengono analizzati e potenzialmente conservati. Secondo Jake Moore, esperto di cybersecurity di Eest, anche un gesto apparentemente innocuo come creare una propria action figure può contribuire all’evoluzione e all’espansione dell’Intelligenza Artificiale, ma con un prezzo significativo in termini di privacy.
Privacy e responsabilità individuale
In Europa, il Regolamento generale sulla protezione dei dati (GDPR) offre tutele più stringenti rispetto ad altri contesti normativi come quello degli Stati Uniti. L’elaborazione di dati biometrici, ad esempio, richiede il consenso esplicito degli utenti. Nonostante questo, Melissa Hall, socia dello studio legale MFMac, ha sottolineato che un’immagine trattata per generare una caricatura o una figura stilizzata non rientra necessariamente nella definizione tecnica di dato biometrico, a meno che non venga usata per identificare univocamente un individuo.
Annalisa Checchi, socia dello studio legale Ionic Legal, ha dichiarato che l’uso prolungato delle immagini caricate è tutt’ora poco trasparente e difficile da revocare. Le piattaforme offrono strumenti per disattivare la cronologia delle chat, limitare l’uso dei dati per l’addestramento e cancellare i contenuti, ma la responsabilità ultima ricade sempre sull’utente.
Gli esperti, quindi, raccomandano cautela. Tra le buone pratiche consigliate ci sono quella di disattivare l’addestramento dell’AI nelle impostazioni, di evitare il caricamento di immagini ad alta risoluzione o contenenti elementi identificabili e di non condividere mai dati di terzi senza il consenso. L’avvocato Annalisa Checchi ha concluso affermando che la privacy e la creatività non si escludono a vicenda: “bisogna solo essere un po’ più consapevoli.”