Basta una foto sui social, o un messaggio vocale in chat. Oggi l’intelligenza artificiale può trasformare quei contenuti in immagini, video o audio falsi ma davvero realistici, capaci di umiliare, ricattare o distruggere la reputazione di una persona in pochi minuti. Per questo il Garante per la protezione dei dati personali ha lanciato un avvertimento ufficiale tramite comunicato stampa: l’uso di strumenti di IA come Grok, ChatGPT e altre piattaforme simili può diventare un grave pericolo per i diritti fondamentali, soprattutto quando vengono usate immagini o voci reali senza consenso.
Cosa rischia chi usa questi strumenti in modo scorretto
Alcuni servizi di intelligenza artificiale permettono di “spogliare” digitalmente una persona senza il suo consenso, creando immagini false ma molto realistiche. È anche per questo che il Garante per la protezione dei dati personali aveva già bloccato Clothoff, lo scorso ottobre: le app che usano l’IA per togliere i vestiti alle persone contro la loro volontà, ha spiegato l’Autorità, creano un vero e proprio «allarme sociale». Il Garante ricorda che usare questi strumenti e diffondere i contenuti creati, sui social o nelle app di messaggistica, può portare non solo a reati, ma anche a gravi violazioni dei diritti e della dignità delle persone coinvolte, con tutte le sanzioni previste dalla legge.
Responsabilità anche per le piattaforme
Nel provvedimento, il Garante richiama anche le aziende che offrono questi servizi, chiedendo di progettare le piattaforme in modo da ridurre gli abusi e proteggere davvero la privacy degli utenti. Dalle verifiche è emerso infatti che, in molti casi, queste app rendono fin troppo facile usare immagini e voci di altre persone senza alcuna autorizzazione.
Fonte: Garante Privacy