L’ultima app a fare discutere e a richiamare l’attenzione del Garante privacy è FakeYou, che permette di riprodurre testi con le voci di personaggi noti.
Ma i rischi insiti negli strumenti di Deepfake sono molti e non riguardano solo le celebrities. Ecco perché e come difendersi.
Il Garante per la protezione dei dati personali ha recentemente avviato un’istruttoria nei confronti della società “The Storyteller Company – Fakeyou”, fornitore di FakeYou, una app che, secondo fonti di stampa, consentirebbe di riprodurre porzioni di testo attraverso voci false, ma molto realistiche, di personaggi noti, come calciatori, attori o esponenti politici.
Perché questo tipo di software solleva preoccupazioni? Quali i rischi per le persone? E quali tutele dovrebbero essere messe in campo, anche da parte delle Big Tech, a difesa di coloro che decidono, più o meno consapevolmente, di utilizzare questo tipo di software? ...
Breve storia dei Deepfake
Un contenuto multimediale digitale, audio o video, può essere manipolato con molti strumenti e software.
Un tempo era possibile farlo con un po’ di abilità e qualche software specifico, come ad esempio Photoshop, ma oggi le sempre più avanzate tecniche informatiche hanno aperto un nuovo fronte nel settore della creazione di contenuti manipolati, chiamati anche media sintetici, e generati utilizzando algoritmi di intelligenza artificiale, in grado di risolvere compiti complessi come image-to-image translation (trasformare una zebra in un cavallo), sketch-to-image translation (una immagine di una borsa in bianco e nero viene trasformata in una borsa colorata e reale), fino ad arrivare ad algoritmi molto evoluti in grado di cambiare attributi del volto di una persona (colore dei capelli, degli occhi, timbro di voce, sesso).
Ecco il mondo dei deepfake, neologismo nato dalla fusione dei termini “fake” (falso) e “deep learning”, tecnologia di intelligenza artificiale. Con “deepfake” si intendono tutti, nel bene e nel male, quei contenuti multimediali sinteticamente alterati o creati sfruttando i modelli generativi di deep learning, algoritmi capaci di “imparare” la distribuzione dei dati di addestramento al fine di generare nuovi dati con caratteristiche simili rispetto al set di dati originale.
Le applicazioni possono essere le più svariate: sono molte le industrie cinematografiche che utilizzano questi algoritmi per creare, ad esempio, doppiaggi video di attori ad altissima qualità; oppure come il caso del Salvador Dalì Museum in Florida, dove i visitatori del museo possono interagire con l’artista; e ancora applicazioni in grado di descrivere un quadro o un paesaggio a un soggetto ipovedente.
Purtroppo però sono più noti gli utilizzi per così dire malevoli di questa tecnologia, che generano fenomeni deprecabili.
Il primo uso inappropriato di questa indubbiamente potente tecnologia si ebbe quando un collaboratore di Reddit, nel 2017, sviluppò un algoritmo di Deep Learning in grado di trasferire volti di personaggi famosi (es. l’attore Nicholas Cage) in video porno, con un risultato estremamente realistico ma alquanto negativo per le celebrities coinvolte. Anche il mondo della politica è stato coinvolto, se non travolto, dai deepfake, ad esempio quando il volto del presidente argentino Mauricio Macri è stato sostituito da quello di A. Hitler o il volto della cancelliera Angela Merkel sostituito da quello di Donald Trump. Quest’ultimo, inoltre, nel 2019 è stato oggetto di un deepfake in cui veniva deriso per il suo aspetto e il colore della pelle.
I rischi legati ai deepfake
È evidente quanto sia facile la manipolazione di attributi sensibili afferenti alla sfera personale di una persona, ma spesso non sono così evidenti i rischi e i danni che un uso malevolo di questa tecnologia può causare, anche grazie alla diffusione di app o software che rendono possibile realizzare deepfake molto sofisticati ed elaborati con un semplice smartphone, oggi posseduto anche dai bambini.
Il furto di identità
Uno dei rischi maggiori riguarda il furto di identità: le persone che appaiono nei deepfake (es le celebrities) perdono il controllo della loro immagine, ma anche delle loro idee e pensieri, in quanto dicono e fanno cose in questi video che possono non corrispondere alla loro volontà e coscienza. Tali persone possono poi essere collocate in luoghi che abitualmente non frequenterebbero mai o, peggio ancora, che potrebbero risultare compromettenti, oppure rappresentate in atteggiamenti provocatori fino al “deepnude”, ovvero all’essere rappresentati nudi o in contesti pornografici. Se inizialmente questo tipo di fenomeni coinvolgeva celebrities, oggi anche persone comuni possono essere coinvolte, diventando oggetto di situazioni particolarmente dannose sia psicologicamente che socialmente, fino ad arrivare al fenomeno del “revengeporn”, la condivisone online, a scopo di ricatto, di contenuti a sfondo sessuale da parte di ex- partner o spasimanti respinti, attraverso l’uso di contenuti falsi ottenuti con i deepfake. Senza poi dimenticare che i video deepnude possono poi servire ad alimentare la pratica del sexting, ovvero lo scambio di immagini pornografiche, all’insaputa dei soggetti rappresentati, che può coinvolgere anche bambini e adolescenti.
Denigrare, screditare o ricattare le persone
Un deepfake può essere generato per denigrare, screditare o ricattare le persone coinvolte, ad esempio chiedendo del denaro per la cancellazione o la non diffusione del contenuto, anche se falso; può essere utilizzato per veicolare notizie false, le cosiddette fake news, e possono quindi essere utilizzati per influenzare le opinioni delle persone, e contribuire alla disinformazione; volti e voci artefatte possono poi essere utilizzati per ingannare i sistemi di sicurezza basati su dati biometrici quali viso e voce, che possono portare fino a tentativi molto sofisticati di phishing (es un deepfake con voce contraffatta di un amico che invita a cliccare su un link malevolo)
Il deepfake, come ricordato dal Garante, può quindi privare le persone della propria “autodeterminazione informativa” (“ciò che voglio far sapere di me lo decido io”), e incidere sulla loro libertà decisionale (“quello che penso e faccio è una scelta su cui gli altri non possono interferire”).
Quali tutele per le vittime di deepfake
La Commissione Europea ha da tempo affilato le armi contro le fake news e il crescente utilizzo dei deepfake: un lavoro culminato nel Digital Service Act (DSA), approvato quest’anno. Le nuove regole contenute nel DSA, infatti, imporranno a tutte le compagnie tecnologiche, quali Meta o Google, ritenute responsabili della proliferazione della gran parte delle fake news online, di contrastare attivamente la diffusione dei contenuti disinformativi e dei deepfake sulle loro piattaforme.
Negli ultimi anni, è emerso chiaramente come la disinformazione, gli account fake e l’utilizzo sempre più diffuso, e indiscriminato, dei deepfake siano problemi a cui le grandi compagnie tecnologiche non riescono, o non vogliono, porre rimedio. Lo scandalo dei Facebook Papers rivelò non solo quanto il profitto per Facebook (oggi Meta) fosse più importante della salvaguardia degli utenti, ma anche come questi e altri fenomeni fossero noti da tempo, e come l’azienda non abbia fatto nulla per ostacolarne la diffusione.
La situazione sta però cambiando e le grandi piattaforme tecnologiche hanno preso atto di non potersi tirare indietro: molte di loro stanno studiando e applicando diverse metodologie per il contrasto al fenomeno, come l’utilizzo di algoritmi di intelligenza artificiale in grado di riconoscere i deepfake, o la creazione di team specializzati per il loro monitoraggio e contrasto. Dal canto loro anche le Autorità di Protezione dei dati personali vigilano opportunamente e, come nel caso di FakeYou, intervengono a tutela degli individui.
Conclusioni
Il primo strumento di difesa però è, come spesso accade, rappresentato dall’individuo, dalla sua capacità critica, attenzione e responsabilità: porre attenzione al tipo di media che si condividono e a quanto rivelano di noi, considerando che potrebbero rimanere online per sempre e potrebbero essere utilizzate da qualcuno malintenzionato, poiché quasi sempre, una volta pubblicate, ne perdiamo il controllo; guardare con attenzione i contenuti che riceviamo, ricordando che le immagine deepfake a volte sono leggermente sgranate o che le luci e ombre possono rivelarci la falsità o l’attendibilità del contenuto; non condividere contenuti che possono produrre effetti negativi per qualcuno, soprattutto se temiamo siano falsi, e nel caso segnalarli alla piattaforma che lo ospita, sono tutte azioni che ognuno di noi può compiere autonomamente per proteggere sé stesso, la propria privacy e quella degli altri. La prudenza, alla fine, è il nostro migliore alleato, online come nella vita reale.
Fonte: www.agendadigitale.eu
"Tutela"? Può darsi, ma tutela per tutti? Il fatto è che questa insidiosa tecnologia potrebbe incrementare il mondo già sovraffollato dei fake, istituzionali e non ...
"Recentemente Deepfake AI ha visto una crescita esponenziale grazie allo sviluppo nel campo dell'Intelligenza Artificiale e del deep learning.
Qui parlo di quanto il fake sia una tecnologia rivoluzionaria e anche una maledizione digitale per il mondo dei media."
(Si può attivare la traduzione automatica)
(Si può attivare la traduzione automatica)
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.