L’IA è arrivata A generare delle copie digitali perfette di contenuti audio e video. Si parla di “deep fake” per la crescente difficoltà nel distinguere il vero dal falso con impatti inediti su ambiti quali copyright, diritto alla privacy, veridicità delle notizie, tutela all’identità personale e risvolti che vanno dall’illecito civile al penale, alla sicurezza. Maggiore sofisticazione delle tecnologie nel generare i falsi, ma anche maggiore accessibilità degli strumenti sempre più alla portata di tutti (si pensi all’AI su immagini e audio offerta sui terminali di nuova generazione), e al tempo stesso ruolo di grandi organizzazioni criminali o terroristiche nel monetizzare/utilizzare tali strumenti. Su questo fenomeno e gli strumenti per arginarlo si è svolto a Roma il convegno “Deepfake. Tra realtà e illusione: smascherare le manipolazioni, tutelare la verità“, organizzato da Studio Previti con Ipsos (programma). Riportiamo alcuni temi di particolare interesse dagli interventi della mattinata.
Garante privacy: il discrimine dei diritti fondamentali. Diritto alla privacy inteso come diritto all’identità, ossia alla corretta e puntuale rappresentazione dell’individuo (art. 2 cost): nel suo discorso di apertura Ginevra Cerina Ferroni, Vice Presidente del Garante per la Protezione dei Dati Personali ha accennato ai profili di monitoraggio e intervento dell’Autorità, su atti che spesso sono illeciti se non criminali- il 96% dei fake online sono contenuti sessualmente espliciti con donne e minori (Il Garante è intervenuto sul deep nude, bloccando l’APP immessa sul mercato Italiano) – e rischi importanti di contaminazione del dibattito pubblico, della società e della democrazia. Il Garante, ha aggiunto, ha il compito di vigilare sull’uso di tali tecnologie, oggi molto accessibili (non sono più necessarie particolari competenze tecniche) bilanciando sostegno all’innovazione e diritti fondamentali, affinché le tecnologie costituiscano uno strumento di sviluppo, non di compressione o violazione dei diritti fondamentali.
IPSOS: non conosco, non mi riguarda. Il primo passo è la consapevolezza per la mitigazione dei rischi (approccio peraltro abbracciato dall’AI Act europeo). E qui il sondaggio Ipsos interviene a indicare che la conoscenza del fenomeno “deep fake” è bassa fra gli individui (46%) e in particolare le donne – NB: il campione si basa sul knowledge panel rappresentativo di tutta la popolazione italiana incluse alcune fasce normalmente escluse dalle indagini commerciali (es. disagio socio-economicamente /digital divide), si specifica – va un po’ meglio per le aziende, per le quali si sale a 2 su 3. Risulta, tuttavia, che una volta spiegato il termine le dichiarazioni di consapevolezza crescono, elemento che deve far riflettere alla corretta comunicazione per fare informazione/formazione. Ma quello che forse preoccupa di più, soprattutto lato individui, è che c’è una certa passività (fatalismo) e deresponsabilizzazione (si demanda la risposta a soluzioni tecnologiche e norme). Emerge, in definitiva, che sviluppare consapevolezza e senso critico nelle persone è importante; che c’è da fare molta informazione e formazione per rendere meno vulnerabili a truffe e altri reati; e che le aziende devono prepararsi con norme di gestione/controllo prima che il problema si concretizzi, perchè anche per loro si pone un problema di reputazione (dettagli nelle slide)
Dietro le quinte del deep fake. Nell’intervento di un esperto di digital forensic si sottolinea il crescente problema delle prove da portare in giudizio per la sofisticazione raggiunta dalle manipolazioni; si racconta che il deep fake nasce dalle interazioni di reti generative, modelli di autoapprendimento circolare; che ci sono già applicazioni industriali avanzate in diversi campi – es. l’addestramento alla guida autonoma o il sistema FRAN, utilizzato dal cinema come effetto speciale digitale per ringiovanire gli attori o creare virtual influencer (avatar e cloni); ma anche illeciti diffusi – dal deep fake (audio e video), al revenge porn, per citarne alcuni declinazioni: queste declinazioni toccano tutti, perché le intelligenze artificiali sono state addestrate con i nostri volti dati in pasto alle app; e perché il buono e il cattivo non dipende dalla tecnologia disponibile, ma dalle intenzioni di chi la utilizza – nella relazione si illustra ad esempio come bypassare i limiti “etici” imposti nei vari modelli di IA generativi, con prompt neutri (slide).
Barachini, responsabilità e collegialità delle risposte (individui, aziende, legislatore, regolatore). L’intervento della UE (AI Act), è stato rapido, nonostante la piena operatività della norma sarà fra un anno. Ma secondo il Sottosegretario di Stato alla Presidenza del Consiglio dei ministri con delega all’informazione e all’editoria Alberto Barachini, il disegno di legge ispirato dalla Commissione Benanti introduce tre importanti elementi: la difesa del diritto d’autore, la tracciabilità e riconoscibilità dei contenuti di IA, circostanze aggravanti e reato di deep fake. Un fil rouge importante, ha aggiunto, che vedrà il coinvolgimento di tutte le autorità, incluso Agcom, è il valore del consenso informato.
Capitanio: applicare per estensione gli strumenti esistenti – ordini disabilitazione, piracy shield, regolazione influencer, patentino digitale. Ruolo della formazione a partire dalle scuole primarie (il progetto Agcom/Ministero Istruzione sul patentino digitale) per sviluppare senso critico verso l’uso delle tecnologie e campagne di sensibilizzazione degli adulti – come è stato fatto ad es. con Fapav sulla pirateria, indicando che i dati che ogni weekend vengono forniti dagli italiani per visionare le partite e altri contenuti piratati li espongono a utilizzi da parte della criminalità organizzata. Ma anche e soprattutto utilizzo dello strumento innovativo del Piracy Shied, attraverso il quale Agcom, grazie alle ingiunzioni dinamiche può spegnere siti internet in violazione di diritto d’autore – oggi partite di calcio, entro fine anno contenuti audiovisivi/eventi streaming: in futuro si potrebbe pensare di utilizzarlo per altri tipi di contenuti (es. difesa nazionale), indica il Commissaio Agcom Massimiliano Capitanio – in periodo elettorale Agcom ha intimato e ottenuto da X e Youtube la circolazione di alcuni documenti prodotti da Russia Today (art. 41 del Tusma). Ma un altro tema centrale è, a livello normativo, trovare una collaborazione con la grandi piattaforme e rivedere la nozione di hosting passivo, “esiste ormai un corpus giurisprudenziale italiano ed europeo che fa scuola al riguardo”, ha detto Capitanio che ha anche accennato Tavolo di esperti sulla IA istituito in Agcom, e focalizzato sulle materie di competenza dell’Autorità, fake news e copyright , ma anche influencer “anche qui siamo stati i primi ad intervenire con un regolamento in materia” (le disposizioni previste, inclusa l’iscrizione all’albo, potrebbero essere etese in alcune parti ai virtual influencer) ha concluso Capitanio.
Longhini, Mediaset: il caso Meta, intervenire sull’host con la KYBC (Know Your Business Client, calusola di trasparenza). Il deep fake è un’opportunità per chi produce contenuti, e non a caso utilizzato da Mediaset per il cinema (effetti speciali) o la satira. Ma si constata ora un’escalation del deep fake all’interno della galassia del brand MFE – finta pubblicità di prodotti dimagranti o finanziari utilizzando volti e voci note come Paolo Del Debbio, Marta Merlino, Maria de Filippi), profili falsi degli speaker delle radio Mediaset che interagiscono con gli ascoltatori, fino a Piersilvio e Marina Berlusconi, coinvolti anch’essi in una finta pubblicità finanziaria con link per effettuare direttamente bonifici. L’approccio difensivo ha assunto diverse forme legali, aggiunge l’Avv. Stefano Longhini, contenzioso RTI, civile, anche penale con querele, istanze Agcom, campagne tv e online, in prospettiva Agcm. Ma nell’esperienza Mediaset il 90% di tali forme di manipolazione restano di fatto impunite: attualmente le segnalazioni alla piattaforma non hanno nessuno effetto al fine dei danni al consumatore e alla reputazione del brand, perché gli interventi sono dopo almeno 8 giorni, non garantiscono dalla eventuale riproducibilità online, per la polizia postale è complesso seguire le tracce internazionali di tali reati. Eppure esiste un contratto (di pubblicità) fra la piattaforma e tali soggetti, che sarebbero pertanto identificabili.
Ciulli, Google, gli interventi “volontari”: revisione autoregolazione, esclusione di aree di rischio, watermarking, sospensioni su YouTube. Secondo Diego Ciulli, Government Affairs and Public Policy, Google Italy il vero pericolo non sono tanto i contenuti falsi, quanto la straordinaria democratizzazione della capacità di diffonderli, a disposizione degli individui ci sono strumenti potentemente lesivi (es. porn / revenge porn), “ma per questi abbiamo un corpus di norme a tutela già esistenti (video intimo non consensuale, responsabilità piattaforma, privacy)“. D’altro canto i deep fake più pericolosi, si diffondono per ragioni strategiche, geopolitiche e richiedono capacità di intelligence, o riguardano organizzazioni con significative competenze per fare soldi. L’esperienza di Google rispetto allo streaming illegale ha insegnato che non si aveva idea della scala del fenomeno e degli strumenti utilizzati. E si è corso ai ripari con strumenti diversi: con un aggiornamento della policy di auto-regolazione: su alcuni contenuti – es- IPTV non si fa più pubblicità. Riguardo alle truffe finanziarie, fenomeno massivo su Youtube, dove il rischio è maggiore (Google Ads ricorre a keyword testuali) ,si accettano solo intermediari finanziari accreditati nel Paese, non si permette di fare pubblicità self service come per la pubblicità politica elettorale. Su Youtube, regno degli User Generated Content, enon si da spazio alle pubblicità sopra citate e gli influencer devono dichiarare quando usano la IA, pena la chiusura del canale. Per quanto riguarda il watermarking digitale, Google utilizza due strumenti proprietari, ma il lavoro da fare sarebbe trovare strumenti condivisi trasversali sulle piattaforme.
Previti, responsabilizzazione delle piattaforme, ruolo dei coordinatori nazionali (Agcom) nell’applicazione delle norme UE. L’avv. Stefano Previti ha tirato le somme: sembra ci siano delle strategie di intervento importanti per contenere tali illeciti rinunciando ad introiti ed investendo in strumenti. Il caso Meta/Mediaset ripropone tuttavia il tema della responsabilità delle piattaforme, nel sistema attuale – anonimato, safe harbour – l’illegalità può prosperare. “Esiste ormai una storia giurisprudenziale sulla limitazione della responsabilità delle piattaforme e degli intermediari che indica chiaramente che chi compie l’illecito non fa nulla senza chi diffonde, non si penetra il mercato senza servizi, pubblicità. In Italia la giurisprudenza sull’ hosting attivo (Yahoo) e le ingiunzioni dinamiche responsabilizzano gli access provider, maggiori difficoltà si incontrano con l’anonimato e la limitazione delle responsabilità delle piattaforme a livello normativo. Si pensi ai “massimi sforzi” della direttiva copyright (ma si è fatto un primo passo, con l’obbligo di licenza); o al DSA che intacca l’anonimato solo per i marketplace (KYBC) mentre dovrebbe essere esteso alla pubblicità, e agli obblighi di trasparenza; o nel caso dei ricorsi in AGCM, l’obbligo giuridico di Meta limitato al “ragionevole sforzo”. Bisogna andare a fondo con la responsabilizzazione delle piattaforme, che avendo mezzi enormi devono contribuire a contenere gli illeciti. La Commissione ha potere di intervento, sui rischi sistemici e obblighi di audit,in questi ambiti ma sono i Digital Service Coordinator (DSC) nazionali, per noi Agcom, che hanno ha un ruolo importante e devono devono intervenire“. Riguardo alla formazione, si faccia attenzione all’invecchiamento della popolazione, soggetti più fragili, come raggiungere le persone anziane ad es. o come arginare le truffe nel campo dei farmaci).
Il panel, nutritissimo, ha visto anche la partecipazione di Guaragna (Eni), che inserise il deep fake – incluse le minacce del voice phishing e alla reputazione aziendale – all’interno della strategia societaria di cyber secutiry, che richiede formazione continua del personale. Federico Bagnoli Rossi (Fapav) ha parlato del collegamento fra i “pirati e quanti creano (e diffondono) deep fake, aprendo nuovamente il tema dell’hosting passivo e della formazione/informazione. L’intervento dell’Avvocato Assumma è stata una attenta ricognizione delle novità proposte dal deep fake, ma al tempo stesso una navigazione degli strumenti giuridici e giurisdizionali utilizzabili nell’ordinamento vigente. La gamma sembra distesa ed elastica, ma è necessario fare di più a livello civilistico, collocando le perseguibilità dell’illecito fra le azioni di responsabilità oggettiva o aggravata, la anche prima della divulgazione del deepfake a chi ha ragione di temere una violazione; prevedere la legittimazione passiva e solidale anche per gli intermediari, penalizzare l’illecito, aggiungere in sede civile al provvedimento di repressione e risarcimento dei danni, danni punitivi per l’illecito ripetuto. A livello più ampio, pur riconoscendo merito al legislatore e alla UE, che stanno normando in materia bisogna trovare una uniformità di reazione e difese in tutti i territori del mondo perché i deep fake sono indistruttibili, ubiqui.


