Anche se alcuni temevano che la guerra sarebbe stata la prima nella storia a essere inondata di immagini false create dalle macchine, ciò non è accaduto. L’impatto della tecnologia sul conflitto è molto più sottile.
Nelle settimane successive all’attacco a sorpresa di Hamas contro Israele del 7 ottobre, il conflitto che ne è seguito ha generato un’ondata di disinformazione senza precedenti, una “nebbia di guerra guidata dagli algoritmi” che ha messo in difficoltà le principali nuove organizzazioni e ha lasciato le aziende di social media in difficoltà.
Eppure, in mezzo a tutte le immagini e i video ingannevoli che circolano sui social media, i contenuti generati dagli strumenti di intelligenza artificiale sono rimasti relativamente periferici. Anche se alcuni si sono chiesti se la guerra tra Israele e Hamas sarebbe stata il primo conflitto dominato da false immagini generate dall’intelligenza artificiale, la tecnologia ha avuto un impatto più complesso e sottile.
“Ci sono sicuramente immagini AI che circolano, ma non in misura tale da far pensare che stiano giocando un ruolo centrale nella diffusione delle informazioni”, afferma Layla Mashkoor, redattore associato presso il Digital Forensic Research Lab dell’Atlantic Council, che studia la disinformazione online.
Secondo Mashkoor, la disinformazione generata dall’intelligenza artificiale viene utilizzata dagli attivisti per sollecitare il sostegno – o dare l’impressione di un sostegno più ampio – a una particolare parte. Tra gli esempi, un cartellone pubblicitario generato dall’intelligenza artificiale a Tel Aviv a favore delle Forze di Difesa Israeliane, un account israeliano che condivide immagini false di persone che fanno il tifo per l’IDF, un influencer israeliano che usa l’intelligenza artificiale per generare condanne di Hamas e immagini dell’intelligenza artificiale che ritraggono le vittime dei bombardamenti di Israele su Gaza.
“In termini di uso generale che ho visto online, si è trattato per lo più di raccogliere consensi, il che non è tra i modi più maligni di utilizzare l’IA in questo momento”, afferma l’autrice.
Un fattore chiave è l’enorme quantità di disinformazione che circola, che rende difficile per le immagini di IA dare forma alla conversazione. “Lo spazio dell’informazione è già invaso da immagini e filmati reali e autentici”, afferma Mashkoor, “e questo di per sé sta inondando le piattaforme dei social media”.
Questo punto si riflette in un recente documento della Harvard Kennedy School Misinformation Review sul ruolo che l’IA generativa potrebbe svolgere nella diffusione di false informazioni a livello mondiale. In esso gli autori scrivono che le preoccupazioni sugli effetti della tecnologia sono “esagerate”. Sebbene, sì, l’IA generativa permetta teoricamente alle persone di proliferare la disinformazione a un ritmo futuristico, coloro che cercano questa disinformazione – spesso coloro che hanno “scarsa fiducia nelle istituzioni … [o sono] forti partigiani” – hanno già una sovrabbondanza di sciocchezze familiari da perseguire, dai siti web di teoria della cospirazione ai forum di 4chan. Non c’è bisogno di altro.
“Data la creatività di cui gli esseri umani hanno dato prova nel corso della storia per inventare storie (false) e la libertà che gli esseri umani hanno già di creare e diffondere disinformazione in tutto il mondo, è improbabile che gran parte della popolazione sia alla ricerca di disinformazione che non può trovare online o offline”, conclude il documento. Inoltre, la disinformazione acquista potere solo quando le persone la vedono e, considerando che il tempo a disposizione delle persone per i contenuti virali è limitato, l’impatto è trascurabile.
Per quanto riguarda le immagini che potrebbero finire nei feed mainstream, gli autori fanno notare che se l’IA generativa può teoricamente rendere contenuti altamente personalizzati e realistici, lo stesso vale per Photoshop o i software di editing video. Modificare la data di un video sgranato di un cellulare potrebbe rivelarsi altrettanto efficace. I giornalisti e i verificatori si scontrano meno con i deepfake che con le immagini fuori contesto o manipolate in modo grossolano per trasformarle in qualcosa che non sono, come i filmati dei videogiochi presentati come un attacco di Hamas.
In questo senso, l’eccessiva attenzione per una nuova tecnologia appariscente è spesso un depistaggio. “Essere realistici non è sempre ciò che la gente cerca o ciò che è necessario per essere virali su Internet”, aggiunge Sacha Altay, coautore dell’articolo e ricercatore post-dottorato il cui campo attuale riguarda la disinformazione, la fiducia e i social media presso il Digital Democracy Lab dell’Università di Zurigo.
Questo vale anche per l’offerta, spiega Mashkoor: l’invenzione non è l’implementazione. “Ci sono molti modi per manipolare la conversazione o lo spazio informativo online”, dice. “E ci sono cose che a volte sono più semplici da fare e che potrebbero non richiedere l’accesso a una tecnologia specifica, anche se il software per la generazione di IA è di facile accesso al momento, ci sono sicuramente modi più semplici per manipolare qualcosa se lo si sta cercando”.
Felix Simon, un altro degli autori del documento della Kennedy School e dottorando presso l’Oxford Internet Institute, avverte che il commento del suo team non cerca di porre fine al dibattito sui possibili danni, ma è invece un tentativo di respingere le affermazioni secondo cui l’IA scatenerà “un armageddon della verità”. Questo tipo di panico accompagna spesso le nuove tecnologie.
Mettendo da parte la visione apocalittica, è più facile studiare come l’IA generativa si sia effettivamente inserita nell’ecosistema della disinformazione esistente. Ad esempio, è molto più diffusa di quanto non fosse all’inizio dell’invasione russa dell’Ucraina, sostiene Hany Farid, professore alla UC Berkeley School of Information.
Farid descrive la tecnologia come uno “spettro” che incombe su audio e video che pretendono di provenire dal conflitto, e che ogni giorno riceve da una mezza dozzina a una dozzina di telefonate da giornalisti che chiedono informazioni sulla veridicità. “Per molte persone, la capacità di ignorare i fatti scomodi sta assolutamente giocando un ruolo in questo conflitto”, afferma.
Farid cita diversi esempi che hanno immediatamente attirato questo tipo di rifiuto, tra cui persone che hanno indicato varie prove digitali su chi fosse dietro l’attacco missilistico all’ospedale arabo Al-Ahli di Gaza, così come immagini di bambini sepolti sotto le macerie, alcune reali, altre false.
Alcuni degli esempi più evidenti sono le foto di bambini bruciati che il primo ministro israeliano Benjamin Netanyahu ha postato sul suo account X. Dopo averle pubblicate, qualcuno ha dato in pasto alla stampa le immagini di bambini sepolti sotto le macerie. Dopo la pubblicazione, qualcuno ha inserito le immagini nello strumento di rilevamento AI or Not, che secondo gli utenti ha determinato che si trattava di AI. Farid afferma che il suo team ha analizzato le foto e ha concluso che l’IA non è stata utilizzata, ma il seme del sospetto era già stato piantato. Le cose si sono ulteriormente confuse quando qualcuno ha usato l’IA per sostituire il bambino in una delle immagini con un cucciolo.
E poi questo è andato online e la gente ha pensato: “Beh, aspetta un attimo, se ha fatto quello, allora quello potrebbe essere falso, e ora queste due versioni stanno girando, e tutti hanno iniziato a dire: ‘Oh, il cucciolo era l’originale, questo è il falso’, e così si confonde l’acqua”, dice Farid.
In altre parole, questa distribuzione segue uno schema storico: La disinformazione viene condivisa sui social media e poi amplificata attraverso gli algoritmi e gli esseri umani. “Nel quadro più ampio, nella nostra capacità di ragionare su un mondo in rapida evoluzione e di grande impatto, credo che questo conflitto sia peggiore di quello che abbiamo visto in passato”, afferma Farid. “E credo che l’intelligenza artificiale sia parte di questo fenomeno, ma non esclusivamente l’intelligenza artificiale. È troppo semplicistico”.