ChatGPT affronta i miti sui vaccini

0
473

Riassunto: ChatGPT è stata testata per la sua capacità di sfatare i miti sulla sicurezza dei vaccini COVID-19.

In uno studio, al chatbot AI sono state poste le 50 domande più frequenti sui vaccini, ottenendo un punteggio medio di 9 su 10 in termini di accuratezza. I ricercatori del gruppo di ricerca GenPoB hanno sottolineato che, sebbene ChatGPT non sostituisca il parere di un esperto, offre una fonte affidabile di informazioni per il pubblico in generale.

Tuttavia, sono state espresse preoccupazioni circa la capacità del chatbot di modificare le proprie risposte o di essere manipolato in alcuni contesti.

Secondo gli autori di uno studio pubblicato sulla rivista Human Vaccines & Immunotherapeutics, ChatGPT potrebbe contribuire ad aumentare la diffusione dei vaccini sfatando i miti sulla loro sicurezza.

I ricercatori hanno posto al chatbot di intelligenza artificiale (AI) le 50 domande più frequenti sul vaccino COVID-19. Sono state incluse domande basate su miti e storie false, come il vaccino che causa la COVID lunga.

I risultati mostrano che ChatGPT ha ottenuto un punteggio medio di 9 su 10 in termini di accuratezza. Il resto delle volte era corretto, ma lasciava alcune lacune nelle informazioni fornite, secondo lo studio.

Sulla base di questi risultati, gli esperti che hanno condotto lo studio del gruppo di ricerca GenPoB con sede presso l’Instituto de Investigación Sanitaria (IDIS)-Hospital Clinico Universitario di Santiago de Compostela, affermano che lo strumento di intelligenza artificiale è una “fonte affidabile di informazioni non tecniche per il pubblico”, soprattutto per le persone senza conoscenze scientifiche specialistiche.

Tuttavia, i risultati evidenziano alcune preoccupazioni riguardo alla tecnologia, come il fatto che ChatGPT cambi le sue risposte in determinate situazioni.

“Nel complesso, ChatGPT costruisce una narrazione in linea con le prove scientifiche disponibili, sfatando i miti che circolano sui social media”, afferma l’autore principale Antonio Salas, che oltre a guidare il gruppo di ricerca GenPoB è anche professore presso la Facoltà di Medicina dell’Università di Santiago de Compostela, in Spagna.

“In questo modo, potenzialmente facilita un aumento dell’adozione del vaccino”. ChatGPT è in grado di rilevare domande contraffatte relative a vaccini e vaccinazioni. Il linguaggio utilizzato da questa IA non è troppo tecnico e quindi facilmente comprensibile al pubblico, ma senza perdere il rigore scientifico.

“Riconosciamo che la versione attuale di ChatGPT non può sostituire un esperto o una prova scientifica. Ma i risultati suggeriscono che potrebbe essere una fonte affidabile di informazioni per il pubblico”.

Nel 2019, l’Organizzazione Mondiale della Sanità (OMS) ha inserito l’esitazione sui vaccini tra le 10 principali minacce alla salute globale.

Durante la pandemia, la disinformazione diffusa attraverso i social media ha contribuito alla diffidenza del pubblico nei confronti della vaccinazione COVID-19.

Tra gli autori di questo studio figurano quelli dell’Hospital Clinico Universitario de Santiago, che l’OMS ha designato come centro collaboratore per la sicurezza dei vaccini nel 2018.

I ricercatori del centro hanno esplorato i miti sulla sicurezza dei vaccini e le situazioni mediche che sono falsamente ritenute un motivo per non vaccinarsi. Queste preoccupazioni mal riposte contribuiscono all’esitazione nei confronti del vaccino.

Gli autori dello studio si sono proposti di testare la capacità di ChatGPT di far conoscere i fatti e di condividere informazioni accurate sulla sicurezza del vaccino COVID, in linea con le attuali evidenze scientifiche.

ChatGPT consente alle persone di avere conversazioni e interazioni simili a quelle umane con un assistente virtuale. La tecnologia è molto semplice da usare, il che la rende accessibile a un’ampia fascia di popolazione.

Tuttavia, molti governi sono preoccupati per il potenziale uso fraudolento di ChatGPT in contesti educativi come le università.

Lo studio è stato progettato per mettere alla prova il chatbot ponendogli le domande più frequenti ricevute dal centro collaborativo dell’OMS a Santiago.

Le domande riguardavano tre temi. Il primo era costituito da idee errate sulla sicurezza, come il fatto che il vaccino provochi una lunga COVID. Il secondo era quello delle false controindicazioni: situazioni mediche in cui il vaccino è sicuro da usare, come ad esempio nelle donne che allattano.

Le domande riguardavano anche le vere controindicazioni – condizioni di salute in cui il vaccino non dovrebbe essere usato – e i casi in cui i medici devono prendere precauzioni, ad esempio un paziente con infiammazione del muscolo cardiaco.

Gli esperti hanno poi analizzato le risposte e le hanno valutate in base alla loro veridicità e precisione rispetto alle evidenze scientifiche attuali e alle raccomandazioni dell’OMS e di altre agenzie internazionali.

Gli autori affermano che questo è importante perché gli algoritmi creati dai social media e dai motori di ricerca su Internet sono spesso basati sulle preferenze abituali di un individuo. Questo può portare a “risposte distorte o sbagliate”, aggiungono.

I risultati hanno mostrato che la maggior parte delle domande ha ricevuto una risposta corretta, con un punteggio medio di nove su dieci, definito come “eccellente” o “buono”. Le risposte ai tre temi di domande sono state in media accurate per l’85,5% o accurate per il 14,5% ma con lacune nelle informazioni fornite da ChatGPT.

ChatGPT ha fornito risposte corrette alle domande che nascevano da veri e propri miti sui vaccini e a quelle che nelle linee guida di raccomandazione clinica sono considerate controindicazioni false o vere.

Tuttavia, il team di ricerca evidenzia gli aspetti negativi di ChatGPT nel fornire informazioni sui vaccini.

Il professor Salas, specializzato in genetica umana, conclude: “Chat GPT fornisce risposte diverse se la domanda viene ripetuta ‘con qualche secondo di ritardo'”.

Un’altra preoccupazione che abbiamo riscontrato è che questo strumento di intelligenza artificiale, nella sua versione attuale, potrebbe essere addestrato a fornire risposte non in linea con l’evidenza scientifica”.

“È possibile ‘torturare’ il sistema in modo che fornisca la risposta desiderata. Questo vale anche per altri contesti diversi dai vaccini. Per esempio, si potrebbe fare in modo che il chatbot si allinei a narrazioni assurde come la teoria della terra piatta, neghi il cambiamento climatico o si opponga alla teoria dell’evoluzione, solo per fare qualche esempio.

“Tuttavia, è importante notare che queste risposte non sono il comportamento predefinito di ChatGPT. Pertanto, i risultati che abbiamo ottenuto riguardo alla sicurezza dei vaccini possono essere probabilmente estrapolati a molti altri miti e pseudoscienze”.

LEAVE A REPLY

Please enter your comment!
Please enter your name here