vai alla home introduttiva di Pillole.org
 
  Pillole 
   
 
Iscritti
Utenti: 2318
Ultimo iscritto: Serena93
Iscritti | ISCRIVITI
 
I consigli medici dei chatbot possono causare gravi danni
Inserito il 27 ottobre 2024 da admin. - Medicina digitale - segnala a: facebook  Stampa la Pillola  Stampa la Pillola in pdf  Informa un amico  

I motori di ricerca su internet sono spesso la prima fase della ricerca di informazioni per i pazienti e, con l’arrivo dei modelli linguistici di grandi dimensioni (LLM), le risposte sono molto dettagliate e complete.
Tuttavia, questi risultati non sono necessariamente più accurati.

Uno studio pubblicato su BMJ Quality & Safety, condotto da ricercatori belgi e tedeschi, ha testato Microsoft Copilot, un servizio di AI conversazionale che si combina con il motore di ricerca Bing.
Al LLM sono state poste domande di carattere medico, in particolare lo studio ha valutato le risposte del chatbot su 10 domande frequenti, per esempio effetti collaterali, controindicazioni e dosaggio riguardanti i 50 farmaci più prescritti negli Stati Uniti. Le risposte sono state analizzate per leggibilità, completezza e accuratezza e confrontate con quelle fornite da drugs.com, il cui contenuto è accreditato come fonte affidabile.
Le risposte avevano una bassa leggibilità, richiedendo un livello educativo elevato. La completezza e l'accuratezza erano generalmente elevate, ma in alcuni casi le risposte potevano essere incomplete o contenere errori potenzialmente pericolosi. In un sottogruppo di risposte inaccurate gli esperti hanno rilevato che il 66% delle risposte poteva essere dannoso, con il 22% potenzialmente in grado di causare gravi danni o morte.
Conclusione: i chatbot possono fornire informazioni accurate, ma le loro risposte talvolta sono complesse o addirittura pericolose. Gli autori consigliano cautela nell'uso di chatbot per informazioni sui farmaci fino a quando non saranno disponibili alternative più affidabili. Caratteristica intrinseca a questi modelli, in quanto generativi, è completare l’input di ingresso senza che necessariamente la frase di completamento abbia senso fattuale. In pratica, quando non sanno qualcosa se lo inventano. Il fenomeno viene definito allucinazione, In inglese bullshit, stronzate, supercazzole. In realtà sarebbe meglio parlare di confabulazioni, perché l’allucinazione è la percezione di qualcosa che non esiste (visiva, uditiva) mentre la confabulazione è un ricordo non autentico, spesso derivante da distorsioni di ricordi veri o aggregazioni ricombinate di varie memorie distinte.


Giampaolo Collecchia e Riccardo De Gobbi


Bibliografia

Andrikyan W, Sametinger SM, Kosfeld F, et al. BMJ Qual Saf Epub 2024. doi:10.1136/bmjqs-2024-017476

Letto : 4760 | Torna indietro | Stampa la Pillola | Stampa la Pillola in pdf | Converti in XML
 
© Pillole.org 2004-2024 | Disclaimer | Reg. T. Roma n. 2/06 del 25/01/06 | Dir. resp. D. Zamperini
A  A  A  | Contatti | Realizzato con ASP-Nuke 2.0.7 | Versione stampabile Versione stampabile | Informa un amico | prendi i feed e podcasting di Pillole.org
ore 07:43 | 104436229 accessi| utenti in linea: 17227