Canali Minisiti ECM

ChatGPT potrebbe creare dati falsi per truccare test clinici

Sanità pubblica Redazione DottNet | 26/11/2023 16:27

La dimostrazione arriva da un lavoro di Giuseppe Giannaccare dell'Università di Cagliari, pubblicato su JAMA Ophthalmology

ChatGPT potrebbe essere usato per truccare i dati di uno studio clinico. La dimostrazione arriva da un lavoro di Giuseppe Giannaccare dell'Università di Cagliari, pubblicato su JAMA Ophthalmology. Gli autori hanno utilizzato GPT-4 per generare dati falsi e hanno erroneamente indicato che un certo trattamento chirurgico è migliore di un altro. "Abbiamo voluto evidenziare che, in pochi minuti, è possibile creare un set di dati non supportato da dati originali reali e addirittura nella direzione opposta rispetto alle evidenze disponibili", afferma Giannaccare.

La capacità dell'IA di fabbricare dati convincenti crea preoccupazione tra i ricercatori e gli editori di riviste riguardo all'integrità della ricerca. Con ChatGPT, infatti, qualsiasi ricercatore o gruppo di ricerca potrà creare misurazioni false su pazienti inesistenti, risposte false a questionari o generare un grande set di dati su esperimenti sugli animali. Gli autori hanno chiesto a GPT-4 ADA di creare un set di dati riguardante pazienti con cheratocono, che provoca assottigliamento della cornea e può portare a problemi visivi.

pubblicità

Per il 15-20% dei pazienti, il trattamento prevede un trapianto di cornea eseguito o con la cheratoplastica penetrante (PK) (che comporta la rimozione chirurgica di tutti gli strati danneggiati della cornea e la loro sostituzione con tessuto sano proveniente da un donatore), o con la cheratoplastica lamellare anteriore profonda (DALK)( in cui si sostituisce solo lo strato anteriore della cornea). Gli autori hanno usato ChatGPT per fabbricare dati a sostegno della conclusione che la DALK produce risultati migliori rispetto alla PK. I dati generati dall'IA includevano 160 partecipanti maschi e 140 femmine e indicavano che coloro che avevano subito la DALK ottenevano punteggi migliori sia nella visione sia nel test di imaging rispetto a coloro che avevano subito la PK, risultato in contrasto con quanto mostrato da veri studi clinici. Gli autori dello studio riconoscono che il loro set di dati ha difetti che potrebbero essere individuati con un esame attento. Tuttavia, afferma Giannaccare, "se si guarda molto rapidamente il set di dati, è difficile riconoscere l'origine non umana della fonte dei dati".

Commenti

I Correlati

Liste d’attesa prima preoccupazione sanitaria per gli italiani: il 46% ritiene che il diritto alla salute non sia pienamente soddisfatto. I dati dell’indagine Euromedia presentata al summit MSD.

Mobilità sanitaria in crescita: nel 2023 gli italiani hanno speso 5,15 miliardi per curarsi fuori Regione. Il Report Gimbe evidenzia divari territoriali e forte attrattività di poche aree del Paese.

Sport e prevenzione entrano nell’agenda di politica sanitaria: il Rapporto TEHA-Osservatorio Valore Sport mostra perché l’attività fisica è strumento di salute pubblica..

Uno studio pubblicato su The Lancet testa uno stetoscopio basato su AI nel sistema sanitario britannico: la tecnologia funziona, ma l’impatto reale resta limitato. Il problema non è l’algoritmo.

Ti potrebbero interessare

Liste d’attesa prima preoccupazione sanitaria per gli italiani: il 46% ritiene che il diritto alla salute non sia pienamente soddisfatto. I dati dell’indagine Euromedia presentata al summit MSD.

Mobilità sanitaria in crescita: nel 2023 gli italiani hanno speso 5,15 miliardi per curarsi fuori Regione. Il Report Gimbe evidenzia divari territoriali e forte attrattività di poche aree del Paese.

A sei anni dal Covid, Ugl Salute denuncia il ritardo nell’approvazione del Piano pandemico 2025-2029 e nel completamento dei posti letto previsti dal PNRR.

Ultime News

Più letti