
Dalla sicurezza dei dati ai bias nei dataset, fino alla regolamentazione: come l’AI può trasformare l’assistenza psichiatrica mantenendo al centro il controllo umano.
L’uso dell’intelligenza artificiale nella salute mentale è destinato ad avere un impatto sempre più significativo sull’assistenza sanitaria. Tuttavia, accanto alle potenzialità emergono anche interrogativi rilevanti legati a sicurezza, accuratezza delle informazioni e tutela della privacy. L’impiego di strumenti basati su Intelligenza artificiale in ambito clinico solleva infatti questioni fondamentali riguardo alla responsabilità professionale e agli standard di cura.
Le preoccupazioni diventano ancora più rilevanti quando si considerano persone particolarmente vulnerabili, come i pazienti con disturbi psichiatrici. Alcuni sistemi di AI disponibili al pubblico, come i chatbot, non sono sempre in grado di valutare correttamente i rischi legati alla salute mentale o di riconoscere situazioni di emergenza clinica.
Valutare i rischi dell’AI in sanità
Per comprendere il ruolo dell’AI nell’assistenza psichiatrica è utile analizzare le caratteristiche delle diverse applicazioni tecnologiche. Un approccio proposto dagli studiosi consiste nel valutare le cosiddette “affordances”, ovvero le possibilità di azione offerte da un sistema all’interno dell’ambiente in cui opera.
Nel contesto sanitario questo significa analizzare cinque elementi fondamentali – il cosiddetto modello delle 5 W: chi interagisce con il sistema, quali azioni può compiere, quando agisce, dove è collocato e perché prende determinate decisioni.
Attraverso queste domande è possibile valutare l’impatto di un sistema di AI nella pratica clinica e stabilire se il suo utilizzo sia appropriato e sicuro.
Oltre i large language model
Molti strumenti di AI attualmente utilizzati si basano sui Large Language Model (LLM), modelli linguistici addestrati su grandi quantità di dati. Sebbene queste tecnologie siano molto potenti, presentano anche alcuni limiti. Uno dei problemi più discussi è il fenomeno delle cosiddette “allucinazioni”, ovvero la generazione di informazioni plausibili ma non corrette.
Per affrontare questa criticità alcuni ricercatori propongono di integrare gli LLM con modelli simbolici, creando sistemi cosiddetti neuro-simbolici. Questa combinazione permetterebbe di unire la capacità di elaborazione dei dati delle reti neurali con sistemi logici in grado di distinguere tra informazioni vere e false e individuare eventuali contraddizioni.
Secondo gli esperti, questo approccio potrebbe migliorare la trasparenza e l’affidabilità delle applicazioni di AI, aspetti cruciali per l’utilizzo in ambito sanitario.
Il problema dei bias nei dati
Un altro nodo centrale riguarda i dati utilizzati per addestrare i modelli di AI. Numerosi studi dimostrano che i dataset possono riflettere bias sociali già presenti nella società, con il rischio che tali distorsioni vengano replicate o amplificate dagli algoritmi.
Nel campo della salute mentale il problema è particolarmente delicato. Alcuni gruppi, come le minoranze etniche o sociali, possono essere sottorappresentati nei dati a causa dello stigma associato ai disturbi psichiatrici e delle difficoltà di accesso ai servizi sanitari. Anche le persone con le forme più gravi di disagio psicologico partecipano meno frequentemente agli studi clinici, riducendo ulteriormente la rappresentatività dei dataset.
Garantire equità e affidabilità dei modelli di AI richiede quindi strategie mirate per migliorare la qualità e la diversità dei dati disponibili.
Nuove fonti di dati digitali
Negli ultimi anni è cresciuto anche l’interesse per l’utilizzo di dati raccolti in modo continuo attraverso dispositivi digitali, come smartphone e wearable. Questi strumenti consentono di monitorare in tempo reale diversi indicatori legati al comportamento, alle relazioni sociali e ai processi cognitivi.
Questo approccio, noto come digital phenotyping, permette di ottenere grandi quantità di informazioni personalizzate su un singolo individuo, favorendo un’analisi più approfondita della salute mentale.
Tuttavia, l’utilizzo di questi dati pone nuove sfide dal punto di vista della sicurezza informatica e della protezione della privacy, poiché le informazioni provenienti dai sensori digitali non sempre rientrano chiaramente nelle categorie giuridiche previste per i dati sanitari.
Il ruolo della regolamentazione
Per ridurre i rischi legati all’uso dell’AI in sanità sono fondamentali anche strumenti normativi adeguati. Nell’Unione europea, ad esempio, il AI Act introduce un sistema di regolamentazione basato sul livello di rischio delle applicazioni tecnologiche, con obblighi più stringenti per i sistemi considerati ad alto rischio.
Negli Stati Uniti il quadro normativo è più frammentato e comprende indicazioni della Food and Drug Administration per i software considerati dispositivi medici, oltre alle disposizioni sulla protezione dei dati sanitari previste dall’Health Insurance Portability and Accountability Act.
Tra le iniziative più recenti figura anche il Transparency in Frontier Artificial Intelligence Act approvato nello stato della California, che impone agli sviluppatori di sistemi avanzati di AI obblighi di trasparenza e di segnalazione degli incidenti di sicurezza.
Verso un’AI integrata nella pratica clinica
Se adeguatamente regolata e progettata, l’intelligenza artificiale potrebbe diventare uno strumento di supporto molto utile per la salute mentale. Un sistema capace di integrare dati clinici, biologici, psicologici e sociali potrebbe avvicinarsi al modello biopsicosociale proposto da George Engel, offrendo una visione più completa della condizione del paziente.
In questo scenario l’AI potrebbe assistere medici e pazienti nella comprensione della diagnosi e nella gestione del percorso terapeutico. Tuttavia, gli esperti sottolineano che il suo utilizzo dovrebbe sempre avvenire sotto supervisione clinica, evitando che strumenti automatizzati sostituiscano il giudizio professionale.
Un equilibrio tra innovazione e sicurezza
L’intelligenza artificiale rappresenta dunque una tecnologia con grandi potenzialità per migliorare l’assistenza psichiatrica, ma il suo impiego richiede un attento bilanciamento tra innovazione e sicurezza. Regolamentazione basata sul rischio, modelli algoritmici più trasparenti, dataset equi e supervisione umana sono elementi fondamentali per garantire un utilizzo responsabile di queste tecnologie.
Solo attraverso una gestione attenta dei rischi sarà possibile sfruttare appieno i benefici che l’AI può offrire nella cura e nel supporto delle persone con disturbi mentali.
Nella Giornata nazionale contro la violenza sul personale sanitario, il ministro Schillaci e il presidente FNOMCeO Anelli richiamano la necessità di proteggere medici e operatori.
Dalla collaborazione tra CIPOMO e FNOMCeO un documento con cinque leve operative per integrare ospedale e territorio nella presa in carico dei pazienti oncologici e ridurre frammentazione e disuguaglianze.
Il parallel trade consente di importare medicinali da Paesi UE dove costano meno. In Italia il fenomeno resta limitato rispetto ad altri mercati europei.
Rapporto Iss: 0,1 posti letto ogni 1.000 abitanti contro 0,64 della media Ocse. Calano strutture e personale, crescono prescrizioni di antipsicotici. Bellantone: “Serve orientare meglio le politiche”.
Commenti