
ChatGPT Salute non è un’AI clinica per i medici ma uno strumento per cittadini e pazienti: la novità sono le maggiori tutele sui dati sanitari. FNOMCeO ribadisce il primato dell’umano.
Negli ultimi giorni il lancio di ChatGPT Salute da parte di OpenAI è stato raccontato come una svolta nell’uso dell’intelligenza artificiale in sanità, alimentando dubbi e ambiguità. Sono ricostruzioni che mescolano piani diversi, alimentando un equivoco di fondo: ChatGPT Salute non è un nuovo strumento professionale per i medici, né una piattaforma clinica. È un’evoluzione dell’AI già utilizzata da milioni di cittadini, oggi evoluta per gestire in maniera più accurata - e in modo più protetto - le conversazioni su salute e benessere che ogni urente potrebbe aprire in chat.
La vera novità: uno spazio separato per la salute
L’elemento di novità non è quindi l’introduzione di nuove capacità cliniche dell’intelligenza artificiale, quanto la creazione di uno spazio dedicato alla salute all’interno di ChatGPT, separato dalle altre conversazioni. In questo ambiente le informazioni sanitarie vengono trattate con tutele rafforzate: memorie isolate, maggiore controllo da parte dell’utente e l’impegno a non utilizzare questi dati per l’addestramento dei modelli.
La funzione nasce da una considerazione di realtà: gli utenti già usano l’AI come strumento di supporto per le proprie esigenze mediche e - spesso - per effettuare autodiagnosi. OpenAI non intende rafforzare questo utilizzo, ma intende razionalizzare quanto già sta accadendo, riducendo i rischi legati alla frammentazione delle informazioni e alla gestione impropria dei dati sensibili.
Uno strumento per cittadini e pazienti, non per clinici
ChatGPT Salute è stato quindi pensato per aiutare le persone a comprendere meglio esami, referti, andamenti nel tempo, stili di vita e a prepararsi in modo più consapevole agli incontri con il medico. In alcuni Paesi, come gli Stati Uniti, può collegarsi a cartelle cliniche elettroniche o app di benessere, ma sempre nell’ottica del supporto informativo personale.
Non è un dispositivo medico, non è un software certificato per l’attività clinica, non è riservato ai professionisti sanitari. Non formula diagnosi né indica terapie. Anche quando utilizza un linguaggio "medico", resta all’interno di un perimetro dichiaratamente non clinico. La distinzione è netta: l’utente finale è il cittadino, non il medico. Èuno strumento che, usato in maniera congrua, aiuta il dialogo medico/paziente. E non lo sostituisce.
Perché il coinvolgimento dei medici non cambia la natura dello strumento
OpenAI sottolinea di aver sviluppato ChatGPT Salute con il contributo di centinaia di medici, coinvolti nella valutazione delle risposte e nella definizione di criteri di sicurezza. Questo elemento ha alimentato l’idea che si tratti di un’AI "per la sanità". In realtà, il coinvolgimento dei clinici serve a un altro scopo: rendere più sicuro uno strumento consumer, non a trasformarlo in un sistema clinico.
Il framework di valutazione adottato, HealthBench, misura la qualità delle risposte in termini di chiarezza, sicurezza e corretto invio al medico quando necessario. È una garanzia di prudenza, non un salto di ruolo dell’AI.
La posizione FNOMCeO: apertura, ma senza ambiguità
Proprio per evitare fraintendimenti interviene la FNOMCeO. Il segretario Roberto Monaco ribadisce come l’intelligenza artificiale possa essere un valido strumento di supporto, ma non sia in grado di sostituire il medico, l’unico responsabile del processo decisionale.
La diagnosi non è un algoritmo che somma dati, ma un ragionamento clinico complesso che include esperienza, contesto e relazione. Ed è proprio la relazione medico-paziente, fatta di ascolto, tempo e comprensione della persona, il punto che l’AI non può replicare. Da qui anche l’attenzione alla qualità e alla certificazione dei dati utilizzati.
Un’innovazione organizzativa. E non clinica
In sintesi, ChatGPT Salute non rappresenta una rivoluzione clinica, ma un’innovazione organizzativa e di governance dell’AI applicata alla salute. Nella consapevolezza del fatto che le persone usano già l’intelligenza artificiale per orientarsi in ambito sanitario, ma sapendo quanto sia necessario introdurre un contenitore più sicuro e strutturato per farlo adeguatamente.
Il confine resta chiaro: l’AI può aiutare a capire, preparare, orientare. La cura, la diagnosi e la responsabilità restano umane. La sintesi di sapere e strumenti è il grande tema dell’innovazione sanitaria, certamente. Ma non sarà questo il detonatore in grado di creare conflitto tra uomo e macchina.
Un algoritmo basato sul sonno notturno è in grado di stimare il rischio futuro di 130 patologie, incluse malattie neurologiche e cardiovascolari.
Un sistema di IA sviluppato al MIT apre la strada a nuovi strumenti per riconoscere i segnali del cancro in modo rapido e non invasivo.
Intelligenza artificiale e biomarcatori cerebrali aprono nuove prospettive per la diagnosi precoce dei disturbi psicologici in età adolescenziale.
All’Irccs prende forma un nuovo modello di attenzione alla persona, che integra il percorso oncologico con interventi dedicati al benessere.
La finalità del divieto è di garantire la massima efficienza e funzionalità operativa all'Ssn, evitando gli effetti negativi di un contemporaneo esercizio, da parte del medico dipendente, di attività professionale presso strutture accreditate
Le richieste puntano sull'adeguamento economico e sulla riorganizzazione del lavoro
Con la graduatoria parte la caccia ai 22mila posti
Nursing Up: "Mai così tante. In nessun ospedale agenti dopo le 24"
Commenti