Salute e IA: possiamo davvero fidarci?

1 mese ago · Updated 1 mese ago

C’è un nuovo intermediario tra il cittadino e la salute pubblica. Non indossa un camice, non firma prescrizioni e non compare nei corridoi degli ospedali, ma risponde con una sicurezza disarmante a qualsiasi domanda. L’intelligenza artificiale generativa, entrata silenziosamente nella quotidianità digitale, sta ridefinendo il modo in cui le persone cercano, interpretano e spesso decidono in materia di salute. Ed è proprio in questo spazio ambiguo, tra accesso all’informazione e illusione della competenza, che nasce un rischio ancora poco esplorato: la disinformazione sanitaria algoritmica.

Il problema non è l’errore in sé. La medicina convive da sempre con l’incertezza, con il dubbio clinico, con l’evoluzione continua delle evidenze scientifiche. La novità è che oggi l’errore può essere elegante, ben scritto, rassicurante. Può presentarsi con un linguaggio empatico, citare studi inesistenti, suggerire comportamenti plausibili ma non corretti. L’intelligenza artificiale generativa non mente nel senso umano del termine, ma costruisce risposte statisticamente convincenti, e questo la rende particolarmente pericolosa quando applicata alla salute, un ambito in cui la forma pesa quanto il contenuto.

Nell’ecosistema digitale contemporaneo la ricerca sanitaria non passa più solo dai siti istituzionali, dalle linee guida o dal confronto diretto con i professionisti. Passa da chatbot, assistenti virtuali, motori conversazionali che promettono risposte rapide e personalizzate. È qui che la disinformazione cambia natura. Non è più la fake news urlata o il complotto virale, ma una narrazione credibile, su misura, spesso difficile da smontare perché non appare falsa, ma semplicemente “verosimile”.

Il rischio più sottile non è che l’intelligenza artificiale dica qualcosa di palesemente sbagliato, ma che dica qualcosa di incompleto, decontestualizzato, non aggiornato. In sanità, una mezza verità può essere più dannosa di una bugia. Un consiglio apparentemente neutro può indurre a ritardare una diagnosi, a sospendere una terapia, a banalizzare un sintomo. E tutto questo avviene senza conflitto, senza allarme, senza la percezione di stare assumendo un rischio.

C’è poi un altro livello, ancora più delicato, che riguarda l’autorità percepita. L’intelligenza artificiale non ha un volto, ma ha una voce che viene spesso interpretata come oggettiva, super partes, scientifica per definizione. In un’epoca segnata da una crescente sfiducia verso le istituzioni sanitarie, questa apparente neutralità diventa una scorciatoia cognitiva potente. Se lo dice l’algoritmo, allora deve essere vero. È un meccanismo psicologico che ribalta anni di lavoro sulla relazione medico-paziente e sposta il baricentro decisionale verso strumenti che non rispondono né eticamente né giuridicamente delle loro affermazioni.

Eppure sarebbe miope leggere questa trasformazione solo in chiave negativa. L’intelligenza artificiale generativa ha anche il potenziale di colmare disuguaglianze informative, di tradurre il linguaggio medico in forme più accessibili, di supportare la prevenzione e l’aderenza terapeutica. Può essere un alleato prezioso per orientare, non per decidere. Il nodo centrale non è la tecnologia, ma il contesto in cui viene utilizzata e le aspettative che vi proiettiamo.

La vera questione, oggi, non è se l’intelligenza artificiale debba entrare nella sanità, ma a quali condizioni. Servono regole chiare, trasparenza sugli addestramenti dei modelli, responsabilità sull’uso dei contenuti generati. Ma serve soprattutto una nuova alfabetizzazione sanitaria digitale. Non basta saper cercare informazioni, bisogna saperle interrogare, dubitare, verificare. E questo vale tanto per i cittadini quanto per i professionisti della salute, che non possono permettersi di ignorare strumenti già ampiamente utilizzati dai loro pazienti.

Nel rischio di disinformazione sanitaria nell’era dell’intelligenza artificiale generativa si nasconde una sfida culturale prima ancora che tecnologica. È la sfida di mantenere il pensiero critico in un mondo di risposte immediate, di difendere la complessità della medicina in un tempo che premia la semplificazione. È la sfida di ricordare che la salute non è un output, ma una relazione, un percorso, una responsabilità condivisa.

Forse il vero pericolo non è che l’intelligenza artificiale sappia troppo, ma che noi le chiediamo le domande sbagliate, delegando a un algoritmo ciò che richiede ancora ascolto, competenza e umanità.

Articoli correlati

Go up PDF