
Razzante* uso crescente dell’Intelligenza Artificiale (AI) per interpretare referti medici, analisi cliniche e radiografie rappresenta un fenomeno allarmante, come...
Razzante*
uso crescente dell’Intelligenza Artificiale (AI) per interpretare referti medici, analisi cliniche e radiografie rappresenta un fenomeno allarmante, come sottolineato recentemente dall’Autorità Garante per la protezione dei dati personali. Affidarsi a queste tecnologie per ottenere diagnosi o indicazioni sanitarie può comportare gravi rischi. In primo luogo, si pone un serio problema di privacy: i dati sanitari sono altamente sensibili e, una volta caricati su piattaforme di AI, se ne può perdere il controllo. Non è sempre chiaro se queste informazioni vengano cancellate dopo l’uso, conservate per l’addestramento degli algoritmi o gestite secondo criteri trasparenti e conformi alla normativa. Ma il problema non è solo la tutela della riservatezza.
Vi è un secondo aspetto cruciale: l’affidabilità delle risposte fornite dall’intelligenza artificiale. Le piattaforme generative non sono dispositivi medici certificati, non sono state progettate specificamente per fornire interpretazioni sanitarie e possono generare risposte sbagliate, fuorvianti o incomplete. Questo comporta il rischio concreto di indicazioni errate che, se prese per buone, possono portare a terapie inappropriate o dannose, incidendo negativamente sulla salute delle persone. È per questo che il Garante della privacy richiama con forza l’importanza dell’intermediazione umana qualificata in ogni fase dell’elaborazione dei dati sanitari tramite AI: solo un medico, con la sua formazione e il suo giudizio clinico, può valutare correttamente un referto. Sebbene l’AI rappresenti una risorsa preziosa a supporto della medicina, non può e non deve sostituirsi all’essere umano. Affidarle la valutazione di dati sanitari significa esporsi a gravi rischi sia in termini di protezione dei dati personali che di tutela della salute.
*Docente di Dirittodell’informazioneall’Università Cattolica