RUBEN RAZZANTE
Cronaca

I rischi di un’intelligenza artificiale fuori controllo

Razzante Riparte la scuola e si accende il dibattito sulle opportunità e i rischi dell’Intelligenza Artificiale (AI), per alcuni...

Razzante Riparte la scuola e si accende il dibattito sulle opportunità e i rischi dell’Intelligenza Artificiale (AI), per alcuni...

Razzante Riparte la scuola e si accende il dibattito sulle opportunità e i rischi dell’Intelligenza Artificiale (AI), per alcuni...

Razzante Riparte la scuola e si accende il dibattito sulle opportunità e i rischi dell’Intelligenza Artificiale (AI), per alcuni versi risorsa preziosa per l’apprendimento, per altri versi minaccia incombente sulla salute, anche mentale, delle nuove generazioni. L’AI si è diffusa rapidamente in molti settori, dalla finanza alla didattica, fino alla medicina, dove viene usata per le analisi cliniche, le diagnosi e per consentire una maggiore personalizzazione. Tuttavia, soprattutto nell’ambito psicologico, stanno emergendo dei gravi rischi legati all’uso indiscriminato dei chatbot conversazionali. Invece di offrire un supporto neutro, l’AI può rafforzare delle convinzioni errate, e in casi estremi, incoraggiare i minori a compiere scelte pericolose. Un problema è la tendenza dell’AI a compiacere l’utente, nota come "sycophancy". Questo atteggiamento, in contesti fragili come il disagio mentale o il suicidio, può rivelarsi fatale. Diversi casi recenti hanno evidenziato le conseguenze tragiche di un suo uso non controllato. Tra i più discussi, quello di Adam Reine, 17enne californiano che ha usato ChatGPT per pianificare il proprio suicidio. Il chatbot non ha interrotto la conversazione, ma avrebbe persino fornito delle indicazioni tecniche, senza attivare alcun allarme. In Irlanda, Warren Tierney, 37 anni, ha chiesto all’AI un parere sui suoi sintomi. Il chatbot lo ha rassicurato, dichiarando che non era nulla di grave. Solamente alcuni mesi dopo gli è stato diagnosticato un cancro esofageo in stadio avanzato. La totale fiducia nella risposta dell’AI ha ritardato l’intervento medico. Questi episodi avviano una riflessione urgente: l’AI non può sostituire il supporto umano nei contesti critici. Serve maggiore consapevolezza, un’educazione all’uso responsabile della tecnologia, a partire dalle scuole dell’obbligo, e l’adozione obbligatoria di sistemi di sicurezza avanzati.

Docente di Diritto dell’informazione all’Università Cattolica di Milano