Dall’algoritmo egoista a quello responsabile

Migration

Emilia

Garito*

La domanda ricorrente che ci poniamo è se davvero le macchine siano in grado di auto apprendere e se potranno in futuro sostituire l’uomo in tutte o quasi le sue attività, migliorandone i risultati. L’algoritmo di IA è basato sul calcolo nascosto effettuato dalla black box inizialmente programmata per elaborare nodi con pesi misurabili, divenuta poi un contenitore di azioni dinamiche ignote modificabili solo dallo stesso algoritmo, che decide autonomamente le metriche di elaborazione dei dati di ingresso caricati dall’uomo. La scatola nera, una volta inseriti i dati che l’intelligenza umana è stata in grado di raccogliere e offrire, restituisce i risultati secondo una logica non criticabile poiché non accessibile. È come se intorno all’algoritmo avessimo costruito una sorta di “fede misteriosa” che in virtù della sua presunta infallibilità e neutralità ci induce a fidarci e a far decidere all’algoritmo il meglio per noi, senza però spiegarci il perché. Questo elemento rappresenta il nodo etico e regolamentativo più importante per il futuro dell’Ia per il quale si deve affrontare il tema della discrezionalità della macchina rispetto alla discrezionalità umana; ricordandoci però che "l’ottimizzazione cieca dell’accuratezza porta a consigli senza contesto". La soluzione scientifica è quella di istruire l’algoritmo intelligente a diventare responsabile, attraverso l’approccio del training dell’algoritmo stesso, progettato mediante i grafi della conoscenza. Attraverso i grafi della conoscenza potrà essere possibile un giorno risalire al processo di elaborazione dei dati, da input in output. Ritengo, però, che al di là delle capacità di sviluppo dell’Intelligenza Artificiale, dovrà sempre e comunque essere l’uomo a rispondere ai problemi reali usando gli algoritmi, avviandoli e bloccandoli secondo un progetto da esso stesso pensato e controllato. Da qui anche la possibilità di definire nuove professioni, come quella dell’AI Shaper, il forgiatoredisegnatore dell’uso responsabile degli algoritmi, contro le derive che gli stessi potrebbero prendere, garantendo sempre il controllo dell’elaborazione dei dati, rispettandone i principi di trasparenza e neutralità e preservandoli da pregiudizi computazionali oggi comuni in moltissimi algoritmi pseudo-intelligenti.*Ceo di Quantum Leap

è arrivato su WhatsApp

Per ricevere le notizie selezionate dalla redazione in modo semplice e sicuro