IA. Pagliuca “Intervento umano cruciale per la sicurezza”

96

In un  sondaggio globale condotto tra i gestori del rischio  dalla multinazionale Accenture, il 58% identifica l’intelligenza artificiale come la principale causa potenziale di conseguenze indesiderate nei prossimi due anni. Solo l’11% afferma di essere pienamente in grado di valutare i rischi associati all’adozione dell’IA a livello di organizzazione.

“Se da una parte, Morgan Stanley, UBS e Deutsche Bank – spiega Luigi Pagliuca, Presidente della Cassa di previdenza dei ragionieri – sostengono che l’ingresso dell’IA nel mondo aziendale è attualmente limitato e lento, dall’altra sono in molti a sostenere che l’intervento umano rimane cruciale per la sicurezza, considerando i rischi associati alla fase sperimentale dell’IA”.

La maggior parte dei compiti assegnati all’IA riguardano mansioni pericolose o noiose per questo motivo l’aumento della produttività potrebbe generare la necessità di assumere personale umano per mansioni di controllo, equilibrando gli effetti sull’occupazione.
Gli esperti, però, prevedono che gli effetti dell’IA saranno inevitabili nel giro di pochi mesi.

“Secondo Accenture, globalmente – continua Pagliuca –  il 40% del tempo di lavoro attuale sarà gestito solo dall’IA come dimostrano le aziende Duolingo e Chegg che sostituiscono dipendenti con applicazioni di IA e la scelta di IBM di bloccare le assunzioni fino a quando non sarà chiaro quali posti di lavoro saranno sostituibili da app di IA”.

“L’IA può portare molti benefici –  sostiene il Parlamento europeo – ad esempio una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione più efficiente e un’energia più conveniente e sostenibile”.

Certo è che comunque va “governata” ed è per questo che nell’aprile 2021, la Commissione europea ha proposto il primo quadro normativo sull’IA, proponendo che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione.

La priorità per il Parlamento è quella di assicurarsi che i sistemi di intelligenza artificiale utilizzati siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.

E soprattutto che “I sistemi di intelligenza artificiale dovrebbero essere supervisionati da persone, anziché da automazione, per evitare conseguenze dannose”.