04.09.2023

L’impatto dell’AI sul lavoro niente panico ma occhi aperti

  • La Repubblica

«Ad oggi non esiste evidenza che l’intelligenza artificiale abbia avuto un impatto negativo sul mondo del lavoro. Certo, con la brusca accelerazione che la tecnologia ha avuto con l’introduzione di ChatGPT e delle altre piattaforme “generative” occorre moltiplicare le attenzioni perché il salto di qualità è veramente notevole». Stefano Scarpetta, economista con PhD all’École des Hautes Études en Sciences Sociales di Parigi, dal 2013 direttore centrale dell’Ocse per le politiche del lavoro e dei problemi sociali, invita a non farsi prendere dal panico ma anche a non abbassare la guardia rispetto all’invadenza dell’AI.

Scarpetta ha coordinato un corposo rapporto, “Artificial intelligence and the labour market”, appena sfornato dall’Ocse. Analizza nella finanza e nella manifattura l’impatto positivo o negativo della rivoluzionaria tecnologia sull’occupazione e le condizioni di lavoro. «Abbiamo condotto un sondaggio in oltre 2 mila aziende in diversi Paesi dell’Ocse, intervistando 5.300 lavoratori. È emerso che finora meno del 10% delle imprese ha inglobato applicazioni di AI nelle proprie attività. Ma nelle grandi aziende la percentuale sale a un terzo».

Fra le aziende che utilizzano l’AI, il 50% degli intervistati dichiara che è migliorata la qualità del lavoro, permettendo ai dipendenti di concentrarsi su attività più interessanti e lasciando quelle gravose o pericolose alle macchine. È inquietante però che tre su cinque degli interpellati, soprattutto quelli con competenze medio basse, temono che l’AI gli toglierà il posto nei prossimi cinque anni.

Il rapporto definisce «ambiguo» il rapporto con l’AI. «È vero che probabilmente porterà alla scomparsa di alcuni lavori – si legge nel documento – ma può avere un effetto virtuoso alzando la domanda complessiva di lavoro grazie ai miglioramenti di produttività. Possono nascere nuove attività, specie per i lavoratori le cui abilità sono complementari con l’AI». È il cosiddetto “reinstatement effect” su cui si appuntano tante speranze. «È necessario – riprende Scarpetta – consentire ai lavoratori e ai datori di lavoro di cogliere i vantaggi dell’AI e di adattarsi ad essa con la formazione e il dialogo sociale. Il training continuo degli adulti, soprattutto quelli meno qualificati e più esposti a contraccolpi negativi, è importante, così come l’investimento in scuola e università». Il sondaggio rivela che se il costo per le imprese è il principale freno all’utilizzo dell’AI, il secondo vincolo è la mancanza di personale con competenze specifiche: due aziende su cinque lo ritengono una barriera significativa.

«L’importante – dice Scarpetta – è governare il cambiamento, senza cadere nella trappola di un determinismo tecnologico in cui la tecnologia modella i cambiamenti sociali e culturali piuttosto che il contrario». Sono urgenti norme nazionali ed europee (la Ue discuterà una direttiva in autunno e il G7 si è impegnato a un’azione comune) per fissare solidi paletti in termini di rispetto della privacy, sicurezza, equità e diritti del lavoro, e garantire responsabilità, trasparenza e spiegabilità delle decisioni supportate dall’AI. «Non bisogna cominciare da zero – precisa Scarpetta – La legislazione esistente in molti Paesi comprende disposizioni rilevanti anche per l’AI, devono solo essere adattate con la consapevolezza dei nuovi rischi».

Il report scrive che il 57% dei dipendenti di aziende che usano l’AI è preoccupato per la privacy. «Tutti i Paesi Ocse hanno leggi che mirano a proteggere i dati e la riservatezza, e in alcuni come l’Italia la legislazione esistente contro la discriminazione è stata già applicata con successo in cause giudiziarie relative all’uso dell’AI sul posto di lavoro». Occhi aperti contro gli abusi, tipo le decisioni su assunzioni o licenziamenti prese dagli algoritmi: «Soprattutto vanno messi i cittadini in condizione di capire quando l’algoritmo ha avuto voce in capitolo sulle decisioni che li riguardano». Non è facile, riconosce Scarpetta, che però ricorda che esistono già società private che certificano l’assenza di pregiudizi nei modelli di AI utilizzati dalla selezione del personale alle promozioni e valutazione delle performance dei lavoratori. «La tecnologia di verifica degli algoritmi e dei dati utilizzati esiste ma succede che il privato si autocertifichi: meglio un approccio basato su norme statali o internazionali».

Evitiamo che lo facciano i privati, insomma, e facciamolo fare alle autorità. Il report ricorda che spesso il prodotto ottenuto dall’AI è indistinguibile da quello umano: bisogna difendersi strenuamente e non farsi influenzare dalle macchine.