Le trasformazioni tecnologiche vanno gestite e non subite, per coglierne appieno le opportunità e contenere gli effetti negativi. Partendo da questa impostazione il G7 Lavoro di Cagliari ha dedicato un particolare focus al tema dell’intelligenza artificiale (Ia) e alla sua applicazione al mercato del lavoro. L’obiettivo, come ha sintetizzato la ministra padrona di casa Marina Calderone, era quello di siglare un documento finale che ponesse “la persona al centro delle politiche”. Per il governo italiano, che ha dedicato una sessione al tema coinvolgendo i ministri del Lavoro di Canada, Francia, Germania, Giappone, Regno Unito e Stati Uniti d’America, “l’approccio umanocentrico è alla base del piano sull’impatto della Ia nel mercato del lavoro, un piano concreto che indica direttrici di lavoro per governare i molteplici effetti”. Ma vediamo come la dichiarazione finale ha definito l’approccio alla Ia, che deve essere “sicura” e gestita con il dialogo sociale. “Riconosciamo – si legge nel documento della ministeriale – che le tecnologie basate su un’Intelligenza artificiale sicura, protetta e affidabile, inclusa l’Ia generativa, possono aumentare la produttività del lavoro, migliorare le condizioni di lavoro, la sicurezza e salute sul lavoro”. Opportunità che devono però andare a braccetto con i diritti dei lavoratori, la tutela della fasce deboli e la concertazione. Il G7 Lavoro ritiene infatti che “che i benefici possono essere massimizzati e distribuiti equamente su tutta la popolazione solo quando i diritti umani e l’inclusione sociale sono al centro”. Per questo servono “investimenti pubblici e privati ben mirati in infrastrutture, riqualificazione e aggiornamento delle competenze, nonché nell’istruzione”. I ministri osservano poi che per beneficiare appieno delle opportunità offerte dall’Ia “dobbiamo minimizzare i rischi potenziali per il mondo del lavoro, soprattutto per le persone in situazioni vulnerabili e marginalizzate. Questi rischi includono l’aumento delle disuguaglianze e delle discriminazioni, un impatto negativo sulla sicurezza e salute sul lavoro, inclusa la salute mentale, un indebolimento della rappresentanza e del potere di contrattazione collettiva, l’uso improprio della sorveglianza digitale sui lavoratori, nonché minacce alla privacy e alla responsabilità nel mondo del lavoro”. Per sviluppare appieno il dialogo sociale il documento promette una “stretta cooperazione con il settore privato, le organizzazioni dei lavoratori, la società civile, il mondo accademico” e chiede supporto “all’Ilo e all’Ocse”. Ed è proprio a livello di Organizzazione per la cooperazione e lo sviluppo economico che sono state aggiornate delle linee guida “per un utilizzo efficace ed affidabile, dell’intelligenza artificiale”. A spiegarlo a Cagliari è stato il direttore per l’Occupazione, il lavoro e gli affari sociali dell’Ocse, Stefano Scarpetta, per il quale ci sono “grandi possibilità, ma anche dei rischi. Ma non partiamo da zero. Gli algoritmi – ha sottolineato – sono già utilizzati nella gestione del personale e molti middle manager ci dicono che hanno migliorato le performance dell’impresa, ma serve trasparenza”. In particolare, per Scarpetta bisogna “spiegare ai lavoratori che certi algoritmi sono usati nella gestione dell’attività professionale. Bisogna fare una valutazione dei risultati di questi modelli, altrimenti il rischio è che il lavoratore non sia al corrente di come vengono usati”. Per questo sono necessarie regole e un forte coinvolgimento di tutte le parti. Da un’inchiesta Ocse emerge che l’impatto dell’intelligenza artificiale è considerata da tre lavoratori su cinque come capace di migliorare le performance e la qualità del lavoro perché permette di concentrarsi sulla parte più interessante del lavoro, mentre la parte più ordinaria e pericolosa può essere affidata agli algoritmi. Ma appunto, conclude Scarpetta, “i lavoratori ci dicono che l’impatto è più positivo quando sono informati e coinvolti”.