Intelligenza artificiale e mondo del lavoro: una sfida per le imprese

Il termine “Intelligenza Artificiale (IA)” è oggi sulla bocca di tutti

Pur essendo oltre 50 anni che se ne parla, sono stati i più recenti progressi nella potenza dei computer, la disponibilità e la capacità di analizzare enormi quantità di dati e lo sviluppo di nuovi e sempre più complessi algoritmi, ad aver fatto fare balzi in avanti giganteschi all’IA.

Balzi avanti talmente dirompenti che oggi i Governi di tutto il mondo discutono di come “gestire” questa tecnologia e, soprattutto, come stabilire delle norme che ne regolino l’applicazione ed il funzionamento garantendo i diritti fondamentali dell’individuo i cui dati sono coinvolti nei processi.

Con IA si definisce “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. In altre parole, l’IA è una tecnologia che simula i processi dell’intelligenza umana attraverso la creazione e l’applicazione di algoritmi (sequenza finita di operazioni da svolgere per risolvere un problema).

L’applicazione dell’IA nel mondo del lavoro non è fantascienza ma ormai realtà. Il mondo digitale ha visto emergere nuove professioni inesistenti fino a pochi anni fa ma anche l’incremento di lavoratori autonomi che offrono servizi tramite piattaforme o applicazioni mobili che utilizzano l’IA basandosi su algoritmi predefiniti. Far queste citiamo Uber, Deliveroo o Airnbnb.

L’IA non tocca solo la “forma” del lavoro ma ne influenza e stravolge anche la sostanza, andando a condizionarne le strutture di funzionamento ed i processi più profondi.
Ormai da tempo l’IA è parte integrante dei programmi di recruiting utilizzati dalle aziende per la selezione del personale. Significa che sempre più aziende delegano alle macchine la gestione dei colloqui di selezione e di conseguenza la scelta dei collaboratori. Tali sistemi riposano su un sistema di presa di “decisione automatizzata” e sono altresì utilizzati nella sorveglianza e nella valutazione del personale. Questo determina il fatto che l’IA non interviene solo nelle procedure di selezione ma anche nella valutazione dei collaboratori e, in ultima analisi, può determinare eventuali collaboratori non più idonei a svolgere il lavoro attribuitogli.

Un altro esempio. Oggi l’IA è in grado di redigere agilmente e in maniera autonomia testi anche complessi, la piattaforma più famosa in questo ambito è senz’altro Chat GPT (Generative Pretrained Transformer). Applicando questa capacità alla casella mail di una persona, l’IA è in grado, in brevissimo tempo, di sostituirla. L’IA è in grado di leggere e comprendere le mail in entrata e in uscita. Può rispondere simulando lo stile di chi scrive, il suo modo di ragionare, il suo atteggiamento e addirittura la sua fantasia. L’interlocutore, artificiale o umano o che sia, non si accorgerà della sostituzione.

Questa tecnologia specifica, sviluppata ad esempio da Microsoft, è già in uso in numerose aziende, soprattutto americane, dove l’IA si occupa della gestione delle mail e di tutta una serie di processi aziendali un tempo appannaggio degli uomini e oggi sempre più delegati ai computer.

Se l’IA costituisce un’importante opportunità di sviluppo, non mancano i rischi ad essa connessi. In particolare, l’utilizzo improprio dell’IA potrebbe comportare rischi anche gravi. L’Unione Europea parla espressamente del rischio di manipolare il comportamento delle persone, violandone, di fatto, i diritti fondamentali.

Proprio allo scopo di definire e contenere i potenziali rischi dell’IA, la Commissione Europea ha stabilito delle linee guida e dei limiti chiari: i sistemi di IA devono essere “sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente”. Inoltre, è esplicito che la supervisione deve essere affidata a delle persone e non a degli automi. Dunque, non può essere l’IA a controllare l’IA.
Nelle scorse settimane, il Consiglio e il Parlamento europeo sono riusciti a trovare un’intesa su quello che sarà il contenuto del primo atto normativo che regolamenterà l’utilizzo dell’IA (Regolamento europeo sull’IA), il quale pone le basi per un utilizzo dell’IA sicuro e rispettoso dei diritti umani.

La Svizzera, come centro scientifico dello sviluppo dell’IA, seppur con un approccio moderato, vuole contribuire all’elaborazione di questo quadro normativo internazionale che consenta di sfruttare le opportunità offerte dall’IA e di affrontare in modo mirato le sfide che essa pone.

In attesa di norme che definiscano in modo più concreto l’utilizzo dell’IA, ci si chiede in che modo sia attualmente regolamentato l’utilizzo dell’IA all’interno dei rapporti professionali e in che misura i diritti fondamentali dei dipendenti siano tutelati.

Il punto centrale che permette da subito di definire delle regole è riconoscere che le tecnologie che si basano sull’IA utilizzano i dati personali degli individui e dunque rientrano indubbiamente nell’ambito del “trattamento dei dati personali”.
Il trattamento di dati è regolamentato in Svizzera dalla Legge sulla Protezione dei dati (la cui modifica sostanziale è entrata in vigore il 1° settembre 2023) e, per quanto riguarda il rapporto di lavoro, dall’art. 328b del Codice delle Obbligazioni che circoscrive la cerchia di dati che il datore di lavoro può utilizzare nell’ambito del rapporto di lavoro. Questa norma prevede infatti che il datore di lavoro è legittimato ad utilizzare (trattare) le informazioni (dati) dei dipendenti solo se si riferiscono all’idoneità lavorativa o se necessari all’esecuzione del contratto.
Un utilizzo, oltre questo scopo sarebbe illecito e comporterebbe una violazione della personalità del dipendente (diritto inalienabile e fondamentale dello stesso).
Questi principi sono validi anche nell’ambito dell’utilizzo dell’IA e, anzi, ne ampliano il campo d’applicazione.

Nel concreto, come per tutti i processi, il datore di lavoro è autorizzato ad utilizzare le tecnologie basate sull’IA solo ed esclusivamente se lo scopo ricercato è quello indicato nella norma citata.
È primordiale che nell’utilizzo delle tecnologie “permesse” il datore di lavoro salvaguardi la personalità del dipendente, applicando altresì in modo rigoroso i principi previsti dalla LPD. In particolare: liceità, informazione, consenso esplicito (dove necessario), buona fede, esattezza, finalità, trasparenza, proporzionalità e sicurezza.
Per quanto concerne il caso concreto delle “decisioni individuali automatizzate” (quali i casi di selezione di dipendenti per l’assunzione, la promozione o il licenziamento nel rapporto di lavoro), l’art. 21 LPD accorda a colui i cui dati sono oggetto di trattamento (in questo caso al dipendente) il diritto di ottenere un riesame della decisione da parte di una persona fisica (questa prerogativa può essere esclusa in caso di consenso preventivo e completo alla presa di decisione automatizzata).
È opportuno osservare che vi sono altre norme (sovente trascurate) che devono essere considerate nell’applicazione dell’IA al rapporto di lavoro, in particolare la Legge sul lavoro e la Legge sulla Partecipazione. Per ogni singolo caso, vi è una declinazione specifica dei principi citati che va discussa e delineata, ma vi è sempre un denominatore comune: un obbligo di informazione chiaro e completo.

Per approfondire il tema, circoscrivere e definire le norme applicabili a situazioni concrete durante il rapporto di lavoro, rinviamo al corso: “L’utilizzo dell’Intelligenza Artificiale nel mondo del lavoro: quali obblighi per il datore di lavoro?” che si terrà il prossimo 6 maggio 2024 online.

Dettagli e iscrizioni:
https://www.cc-ti.ch/calendario/lutilizzo-dellintelligenza-artificiale-nel-mondo-del-lavoro-quali-obblighi-per-il-datore-di-lavoro-online/


Articolo a cura di Avv. Roberta Bazzana-Marcoli, titolare RB Legal