Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

Intelligenza artificiale ad autoapprendimento e responsabilità datoriale

Intelligenza artificiale ad autoapprendimento e responsabilità datoriale

Un saggio propone alcune riflessioni sui sistemi di intelligenza artificiale ad autoapprendimento e le responsabilità datoriali. Lo scenario attuale, i nuovi pericoli, la normativa dell’Unione europea e l’articolo 2049 del codice civile.


Urbino, 9 Apr – La continua evoluzione e diffusione dei sistemi di intelligenza artificiale (IA) sui luoghi di lavoro sta facendo emergere diverse problematiche e nuove riflessioni sotto il profilo giuridico e del diritto del lavoro.

Riflessioni che si aggiungono alle varie considerazioni, sulle nuove tecnologie e sul loro impatto in materia di salute e sicurezza sul lavoro, che sono presentate nei vari documenti pubblicati in relazione all’attuale campagna europeaLavoro sano e sicuro nell’era digitale”, promossa dall’Agenzia europea per la sicurezza e la salute sul lavoro ( EU-OSHA).

 

A riflettere sui profili giuridici e sul tema delle responsabilità in ambito lavorativo, connesse all’uso delle nuove tecnologie, sono diversi saggi pubblicati sul numero 2/2024 di “Diritto della sicurezza sul lavoro”, rivista online dell'Osservatorio Olympus dell' Università degli Studi di Urbino

 

Ci soffermiamo oggi, in particolare, sul saggio dal titolo “Sistemi di intelligenza artificiale autonomi e responsabilità datoriale” e a cura di Giovanni Guglielmo Crudeli, assegnista di ricerca in Diritto del lavoro all’Università degli Studi di Napoli Federico II.

 

Come indicato nell’abstract, l’autore sottolinea che l’utilizzo di sistemi di intelligenza artificiale ad autoapprendimento nei luoghi di lavoro “presenta problematiche sempre più complesse, specialmente in termini di ricadute sui profili di sicurezza sul lavoro che il loro utilizzo determina”. E in tale prospettiva diventa inevitabile “interrogarsi sulla compatibilità e sull’eventuale sufficienza delle disposizioni contenute nell’articolo 2087 del Codice civile per i casi di utilizzo da parte del datore di lavoro di attrezzature tecnologiche avanzate o se sia necessario indagare l’estensibilità e l’applicabilità, alle ipotesi di danno cagionato ai suoi dipendenti dai sistemi di IA ad autoapprendimento, delle altre disposizioni in materia di responsabilità risarcitoria, con particolare riferimento e attenzione alla disciplina della responsabilità dei committenti disciplinata dall’art. 2049 Codice civile”.

 

Nel presentare il contributo ci soffermiamo sui seguenti temi:



Pubblicità
Datore di Lavoro RSPP (Rischio Medio) - Aggiornamento 10 ore
Corso online di aggiornamento per Datori di Lavoro RSPP (DLSPP) nelle aziende a Rischio Medio

 

I possibili problemi con i sistemi di intelligenza artificiale ad autoapprendimento

L’autore indica che, nello scenario connesso alle conseguenze dell’attuale rivoluzione digitale e tecnologica, è meritevole di particolare attenzione l’utilizzo dei sistemi di intelligenza artificiale c.d. machine learning, cioè “quei sistemi in cui l’operato del dispositivo non è prestabilito dal programmatore ovvero dall’utilizzatore bensì le scelte sono assunte autonomamente ed indipendentemente dal controllo e le istruzioni umane”. In particolare l’elemento qualificante di tali sistemi è “la capacità di adattamento agli input esterni – che ricevono dall’ambiente in cui sono inseriti – e l’idoneità di adottare comportamenti e decisioni modulati o in relazione ai dati esperienziali maturati nel tempo”.

 

In questo senso i sistemi dotati di IA ad apprendimento autonomo, in abbinamento a sistemi hardware semoventi, “sono suscettibili di assumere un nuovo ruolo nell’organizzazione imprenditoriale” e “si accompagna il pericolo che tali meccanismi elaborino determinazioni difformi da quanto ci si sarebbe atteso in fase di programmazione e dunque che possano assumere decisioni imponderabili e, di conseguenza, comportamenti non prevedibili e non programmati, tali da rivelarsi gravemente lesivi sia nei confronti dei lavoratori nell’impresa e sia nei confronti dei terzi estranei all’organizzazione”.

 

In ragione di questo nuovo ruolo e di questi nuovi pericoli bisogna porsi domande “circa l’interazione che viene a svilupparsi tra i lavoratori e questi sistemi e gli eventuali rischi in termini di sicurezza che potrebbero generarsi dall’impiego di tali sistemi da parte del datore di lavoro”. Questioni che sono state oggetto di attenzione anche da parte del legislatore, in particolare europeo, come si rinviene nell’AI Act (il Regolamento UE 2024/1689 del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale).

 

I sistemi di intelligenza artificiale e la normativa europea

In particolare, la normativa adottata dal legislatore europeo “risulta imperniata sulla gestione del rischio da parte dei soggetti che producono, commercializzano ed utilizzano sistemi di IA”. Il Regolamento, prendendo in esame il livello di incidenza che i sistemi di intelligenza artificiale possono avere nei confronti degli individui che interagiscono con essi, “individua diversi livelli di rischi a cui ricollegare le singole applicazioni di IA e, in ragione della loro rilevanza, classifica i sistemi secondo il grado di rilievo, e dunque gravità, che le interazioni con essi può determinare. Pertanto, sulla base di ciò, i sistemi sono stati classificati come sistemi a rischio ‘inaccettabile’, sistemi ‘ad alto rischio’ (a cui afferiscono la moltitudine dei sistemi utilizzati nell’ambito dei rapporti di lavoro), i sistemi ‘a rischio limitato’ ed i sistemi ‘a rischio minimo’”.

 

Inoltre – continua il saggio sul tema della normativa UE – in relazione al singolo grado di rischio del sistema di intelligenza artificiale il Regolamento “prevede, a carico dei diversi soggetti individuati, obblighi stringenti da rispettare per poter legittimamente immettere in commercio tali sistemi ovvero per poterli utilizzare”.

 

Tuttavia sebbene l’AI Act preveda un “notevole novero di obblighi e adempimenti prevenzionistici a carico dei soggetti individuati e calibrati specificatamente sulle caratteristiche di funzionamento dell’IA, lo stesso Regolamento non dispone dettagliatamente in ordine al tema attinente ai profili di responsabilità per i danni derivanti dall’impiego delle tecnologie dotate di IA”. E tale assenza è particolarmente evidente “con riferimento all’individuazione della disciplina eventualmente applicabile, in caso di lesione ad un terzo diverso dall’utilizzatore, per l’individuazione del soggetto tenuto a corrispondere l’eventuale ristoro spettante al danneggiato”. E l’assenza di una normativa risarcitoria per danni causati dall’impiego di sistemi di intelligenza artificiale, “in connessione alle caratteristiche della complessità, autonomia e ‘ opacità’ dei sistemi di IA, presenta criticità e problematiche tali da indurre a domandarsi se le normative attualmente in vigore in tema di responsabilità civile risultino adeguate o meno a garantire una tutela soddisfacente”.

 

E nel caso di un’azione lesiva potrebbe oggi risultare “particolarmente difficile, o comunque eccessivamente oneroso, per i danneggiati identificare i responsabili e dimostrare, ai fini dell’ottenimento di un giusto risarcimento, la sussistenza dei requisiti necessari per un’azione basata sulla responsabilità datoriale come tradizionalmente intesa”.

 

I sistemi di intelligenza artificiale e l’articolo 2049 del codice civile

Il saggio si sofferma sulle ipotesi di regolazione della responsabilità per i danni causati da un sistema di intelligenza artificiale e sulle responsabilità per gli eventuali “fatti illeciti” commessi “dal ‘preposto’ tecnologico”.

 

Ad esempio, si indica che tra le ipotesi di responsabilità disposte dal Codice civile vigente potrebbe “ritenersi adattabile il ricorso all’art. 2049 cod. civ.”, facendo ricorso a “quella forma di responsabilità, c.d. ‘vicaria’, che trova il fondamento nella funzione di garanzia offerta a favore dei terzi danneggiati in conseguenza delle prestazioni svolte da dipendenti ed ausiliari del soggetto che trae utilità dalle prestazioni rese dagli stessi”.

 

Nelle conclusioni si indica poi che, in questa prospettiva, la “responsabilità oggettivizzata” delineabile ai sensi dell’art. 2049 cod. civ. e delle sue più recenti interpretazioni, “non solo appare certamente invocabile dai terzi – estranei all’organizzazione dell’impresa – danneggiati dall’azione dei sistemi di IA di cui si è avvalso l’imprenditore ma anche – eventualmente, in via sussidiaria all’ art. 2087 cod. civ. ed all’azione nei confronti del produttore ai sensi della normativa per la responsabilità da prodotto difettoso – da parte di coloro che sono inseriti nell’organizzazione produttiva dell’imprenditore, che in tal modo potrà essere chiamato a rispondere dei danni loro occorsi”.

 

Questa interpretazione sembra “confortare l’ipotesi di ovviare, attraverso il richiamo all’art. 2049 cod. civ., al rischio di assenza di tutela ovvero al rischio di rendere particolarmente difficoltosa l’azione giudiziaria per il danneggiato, che i limiti intrinsechi di cui all’ art. 2087 cod. civ. potrebbero determinare”. In questo senso l’eventuale richiamo all’art. 2049 cod. civ., letto e interpretato nel senso estensivo illustrato dall’autore, potrebbe “rappresentare un primo sostegno per il dipendente danneggiato da IA e per responsabilizzare il datore di lavoro che voglia avvalersi delle potenzialità che i sistemi innovativi dotati di intelligenza artificiale evoluta possono offrire”.

 

Si ricorda poi che tale estensibilità al lavoratore danneggiato dai sistemi di intelligenza artificiale impiegati dal datore di lavoro della tutela di cui all’art. 2049 cod. civ. non deve intendersi “quale forma punitiva e vessatoria del datore di lavoro”. Infatti il datore di lavoro, a sua volta e in caso di condanna a risarcire “i danni occorsi a seguito della condotta assunta dal proprio ausiliario dotato di intelligenza artificiale”, avrà il “diritto di regresso nei confronti del fornitore ovvero del produttore del sistema dotato di IA inseriti nella propria organizzazione”.

 

Rimandiamo, in conclusione, alla lettura integrale del saggio che si sofferma su vari altri aspetti e argomenta in modo dettagliato, riportando anche le fonti utilizzate, tutte le riflessioni proposte.

 

 

Tiziano Menduto

 

 

Scarica il documento da cui è tratto l'articolo:

Università di Urbino Carlo Bo, Osservatorio Olympus, Diritto della sicurezza sul lavoro, “Sistemi di intelligenza artificiale autonomi e responsabilità datoriale”, a cura di Giovanni Guglielmo Crudeli (assegnista di ricerca in Diritto del lavoro all’Università degli Studi di Napoli Federico II), Diritto della Sicurezza sul Lavoro (DSL) n. 2/2024.

 



I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro


Altri articoli sullo stesso argomento:


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!