Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Logo PuntoSicuro
  • Iscriviti
  • Abbonati ora
  • Accedi
Il quotidiano sulla sicurezza
  • Home
  • Articoli
    • Sicurezza sul lavoro
    • Incendio, emergenza e primo soccorso
    • Security
    • Ambiente
    • Sicurezza
    • Tutti gli articoli
  • Documenti
  • Banca Dati
    • Banca Dati PuntoSicuro
    • Servizio di attestazione
    • Servizio I tuoi preferiti
  • Approfondimenti
    • Normativa sicurezza sul lavoro: D. Lgs. 81/2008
    • Normativa antincendio: D.M. 10 marzo 1998
    • Normativa primo soccorso: D.M. 388/2003
    • Protezione Dati Personali: GDPR 2016/679
    • Normativa Accordi Stato Regioni
    • Normativa Coronavirus
  • FORUM
  • PUBBLICITÀ

Hai dimenticato lo username?

Inserisci l'indirizzo Email associato al tuo account per ricevere il tuo username.

Errore! L'email inserita non è valida
Torna al Login

Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.

Accetta i cookie


Crea PDF

Intelligenza artificiale ad autoapprendimento e responsabilità datoriale

Intelligenza artificiale ad autoapprendimento e responsabilità datoriale
Tiziano Menduto

Autore: Tiziano Menduto

Categoria: Robotica e Intelligenza Artificiale

09/04/2025

Un saggio propone alcune riflessioni sui sistemi di intelligenza artificiale ad autoapprendimento e le responsabilità datoriali. Lo scenario attuale, i nuovi pericoli, la normativa dell’Unione europea e l’articolo 2049 del codice civile.

Intelligenza artificiale ad autoapprendimento e responsabilità datoriale

Un saggio propone alcune riflessioni sui sistemi di intelligenza artificiale ad autoapprendimento e le responsabilità datoriali. Lo scenario attuale, i nuovi pericoli, la normativa dell’Unione europea e l’articolo 2049 del codice civile.


Urbino, 9 Apr – La continua evoluzione e diffusione dei sistemi di intelligenza artificiale (IA) sui luoghi di lavoro sta facendo emergere diverse problematiche e nuove riflessioni sotto il profilo giuridico e del diritto del lavoro.

Riflessioni che si aggiungono alle varie considerazioni, sulle nuove tecnologie e sul loro impatto in materia di salute e sicurezza sul lavoro, che sono presentate nei vari documenti pubblicati in relazione all’attuale campagna europea “ Lavoro sano e sicuro nell’era digitale”, promossa dall’Agenzia europea per la sicurezza e la salute sul lavoro ( EU-OSHA).

 

A riflettere sui profili giuridici e sul tema delle responsabilità in ambito lavorativo, connesse all’uso delle nuove tecnologie, sono diversi saggi pubblicati sul numero 2/2024 di “Diritto della sicurezza sul lavoro”, rivista online dell'Osservatorio Olympus dell' Università degli Studi di Urbino. 

 

Ci soffermiamo oggi, in particolare, sul saggio dal titolo “Sistemi di intelligenza artificiale autonomi e responsabilità datoriale” e a cura di Giovanni Guglielmo Crudeli, assegnista di ricerca in Diritto del lavoro all’Università degli Studi di Napoli Federico II.

 

Come indicato nell’abstract, l’autore sottolinea che l’utilizzo di sistemi di intelligenza artificiale ad autoapprendimento nei luoghi di lavoro “presenta problematiche sempre più complesse, specialmente in termini di ricadute sui profili di sicurezza sul lavoro che il loro utilizzo determina”. E in tale prospettiva diventa inevitabile “interrogarsi sulla compatibilità e sull’eventuale sufficienza delle disposizioni contenute nell’articolo 2087 del Codice civile per i casi di utilizzo da parte del datore di lavoro di attrezzature tecnologiche avanzate o se sia necessario indagare l’estensibilità e l’applicabilità, alle ipotesi di danno cagionato ai suoi dipendenti dai sistemi di IA ad autoapprendimento, delle altre disposizioni in materia di responsabilità risarcitoria, con particolare riferimento e attenzione alla disciplina della responsabilità dei committenti disciplinata dall’art. 2049 Codice civile”.

 

Nel presentare il contributo ci soffermiamo sui seguenti temi:

  • I possibili problemi con i sistemi di intelligenza artificiale ad autoapprendimento
  • I sistemi di intelligenza artificiale e la normativa europea
  • I sistemi di intelligenza artificiale e l’articolo 2049 del codice civile


Pubblicità
Datore di Lavoro RSPP (Rischio Medio) - Aggiornamento 10 ore
Datore di Lavoro RSPP - Datore di Lavoro RSPP (Rischio Medio) - Aggiornamento 10 ore
Corso online di aggiornamento per Datori di Lavoro RSPP (DLSPP) nelle aziende a Rischio Medio

 

I possibili problemi con i sistemi di intelligenza artificiale ad autoapprendimento

L’autore indica che, nello scenario connesso alle conseguenze dell’attuale rivoluzione digitale e tecnologica, è meritevole di particolare attenzione l’utilizzo dei sistemi di intelligenza artificiale c.d. machine learning, cioè “quei sistemi in cui l’operato del dispositivo non è prestabilito dal programmatore ovvero dall’utilizzatore bensì le scelte sono assunte autonomamente ed indipendentemente dal controllo e le istruzioni umane”. In particolare l’elemento qualificante di tali sistemi è “la capacità di adattamento agli input esterni – che ricevono dall’ambiente in cui sono inseriti – e l’idoneità di adottare comportamenti e decisioni modulati o in relazione ai dati esperienziali maturati nel tempo”.

 

In questo senso i sistemi dotati di IA ad apprendimento autonomo, in abbinamento a sistemi hardware semoventi, “sono suscettibili di assumere un nuovo ruolo nell’organizzazione imprenditoriale” e “si accompagna il pericolo che tali meccanismi elaborino determinazioni difformi da quanto ci si sarebbe atteso in fase di programmazione e dunque che possano assumere decisioni imponderabili e, di conseguenza, comportamenti non prevedibili e non programmati, tali da rivelarsi gravemente lesivi sia nei confronti dei lavoratori nell’impresa e sia nei confronti dei terzi estranei all’organizzazione”.

 

In ragione di questo nuovo ruolo e di questi nuovi pericoli bisogna porsi domande “circa l’interazione che viene a svilupparsi tra i lavoratori e questi sistemi e gli eventuali rischi in termini di sicurezza che potrebbero generarsi dall’impiego di tali sistemi da parte del datore di lavoro”. Questioni che sono state oggetto di attenzione anche da parte del legislatore, in particolare europeo, come si rinviene nell’AI Act (il Regolamento UE 2024/1689 del 13 giugno 2024 che stabilisce regole armonizzate sull'intelligenza artificiale).

 

I sistemi di intelligenza artificiale e la normativa europea

In particolare, la normativa adottata dal legislatore europeo “risulta imperniata sulla gestione del rischio da parte dei soggetti che producono, commercializzano ed utilizzano sistemi di IA”. Il Regolamento, prendendo in esame il livello di incidenza che i sistemi di intelligenza artificiale possono avere nei confronti degli individui che interagiscono con essi, “individua diversi livelli di rischi a cui ricollegare le singole applicazioni di IA e, in ragione della loro rilevanza, classifica i sistemi secondo il grado di rilievo, e dunque gravità, che le interazioni con essi può determinare. Pertanto, sulla base di ciò, i sistemi sono stati classificati come sistemi a rischio ‘inaccettabile’, sistemi ‘ad alto rischio’ (a cui afferiscono la moltitudine dei sistemi utilizzati nell’ambito dei rapporti di lavoro), i sistemi ‘a rischio limitato’ ed i sistemi ‘a rischio minimo’”.

 

Inoltre – continua il saggio sul tema della normativa UE – in relazione al singolo grado di rischio del sistema di intelligenza artificiale il Regolamento “prevede, a carico dei diversi soggetti individuati, obblighi stringenti da rispettare per poter legittimamente immettere in commercio tali sistemi ovvero per poterli utilizzare”.

 

Tuttavia sebbene l’AI Act preveda un “notevole novero di obblighi e adempimenti prevenzionistici a carico dei soggetti individuati e calibrati specificatamente sulle caratteristiche di funzionamento dell’IA, lo stesso Regolamento non dispone dettagliatamente in ordine al tema attinente ai profili di responsabilità per i danni derivanti dall’impiego delle tecnologie dotate di IA”. E tale assenza è particolarmente evidente “con riferimento all’individuazione della disciplina eventualmente applicabile, in caso di lesione ad un terzo diverso dall’utilizzatore, per l’individuazione del soggetto tenuto a corrispondere l’eventuale ristoro spettante al danneggiato”. E l’assenza di una normativa risarcitoria per danni causati dall’impiego di sistemi di intelligenza artificiale, “in connessione alle caratteristiche della complessità, autonomia e ‘ opacità’ dei sistemi di IA, presenta criticità e problematiche tali da indurre a domandarsi se le normative attualmente in vigore in tema di responsabilità civile risultino adeguate o meno a garantire una tutela soddisfacente”.

 

E nel caso di un’azione lesiva potrebbe oggi risultare “particolarmente difficile, o comunque eccessivamente oneroso, per i danneggiati identificare i responsabili e dimostrare, ai fini dell’ottenimento di un giusto risarcimento, la sussistenza dei requisiti necessari per un’azione basata sulla responsabilità datoriale come tradizionalmente intesa”.

 

I sistemi di intelligenza artificiale e l’articolo 2049 del codice civile

Il saggio si sofferma sulle ipotesi di regolazione della responsabilità per i danni causati da un sistema di intelligenza artificiale e sulle responsabilità per gli eventuali “fatti illeciti” commessi “dal ‘preposto’ tecnologico”.

 

Ad esempio, si indica che tra le ipotesi di responsabilità disposte dal Codice civile vigente potrebbe “ritenersi adattabile il ricorso all’art. 2049 cod. civ.”, facendo ricorso a “quella forma di responsabilità, c.d. ‘vicaria’, che trova il fondamento nella funzione di garanzia offerta a favore dei terzi danneggiati in conseguenza delle prestazioni svolte da dipendenti ed ausiliari del soggetto che trae utilità dalle prestazioni rese dagli stessi”.

 

Nelle conclusioni si indica poi che, in questa prospettiva, la “responsabilità oggettivizzata” delineabile ai sensi dell’art. 2049 cod. civ. e delle sue più recenti interpretazioni, “non solo appare certamente invocabile dai terzi – estranei all’organizzazione dell’impresa – danneggiati dall’azione dei sistemi di IA di cui si è avvalso l’imprenditore ma anche – eventualmente, in via sussidiaria all’ art. 2087 cod. civ. ed all’azione nei confronti del produttore ai sensi della normativa per la responsabilità da prodotto difettoso – da parte di coloro che sono inseriti nell’organizzazione produttiva dell’imprenditore, che in tal modo potrà essere chiamato a rispondere dei danni loro occorsi”.

 

Questa interpretazione sembra “confortare l’ipotesi di ovviare, attraverso il richiamo all’art. 2049 cod. civ., al rischio di assenza di tutela ovvero al rischio di rendere particolarmente difficoltosa l’azione giudiziaria per il danneggiato, che i limiti intrinsechi di cui all’ art. 2087 cod. civ. potrebbero determinare”. In questo senso l’eventuale richiamo all’art. 2049 cod. civ., letto e interpretato nel senso estensivo illustrato dall’autore, potrebbe “rappresentare un primo sostegno per il dipendente danneggiato da IA e per responsabilizzare il datore di lavoro che voglia avvalersi delle potenzialità che i sistemi innovativi dotati di intelligenza artificiale evoluta possono offrire”.

 

Si ricorda poi che tale estensibilità al lavoratore danneggiato dai sistemi di intelligenza artificiale impiegati dal datore di lavoro della tutela di cui all’art. 2049 cod. civ. non deve intendersi “quale forma punitiva e vessatoria del datore di lavoro”. Infatti il datore di lavoro, a sua volta e in caso di condanna a risarcire “i danni occorsi a seguito della condotta assunta dal proprio ausiliario dotato di intelligenza artificiale”, avrà il “diritto di regresso nei confronti del fornitore ovvero del produttore del sistema dotato di IA inseriti nella propria organizzazione”.

 

Rimandiamo, in conclusione, alla lettura integrale del saggio che si sofferma su vari altri aspetti e argomenta in modo dettagliato, riportando anche le fonti utilizzate, tutte le riflessioni proposte.

 

 

Tiziano Menduto

 

 

Scarica il documento da cui è tratto l'articolo:

Università di Urbino Carlo Bo, Osservatorio Olympus, Diritto della sicurezza sul lavoro, “Sistemi di intelligenza artificiale autonomi e responsabilità datoriale”, a cura di Giovanni Guglielmo Crudeli (assegnista di ricerca in Diritto del lavoro all’Università degli Studi di Napoli Federico II), Diritto della Sicurezza sul Lavoro (DSL) n. 2/2024.

 



Creative Commons License Licenza Creative Commons

I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'


Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro

Banca dati, normativa sulla sicurezza

Altri articoli sullo stesso argomento:

Standard AI: problemi con la disponibilità di norme

Apprendimenti concreti sulla gestione dei lavoratori tramite IA

Criticità e prospettive nella gestione algoritmica dell’impresa

Conference proceedings, sistemi innovativi e sicurezza macchine


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Notizie FLASH

09LUG

Lavoro: no alle impronte digitali per la rilevazione presenze

07LUG

Regione Lombardia firma un protocollo per la salute e la sicurezza

03LUG

Patente a crediti nei cantieri

Consulta gli ultimi documenti della Banca Dati

Banca dati, normativa sulla sicurezza
11/07/2025: MASE – Interpello nr 0177797 del 01.10.2024 - Indicazioni in merito a interpello ex art. 3-septies del D. Lgs 152/2006 in ordine all’applicazione della disciplina REACH ai materiali End of Waste.
11/07/2025: Regione Emilia-Romagna - Ordinanza n. 150 del 30 giugno 2025 - Ordinanza contingibile e urgente per motivi di igiene e sanità pubblica - Misure di prevenzione per attività lavorativa in condizioni di esposizione prolungata al sole.
10/07/2025: Regione Liguria - Ordinanza 26 giugno 2025, n. 1 – emergenza caldo
10/07/2025: Suva - Istituto nazionale svizzero di assicurazione contro gli infortuni - Lavorare in sicurezza con scale portatili e sgabelli a gradini - 2023
ACCEDIABBONATI ORA

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Articoli per categorie


SICUREZZA STRADALE

2 preziosi manuali per accrescere la sicurezza stradale


RISCHI DA AGENTI BIOLOGICI

La gestione sicura dei medicinali pericolosi sul posto di lavoro


LAVORATORI AUTONOMI, IMPRESE FAMILIARI

Radiazioni ionizzanti: quali sono le novità per i lavoratori autonomi?


RADIAZIONI OTTICHE

Nuovi fogli di calcolo per valutare l’esposizione a ROA sul lavoro


TUTTE LE CATEGORIE

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

PuntoSicuro Media Partner

PuntoSicuro Media Partner Healthy Workplaces

REDAZIONE DI PUNTOSICURO

  • Direttore: Luigi Meroni

  • Redazione: Federica Gozzini e Tiziano Menduto

CONTATTI

  • redazione@puntosicuro.it

  • (+39) 030.5531825

CHI SIAMO

  • Cos'è PuntoSicuro
  • Newsletter
  • FAQ Newsletter
  • Forum
  • Video PuntoSicuro
  • Fai pubblicità su PuntoSicuro

PUNTOSICURO È UN SERVIZIO

Logo Mega Italia Media

SEGUICI SUI SOCIAL

FacebookTwitterLinkedInInstagramYouTubeFeed RSS

PuntoSicuro è la testata giornalistica di Mega Italia Media. Registrazione presso il Tribunale di Brescia, n. 56/2000 del 14.11.2000 - Iscrizione al Registro degli operatori della comunicazione n. 16562. ISSN 2612-2804. È sito segnalato dal servizio di documentazione INAIL come fonte di informazioni di particolare interesse/attualità, è media partner della Agenzia Europea per la salute e sicurezza nei luoghi di lavoro EU-OSHA per le campagne di sensibilizzazione su salute e sicurezza.
I contenuti degli articoli possono contenere pareri personali degli autori. Non si risponde per interpretazioni che dovessero risultare inesatte o erronee.
I documenti della Banca dati di PuntoSicuro non possono essere considerati testi ufficiali: una norma con valore di legge può essere ricavata solo da fonti ufficiali (es. Gazzetta Ufficiale). Per informazioni su copyright e modalità di consultazione: Condizioni di abbonamento.
I prodotti e i servizi pubblicitari sono commercializzati da Punto Sicuro con queste Condizioni di vendita.

Mega Italia Media S.p.A. | Via Roncadelle, 70A - 25030 Castel Mella (BS) - Italia
Tel. (+39) 030.2650661 | E-Mail: info@megaitaliamedia.it | PEC: megaitaliamedia@legalmail.it
C.F./P.Iva 03556360174 | Numero REA BS-418630 | Capitale Sociale € 500.000 | Codice destinatario SUBM70N | Codice PEPPOL 0211:IT03556360174

Privacy Policy | Cookie Policy | Dichiarazione di accessibilità