Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Logo PuntoSicuro
  • Iscriviti
  • Abbonati ora
  • Accedi
Il quotidiano sulla sicurezza
  • Home
  • Articoli
    • Sicurezza sul lavoro
    • Incendio, emergenza e primo soccorso
    • Security
    • Ambiente
    • Sicurezza
    • Tutti gli articoli
  • Documenti
  • Banca Dati
    • Banca Dati PuntoSicuro
    • Servizio di attestazione
    • Servizio I tuoi preferiti
  • Approfondimenti
    • Normativa sicurezza sul lavoro: D. Lgs. 81/2008
    • Normativa antincendio: D.M. 10 marzo 1998
    • Normativa primo soccorso: D.M. 388/2003
    • Protezione Dati Personali: GDPR 2016/679
    • Normativa Accordi Stato Regioni
    • Normativa Coronavirus
  • FORUM
  • PUBBLICITÀ

Area riservata:

Password dimenticata?
Username dimenticato?

Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.

Accetta i cookie


Crea PDF

Articolo 2087, responsabilità penale e intelligenza artificiale

Articolo 2087, responsabilità penale e intelligenza artificiale
Tiziano Menduto

Autore: Tiziano Menduto

Categoria: Robotica e Intelligenza Artificiale

02/04/2025

Un saggio si sofferma sull’intelligenza artificiale e sull’uso e abuso dell’art. 2087 c.c. come fondamento della responsabilità penale per omesso impedimento dell’infortunio sul lavoro e come indice della colpa datoriale.

Articolo 2087, responsabilità penale e intelligenza artificiale

Un saggio si sofferma sull’intelligenza artificiale e sull’uso e abuso dell’art. 2087 c.c. come fondamento della responsabilità penale per omesso impedimento dell’infortunio sul lavoro e come indice della colpa datoriale.


Urbino, 2 Apr – È indubbio che l’ evoluzione tecnologica connessa alla diffusione e all’impiego di sistemi di intelligenza artificiale porti a diverse considerazioni e problematiche sul tema della responsabilità in caso di incidenti e infortuni.

 

Ne abbiamo già parlato sul nostro giornale anche in riferimento ai contenuti presenti nel numero 2/2024 della rivista “Diritto della sicurezza sul lavoro”, pubblicazione online dell'Osservatorio Olympus dell' Università degli Studi di Urbino. Ad esempio nell’articolo “ Sull’intelligenza artificiale, i poteri datoriali e la sicurezza sul lavoro” che presentava un saggio di Stefano Cairoli (professore associato di diritto del lavoro - Università degli Studi di Perugia).

Ma sono diversi i contributi della rivista 2/2024 che affrontano il tema.

 

Oggi, ad esempio, ci soffermiamo sul saggio “‘Uso’ e ‘abuso’ dell’art. 2087 c.c. come fondamento della responsabilità penale per omesso impedimento dell’infortunio sul lavoro e come indice ‘vuoto’ della colpa datoriale” curato da Silvia De Blasis, assegnista di ricerca in Diritto penale all’Università degli Studi “Roma Tre”.

 

Il contributo – come indicato nell’abstract – “analizza l’art. 2087 c.c. come fondamento della responsabilità penale datoriale per omesso impedimento dell’infortunio sul lavoro evidenziandone le criticità rispetto al principio di legalità e al principio di colpevolezza”. L’intento dell’autrice è quello di “approfondire, in particolare, il ruolo della norma come fondamento dell’obbligo giuridico di impedire eventi lesivi e, al contempo, come indice della colpa datoriale”.

 

Come indicato in premessa, anche in questo caso – ed è la parte su cui ci soffermeremo - particolare attenzione è dedicata “all’impatto dell’ intelligenza artificiale (IA) sulle dinamiche organizzative e sui poteri impeditivi del datore di lavoro, nelle sue evidenti implicazioni in ordine all’accertamento del nesso eziologico e alla prevedibilità degli eventi lesivi”.

 

Nel saggio si pone in luce la necessità di “predisporre regole cautelari specifiche e protocolli preventivi al fine di evitare una dilatazione della responsabilità penale, specialmente nei casi di sistemi di IA autonomi”.

 

Nel presentare brevemente il saggio, l’articolo affronta i seguenti temi:

  • Responsabilità penale, articolo 2087 del codice civile ed evoluzione tecnologica
  • Intelligenza artificiale, condotte imprevedibili e responsabilità
  • Intelligenza artificiale, regole cautelari e protocolli operativi


Pubblicità
Datore di lavoro R.S.P.P.
Supporti per formatori - Datore di lavoro R.S.P.P.
Formazione del Datore di lavoro RSPP - Classe di rischio BASSO (art. 34, D. Lgs. 81/2008, Accordo Stato Regioni 21/12/2011)

 

Responsabilità penale, articolo 2087 del codice civile ed evoluzione tecnologica

In premessa si ricorda che tradizionalmente l’ art. 2087 c.c., “prima dell’avvento di una organica disciplina della sicurezza sul lavoro, è stato usato dalla giurisprudenza penale a tutela dell’incolumità dei lavoratori, sia come fondamento dell’obbligo giuridico di impedire l’evento ai sensi dell’art. 40 cpv. c.p. sia come indice della colpa, per lo più specifica, del datore di lavoro, a dispetto della sua genericità e indeterminatezza in quanto costruito come norma di principio o di risultato senza indicazione di specifici contenuti precettivi”. L’articolo c.c. è così venuto ad assumere “un ruolo promozionale, non già sul piano della costruzione dell’omissione del datore di lavoro, bensì su quello della definizione della colpa”.

 

La conseguente estensione – continua il breve saggio - della responsabilità penale del datore di lavoro, “come si è registrato nella legislazione anticovid19 con particolare riferimento al rapporto tra l’obbligo di tutela della salute dei lavoratori e i protocolli di sicurezza per i luoghi di lavoro”, ripropone “l’esigenza di una riflessione sull’effettiva conformità del c.d. diritto vivente al principio costituzionale di personalità della responsabilità penale”.

 

L’analisi sottolinea poi che alcune problematiche, messe in luce dall’autrice, rischiano poi di aggravarsi “con l’uso dell’ intelligenza artificiale, specie per i sistemi c.d. di ultima generazione in quanto dotati di un certo grado di autonomia dall’uomo, che rischia di rendere ancora più oscura la titolarità della posizione di garanzia e di mettere in crisi il modello tradizionale d’imputazione della responsabilità per colpa”.

 

Si vuole comprendere se e come “l’introduzione di sistemi di intelligenza artificiale nell’organizzazione produttiva possa incidere sulla responsabilità del datore di lavoro sia dal punto di vista oggettivo che soggettivo dell’imputazione e se è possibile pensare ad un antidoto all’estensione della stessa”.

 

Intelligenza artificiale, condotte imprevedibili e responsabilità

L’autrice si sofferma sulla “necessità di imporre limiti alla colpa del datore di lavoro in presenza di condotte imprevedibili dell’agente intelligente”.

 

Infatti, nell’ipotesi di un sistema di intelligenza artificiale (IA) che modifica il percorso decisionale previsto in fase di programmazione “non si può non tenere conto dell’imprevedibilità della sua condotta e, conseguentemente, dell’impossibilità per l’uomo di intervenire”. E se non è immaginabile una responsabilità diretta della macchina, “a meno di non voler tradire i principi cardine del diritto penale”, occorre, dunque, domandarsi “se vi sia spazio e in quali limiti per una responsabilità del programmatore e/o dell’utilizzatore”.

 

Per quanto concerne la figura del programmatore – “a meno di voler aderire all’orientamento ampio secondo cui il giudizio di prevedibilità non concerne l’evento hic et nunc verificatosi, ma la generica classe di eventi cui appartiene quello realizzato” – si può concludere per “l’esclusione della sua responsabilità colposa data l’imprevedibilità che caratterizza i sistemi autonomi di intelligenza artificiale. Sotto tale aspetto, poi, potrebbe ipotizzarsi un’area di rischio consentito, residuando, pertanto, solo una responsabilità dolosa, eventualmente anche a titolo di dolo eventuale”.

Ma si pone un problema “anche per un’eventuale imputazione del fatto per colpa in capo al datore di lavoro quale utilizzatore della macchina se la condotta di quest’ultima fuoriesce dal perimetro di quelle preventivamente immaginabili”.

 

Si indica che il rischio è duplice:

  • “da un lato, infatti, potrebbe muoversi un rimprovero all’utilizzatore pur in mancanza di qualsivoglia profilo soggettivo di responsabilità solo in ragione della prossimità rispetto al fatto;
  • dall’altra, all’opposto, si potrebbe ritenere responsabile l’utilizzatore solo in ipotesi di colpa cosciente o dolo eventuale”.

E comunque in presenza di macchine totalmente autonome, “ove si volesse comunque perseguire l’utilizzatore, diventa complesso rispettare il divieto di responsabilità oggettiva tenuto conto che la tecnologia ha uno sviluppo tale da escludere la possibilità di intervento dell’uomo e, ancora prima, la prevedibilità di eventi infausti”. Ed, infatti, «più la macchina è capace di fare da sé, più il controllo umano si riduce ad impedire una prospettiva, sempre più improbabile e remota, di malfunzionamento» (Cappellini, Reati colposi e tecnologie dell’intelligenza artificiale), ma “questo è diverso dall’impedire un evento imprevedibile”.

 

Una possibile soluzione – continua il saggio - potrebbe essere quella di “adottare regole precauzionali scritte con le quali si impongono standard comportamentali che, ove correttamente adottati, sono idonei ad escludere la colpa”. E questa sembrerebbe la strada

percorsa con l’adozione del Regolamento Europeo sull’Intelligenza artificiale (AI Act). E le regole di condotta contenute nel Regolamento europeo “potrebbero già essere considerate protocolli di riferimento eventualmente da implementare” – con le peculiarità degli settori e, in questo caso, luoghi di lavoro – permettendo di escludere, “nell’area del c.d. rischio consentito, la responsabilità penale del programmatore, del produttore e dell’utilizzatore per eventi a questi imprevedibili e inevitabili residuando, dunque, solo un margine di responsabilità penale per la violazione delle regole di condotta impartite nei protocolli”.

 

Intelligenza artificiale, regole cautelari e protocolli operativi

Veniamo ad alcune considerazioni conclusive del saggio.

 

Si ribadisce che l’interferenza dei sistemi di intelligenza artificiale nell’organizzazione lavorativa pone “molteplici questioni problematiche per il diritto penale che possono essere risolte solo forzando le categorie classiche di imputazione oggettiva e soggettiva”.

 

Abbiamo visto come in un settore come quello in esame “il ricorso alle regole elastiche della colpa generica rischierebbe di allargare potenzialmente ad infinitum lo spazio della responsabilità penale e potrebbe, pertanto, essere auspicabile la codificazione di regole cautelari di portata predittiva al fine di predeterminare il corretto comportamento dell’uomo a contatto con i sistemi di IA”.

 

Se allo stato attuale “il terreno del nesso eziologico e quello della misura soggettiva della colpa non presentano anticorpi adeguati a scongiurare una deriva penalistica” sui sistemi di intelligenza artificiale, si può arrivare ad individuare una soglia “al di sopra della quale non possiamo ammettere macchine più pericolose dell’uomo e che sfuggono al controllo di quest’ultimo. In altri termini, alle macchine intelligenti non possiamo consentire una soglia di rischio più elevata di quella consentita all’uomo per lo svolgimento della medesima attività”.

Se l'elevata incertezza scientifica rende difficile definire i rischi accettabili, non ci si può affidare solo a norme generiche che si delineano "a posteriori".

 

Insomma, come abbiamo visto, si può arrivare ad un risk-based approach che è anche la strada eletta nell’AI Act.

In questo modo, “in assenza di dati che consentano di dire con certezza in che modo e se l’evento lesivo realizzatosi dipenda da un difetto di costruzione/programmazione della macchina, detta impostazione permette di risolvere ‘a monte’ il problema dell’individuazione del rischio consentito e, nei confini di questo rischio, dovrebbero individuarsi regole cautelari precauzionali idonee, da un lato, a far assumere un determinato comportamento da parte di chi viene a contatto con l’IA e, dall’altra, a rendere maggiormente determinata la responsabilità colposa”.

 

In definitiva la previsione di regole cautelari che contengano protocolli operativi chiari per le fasi di operatività delle macchine e dei sistemi basati sull’intelligenza artificiale, “consentirebbe da un lato di delimitare l’ambito della responsabilità colposa e, dall’altro, di definire i soggetti garanti onde evitare l’individuazione postuma di ‘capri espiatori’”.

 

Rimandiamo alla lettura integrale del saggio che riporta altre interessanti riflessioni e che nell’analisi dell’articolo 2087 c.c. e dei sistemi IA si sofferma anche sui seguenti argomenti:

  • l’art. 2087 c.c. come fondamento dell’obbligo giuridico di impedire l’evento: una clausola generale in tensione col principio di personalità della responsabilità penale;
  • la posizione di garanzia datoriale e sistemi di intelligenza artificiale. Machine learning e poteri impeditivi;
  • l’art. 2087 c.c. come indice della responsabilità colposa del datore di lavoro: tensioni col principio di colpevolezza.

 

 

Tiziano Menduto

 

 

Scarica il documento da cui è tratto l'articolo:

Università di Urbino Carlo Bo, Osservatorio Olympus, Diritto della sicurezza sul lavoro, “‘Uso’ e ‘abuso’ dell’art. 2087 c.c. come fondamento della responsabilità penale per omesso impedimento dell’infortunio sul lavoro e come indice ‘vuoto’ della colpa datoriale”, a cura di Silvia De Blasis (assegnista di ricerca in Diritto penale all’Università degli Studi “Roma Tre”), Diritto della Sicurezza sul Lavoro (DSL) n. 2/2024.

 



Creative Commons License Licenza Creative Commons

I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'


Pubblica un commento

Ad oggi, nessun commento è ancora stato inserito.

Pubblica un commento

Banca Dati di PuntoSicuro

Banca dati, normativa sulla sicurezza

Altri articoli sullo stesso argomento:

Le tecnologie digitali per l’erogazione dei corsi di formazione

Linee guida per rispettare la legge sull’uso dell’intelligenza artificiale

Formazione obbligatoria per l’uso dell’IA: requisiti minimi e normativa

IA generativa: maggiori rischi sul lavoro per le donne


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Notizie FLASH

17APR

Stop al riconoscimento facciale nella formazione online

15APR

Riduzione delle emissioni negli edifici in Europa e ruolo dell’ETS2

14APR

PFAS e malformazioni congenite

Consulta gli ultimi documenti della Banca Dati

Banca dati, normativa sulla sicurezza
17/04/2026: ENISA - The ENISA Cybersecurity Exercise Methodology - End-to-end guide on how to plan, run and evaluate an exercise
16/04/2026: Impatti del progetto Worklimate 2.0 per le attività di prevenzione e regolazione - Worklimate 2.0 – Temperature estreme e impatti su salute, sicurezza e produttività aziendale - Strategie di intervento e soluzioni tecnologiche, informative e formative- Giovanna Bianco e Andrea Bogi
16/04/2026: PARLAMENTO EUROPEO E CONSIGLIO - REGOLAMENTO (UE) 2024/1252 dell’11 aprile 2024 che istituisce un quadro atto a garantire un approvvigionamento sicuro e sostenibile di materie prime critiche e che modifica i regolamenti (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1724 e (UE) 2019/1020. Critical Raw Materials Act (CRM Act).
15/04/2026: Gruppo interistituzionale composto da rappresentanti della Direzione Generale per la Salute e la sicurezza nei luoghi di lavoro e per le politiche assicurative del Ministero del Lavoro e delle Politiche Sociali, dell’INAIL, dell’INL e delle Regioni - FAQ - Accordo Stato-Regioni del 17 aprile 2025 in materia di formazione – marzo 2026
ACCEDIABBONATI ORA

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Articoli per categorie


ALCOL E DROGHE

Alcol e lavoro: costruzioni e trasporti tra i settori più a rischio


DUVRI

L’importanza di valutare le interferenze nei contratti di appalto


MOVIMENTAZIONE CARICHI

Movimentazione manuale dei carichi durante l'attività lavorativa


RISCHIO ELETTRICO

Linee elettriche aeree: infortuni gravi e prevenzione sul lavoro


TUTTE LE CATEGORIE

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

PuntoSicuro Media Partner

PuntoSicuro Media Partner Healthy Workplaces

REDAZIONE DI PUNTOSICURO

  • Direttore: Luigi Meroni

  • Redazione: Federica Gozzini e Tiziano Menduto

CONTATTI

  • redazione@puntosicuro.it

  • (+39) 030.5531825

CHI SIAMO

  • Cos'è PuntoSicuro
  • Newsletter
  • FAQ Newsletter
  • Forum
  • Video PuntoSicuro
  • Fai pubblicità su PuntoSicuro

PUNTOSICURO È UN SERVIZIO

Logo Mega Italia Media

SEGUICI SUI SOCIAL

FacebookTwitterLinkedInInstagramYouTubeFeed RSS

PuntoSicuro è la testata giornalistica di Mega Italia Media. Registrazione presso il Tribunale di Brescia, n. 56/2000 del 14.11.2000 - Iscrizione al Registro degli operatori della comunicazione n. 16562. ISSN 2612-2804. È sito segnalato dal servizio di documentazione INAIL come fonte di informazioni di particolare interesse/attualità, è media partner della Agenzia Europea per la salute e sicurezza nei luoghi di lavoro EU-OSHA per le campagne di sensibilizzazione su salute e sicurezza.
I contenuti degli articoli possono contenere pareri personali degli autori. Non si risponde per interpretazioni che dovessero risultare inesatte o erronee.
I documenti della Banca dati di PuntoSicuro non possono essere considerati testi ufficiali: una norma con valore di legge può essere ricavata solo da fonti ufficiali (es. Gazzetta Ufficiale). Per informazioni su copyright e modalità di consultazione: Condizioni di abbonamento.
I prodotti e i servizi pubblicitari sono commercializzati da Punto Sicuro con queste Condizioni di vendita.

Mega Italia Media S.p.A. | Via Roncadelle, 70A - 25030 Castel Mella (BS) - Italia
Tel. (+39) 030.2650661 | E-Mail: info@megaitaliamedia.it | PEC: megaitaliamedia@legalmail.it
C.F./P.Iva 03556360174 | Numero REA BS-418630 | Capitale Sociale € 500.000 | Codice destinatario SUBM70N | Codice PEPPOL 0211:IT03556360174

Privacy Policy | Cookie Policy | Dichiarazione di accessibilità