Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.
Perché indaghiamo dopo un infortunio?
Quando si verifica un infortunio sul lavoro, la reazione è quasi automatica: si apre un’indagine. È un gesto così consolidato da sembrare naturale, inevitabile. Si raccolgono informazioni, si ascoltano testimonianze, si ricostruisce la sequenza degli eventi. Tutto appare orientato a una finalità chiara: capire l’accaduto ed evitare che accada di nuovo.
Eppure, se ci si ferma un momento a riflettere, questo basta?
Un infortunio non è solo un problema tecnico da risolvere. È una rottura improvvisa della normalità, un evento che interrompe la continuità del lavoro e incrina il senso di ciò che fino a poco prima appariva sotto controllo. In questo senso, l’indagine non serve soltanto a “capire cosa è successo”, ma anche a ricostruire una narrazione dell’accaduto che sia condivisibile, a restituire coerenza a una realtà che, all’improvviso, ha preso un altro colore.
Spesso, dopo gli incidenti, si osserva con occhi completamente diversi ciò che prima appariva come una normalità quasi scontata.
Dietro ogni indagine convivono almeno tre esigenze. La prima è analitica: mettere ordine nei fatti, ridurre l’incertezza, stabilire una sequenza plausibile. La seconda guarda al futuro: trasformare ciò che è accaduto in azioni preventive. La terza, più implicita ma non meno rilevante, è sociale: offrire una spiegazione accettabile a chi è coinvolto, alle organizzazioni, agli enti di controllo, talvolta all’opinione pubblica.
È proprio in questo intreccio che emergono le prime criticità. Perché queste tre dimensioni non sempre sono compatibili. Il bisogno di una risposta può comprimere il tempo necessario alla comprensione; la pressione a fornire una spiegazione chiara può spingere verso soluzioni semplici, anche quando la realtà è complessa.
A rendere il quadro ancora più delicato intervengono meccanismi psicologici ben noti. Dopo un incidente, è quasi inevitabile cadere nella trappola del cosiddetto hindsight bias, meglio noto come il “senno di poi”: una volta noto l’esito, le azioni che lo hanno preceduto appaiono improvvisamente ovvie, quasi inevitabili. Ma questa è un’illusione. Chi agiva in quel momento non conosceva il finale della storia.
Quando analizziamo un incidente a posteriori, il nostro cervello compie automaticamente alcune operazioni:
- ricostruisce la storia in modo coerente, eliminando ambiguità e alternative che esistevano prima dell’evento;
- sovrastima i segnali deboli, trasformando dettagli prima irrilevanti in “indizi evidenti”;
- riduce la complessità, trasformando una situazione aperta e incerta in una sequenza logica e lineare.
Il risultato è una narrazione pulita, convincente… ma distorta. L’hindsight bias non è un errore occasionale: è un modo naturale con cui il nostro cervello costruisce significato. Nelle indagini sulla sicurezza, se non viene gestito, trasforma la comprensione in giudizio e l’apprendimento in colpevolizzazione.
Riconoscere questi meccanismi è solo il primo passo. Il vero lavoro consiste nel costruire condizioni che permettano di contenerli, senza eliminarli del tutto — perché fanno parte del modo in cui pensiamo.
È comprensibile che individui e organizzazioni mostrino una naturale tendenza a ridurre l’incertezza il più rapidamente possibile. È un bisogno noto come need for closure: il bisogno di chiudere il cerchio, di arrivare a una conclusione. In questo contesto, le spiegazioni semplici hanno un vantaggio competitivo. Tra queste, la più diffusa è anche la più familiare: l’errore umano.
Attribuire un incidente all’ errore umano è rassicurante. Offre una causa chiara, facilmente comunicabile, apparentemente risolutiva. Ma proprio per questo rischia di essere fuorviante. Fermarsi all’errore significa isolare l’ultimo anello della catena, senza interrogarsi sulle condizioni che lo hanno reso possibile — o addirittura plausibile — in quel contesto specifico.
Qui emerge una delle tensioni più profonde tra approcci tradizionali e visioni più recenti della sicurezza. I modelli normativi e orientati alla compliance hanno contribuito in modo decisivo a migliorare le condizioni di lavoro: standardizzazione, procedure, controlli hanno ridotto molti rischi noti. Tuttavia, nei sistemi complessi, questi stessi approcci mostrano limiti evidenti. Tendono a cercare relazioni lineari di causa-effetto in contesti dove le interazioni sono molteplici, dinamiche e spesso non prevedibili. E, soprattutto, rischiano di privilegiare la conformità formale rispetto alla comprensione sostanziale.
Quando l’indagine diventa uno strumento per dimostrare che le regole non sono state rispettate, più che per capire come il lavoro viene realmente svolto, si entra nel territorio della blame culture (cultura della colpa). In questo scenario, le persone smettono di essere una fonte di apprendimento e diventano un problema da gestire. Le narrazioni iniziali tendono a irrigidirsi, anche perché rispondono a un bisogno di protezione: individuale, professionale, organizzativa.
Evitare questa deriva non dipende solo dalle intenzioni, ma dal modo in cui l’indagine è progettata e condotta. Anche piccoli dettagli nel processo possono orientare l’esito verso la comprensione o verso il giudizio.
Eppure, se si osserva il lavoro quotidiano con uno sguardo meno normativo e più empirico, emerge un quadro diverso. Le attività non si svolgono mai esattamente come previsto dalle procedure. Gli operatori adattano continuamente il proprio comportamento alle condizioni reali: vincoli di tempo, risorse limitate, obiettivi produttivi, variabilità dell’ambiente. Questi adattamenti non sono deviazioni occasionali, ma il modo stesso in cui il sistema riesce a funzionare. In questa prospettiva, l’errore non è un’anomalia isolata, ma una possibilità intrinseca della stessa variabilità che consente al lavoro di andare a buon fine nella maggior parte dei casi. Comprendere un incidente significa allora comprendere anche il funzionamento ordinario del sistema.
Questo non implica abbandonare gli approcci tradizionali, ma integrarli. Le regole e le procedure restano fondamentali per gestire i rischi noti. Ma da sole non bastano a comprendere ciò che accade realmente. Accanto alla ricerca delle cause, è necessario sviluppare una sensibilità per le condizioni, per i contesti, per le dinamiche organizzative e psicologiche che rendono certe azioni possibili.
In termini pratici, questo comporta uno spostamento sottile ma decisivo. Non si tratta più soltanto di chiedersi “chi ha sbagliato”, ma di interrogarsi su “quali condizioni davano senso a quella scelta”. Questo spostamento non è solo culturale, ma anche pratico. Richiede modi diversi di condurre le indagini, capacità di ascolto e una certa disciplina nel sospendere conclusioni premature. Non è qualcosa che si improvvisa.
Significa rallentare, quando possibile, la corsa verso conclusioni premature. Significa coinvolgere chi lavora non come imputato, ma come fonte di conoscenza. Significa, in definitiva, accettare che comprendere richiede una disponibilità maggiore — e spesso anche più tempo — di quanto siamo abituati a concedere.
Osservare il sistema in questo modo richiede tempo, ma anche un certo tipo di sguardo: uno sguardo che sappia tenere insieme prospettive diverse senza ridurle troppo presto a una spiegazione unica.
Indagare dopo un infortunio, allora, non è solo un atto tecnico. È un esercizio epistemologico e, in parte, anche culturale: consiste nel comprendere come la realtà viene conosciuta e interpretata da chi la vive nella quotidianità. Richiede di mettere in discussione non solo ciò che è accaduto, ma il modo in cui scegliamo di interpretarlo.
Esistono pratiche e approcci che aiutano a fare questo passaggio in modo più sistematico. Ma il punto di partenza non è lo strumento: è la disponibilità a mettere in discussione il modo in cui guardiamo agli eventi.
Perché la vera domanda, alla fine, non è semplicemente perché è successo.
È se siamo disposti a capire davvero come funzionano le cose quando tutto sembra funzionare bene.
dott. Andrea Cirincione, Psicologo del Lavoro e delle Organizzazioni
Ing. Alessandro Baseggio, Ingegnere della Sicurezza Civile e Industriale
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.
Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'