Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'.
L’illusione zero: la felicità del tacchino
Nel campo della salute e sicurezza sul lavoro (SSL), misurare è sempre stato sinonimo di governare. I sistemi di gestione della sicurezza sono spesso "inondati di indicatori di performance". Tuttavia, l'affidamento esclusivo o predominante su metriche quantitative, in particolare quelle basate sugli esiti negativi come infortuni o incidenti, presenta limiti significativi e rischi intrinseci. Concentrarsi eccessivamente sul raggiungimento di target numerici può essere controproducente e minare la capacità di un'organizzazione di indagare e gestire i problemi in modo efficace.
Abbiamo un indicatore dei giorni di lavoro persi (Lost-Time Injuries - LTIs)?
Quanti giorni senza infortuni abbiamo oggi in azienda? 120? 540? 1.000?
E ora domandiamoci: quel numero è una prova di sicurezza… o di cosa?
La doppia natura delle metriche: strumento e obiettivo
Immaginate un tacchino.
Ogni giorno riceve cibo. Ogni giorno viene nutrito con cura. Ogni giorno rafforza la sua convinzione: “Il mondo è sicuro.” Statisticamente, la sua fiducia cresce. Finché arriva il Giorno del Ringraziamento. Questa è la Turkey Illusion: più lunga è una storia di successo apparente, più aumenta la fiducia proprio mentre il rischio reale può crescere tacitamente verso un evento imprevisto. Il fatto che qualcosa sia sempre andato bene non è una prova logica che continuerà ad andare bene. Il passato non prova la sicurezza. Spesso ne consuma solo i margini.
E nelle organizzazioni questo accade più spesso di quanto siamo disposti ad ammettere.
Tradizionalmente, la sicurezza è stata definita e misurata più per l’assenza di eventi negativi che per la sua capacità di far andare bene le cose.
Sebbene nati con l'intento di fornire un segnale utile di unsafety, gli indicatori possono creare problemi. Ad esempio, gli LTIs a volte contengono “più rumore che segnale", specialmente quando i numeri sono già bassi; in questi casi, la comprensione (qualitativa e non quantitativa) degli eventi precursori e dei controlli sui processi sottostanti risultano essere più diagnostici.
Il rischio emerge quando questi indicatori non vengono più visti come strumenti per comprendere la realtà complessa del lavoro, ma si trasformano in obiettivi da raggiungere o mantenere sufficientemente bassi. E’ qui che l’incentivo a raggiungere lo "zero infortuni" può portare a pratiche che disincentivano la divulgazione aperta e il trattamento onesto di infortuni e incidenti.
La cecità dei dati: quando contiamo ciò che è facile
Quando la sicurezza funziona, non accade nulla. Ed è proprio qui il paradosso.
Se non succede nulla:
- i budget sembrano sovradimensionati
- le procedure sembrano eccessive
- la formazione sembra ridondante
È il paradosso della prevenzione: il successo della sicurezza produce l’illusione della sua inutilità.
Così si tagliano investimenti proprio quando le difese stanno funzionando. Il silenzio dei dati diventa prova di successo. Ma attenzione: può essere anche accumulo di energia potenziale.
Nelle aziende moderne la sicurezza è spesso misurata con ciò che è facilmente quantificabile:
- infortuni lievi, DPI utilizzati, checklist completate, audit superati.
È rassicurante. È ordinato. È misurabile. Ma è anche burocratico e -ahinoi- manipolabile.
Prendere decisioni basandosi esclusivamente su ciò che è quantificato crea un inganno: ignorare ciò che non lo è, il cosiddetto intangibile.
- Fiducia. Trasparenza. Comprensione. Sicurezza psicologica. Esperienza.
- Fatica cronica. Deriva operativa. Normalizzazione della deviazione. Sovraccarico cognitivo.
Tutte variabili che non entrano facilmente in un foglio dati.
E così finiamo per cercare le chiavi sotto il lampione, perché lì c’è la luce. Ma i rischi, specie quelli peggiori, raramente stanno sotto il lampione. Stanno nel buio della complessità.
Indicatori verdi, fragilità crescente
Una dashboard (=pannello di controllo) verde non è una diagnosi. È una rappresentazione.
Il rischio segue percorsi non lineari, e accade mentre gli indicatori restano stabili.
Nei periodi di “successo” prolungato:
- le persone compensano carenze;
- si aggirano vincoli organizzativi;
- si adattano le procedure;
- si normalizzano gli scostamenti.
Il sistema continua a funzionare grazie alla competenza operativa. Ma questa competenza non è infinita. Quando analizziamo i turni senza infortuni, non conosciamo le ignote situazioni in cui un problema è stato evitato per fortuna o per un adattamento mai segnalato.
L’assenza di dati non significa assenza di rischio.
Spesso significa che il sistema di reporting non vede ciò che non sopravvive alla sua logica.
La trasparenza è vitale; gli auditor (interni o esterni), ad esempio, dovrebbero voler sapere "come i manager si assicurano di ascoltare le cattive notizie". Spesso gli approcci punitivi ostacolano l'onestà e l'apertura, impedendo la discussione sulle difficoltà del lavoro.
La sicurezza concreta dipende dall’abilità dei lavoratori di adattarsi, reagire alle variabilità dei sistemi e utilizzare la propria conoscenza ed esperienza professionale. Le metriche burocratiche "appiattiscono" la capacità dei lavoratori di risolvere le soluzioni critiche.
La verità non prende le scale
C’è poi un fenomeno organizzativo meno visibile ma decisivo.
Salendo nella gerarchia aziendale, la realtà si raffredda e si semplifica. La complessità operativa viene filtrata, pulita, sintetizzata. È un punto invisibile oltre il quale la verità grezza del campo non riesce più a risalire.
Arrivano i numeri, i grafici, i PDF rassicuranti.
Nel frattempo, sotto la superficie, la pressione del sistema aumenta.
Questa distorsione è spesso alimentata da una fragilità epistemica: strumenti manuali, dati frammentati, visioni lente, incapaci di cogliere i segnali deboli in tempo reale.
Il problema non è la tecnologia, che in sé è utilissima.
È l’illusione di completezza.
Quando l’incidente arriva serve la storia rassicurante
Se poi accade l’evento, cosa facciamo? Cerchiamo una storia, attuando ciò che in psicologia è un bias (=pregiudizio) chiamato narrative fallacy.
Ed ecco che siamo spinti a trasformare il caos in linearità.
Il report finale diventa una narrazione ordinata:
- sequenza cronologica;
- root cause identificata;
- responsabilità chiarita;
- azione correttiva definita.
E, guarda caso, spesso la “causa radice” è l’ errore umano, quello che qualche improvvido chiama “human factor” solo perché non ha capito di cosa si parla, ma almeno ha chiuso il file. Bisogna ammettere che un giallo senza un colpevole lascia l’amaro in bocca.
L’analisi è la cura dell’ansia del sistema, che si rilassa grazie al farmaco narrativo.
La storia è chiusa. Ma nel tentativo di ridurre l’ansia organizzativa, abbiamo sacrificato l’ambiguità, il contesto, la complessità che spesso è nei fatti.
Abbiamo preferito una spiegazione rassicurante a un apprendimento scomodo.
La sicurezza pertanto è la capacità del sistema di far andare bene le cose ogni giorno, nonostante variabilità, pressioni e vincoli. Misurare solo ciò che va storto fa perdere la parte più importante: come le cose vanno bene e a quale costo adattivo. La vera maturità organizzativa non si riconosce da uno zero. Si riconosce da:
- quanto velocemente intercetta segnali deboli;
- quanto ascolta le cattive notizie;
- quanto protegge chi parla;
- quanto investe nell’analisi del lavoro reale.
Guardare oltre lo schermo
La domanda non è se dobbiamo misurare, perché l’utilità dei dati non è in discussione.
La domanda è: abbiamo il coraggio di interrogare il silenzio dei nostri dati?
Perché i rischi più grandi non sono quelli che non conosciamo.
Sono quelli che guardiamo ogni giorno senza riuscire a vedere, perché il nostro sistema di misurazione ci sta raccontando una storia incompleta.
La felicità del tacchino è statisticamente fondata. Fino a quando non lo è più.
E per noi in veste di tacchini non c’è un Giorno del Ringraziamento previsto dal calendario, nel senso che è un evento che non si preannuncia.
Intercettare segnali deboli non è un esercizio intuitivo. Richiede strumenti, competenze e un metodo che molte organizzazioni ancora non hanno sviluppato.
Ciò che la letteratura internazionale chiama Safety II nasce quando impariamo a guardare sotto la dashboard, prima che l’ascia cada sul sistema. E questo richiede qualcosa di più sofisticato di un indicatore verde: competenza, approccio, metodo.
E soprattutto, la disponibilità a mettere in discussione l’illusione zero.
dott. Andrea Cirincione, Psicologo del Lavoro e delle Organizzazioni
Ing. Alessandro Baseggio, Ingegnere della Sicurezza Civile e Industriale
I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.
Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'
Pubblica un commento
| Rispondi Autore: paolo | 13/03/2026 (08:12:29) |
| Mamma mia... non ho parole, mai letto tante super...le come in questo articolo, se siamo addirittura arrivati a questo punto, meglio chiudere baracca e burattini e godersi la spiaggia... | |
| Rispondi Autore: Ing.Franz | 13/03/2026 (08:57:28) |
| Articolo eccellente. La cecità dell'approccio "tradizionale" alla sicurezza di fronte a questi temi è disastrosa. Chi invece li prende sul serio progredisce. Vedi l'esempio delle High Reliability Organizations (vedi: K.E.Weick - K.M. Sutcliffe, "Governare l'Inatteso", Raffaello Cortina) | |
| Rispondi Autore: Stefano B. | 13/03/2026 (09:04:57) |
| Bell'articolo, ora facciamo leggere a tutti gli Auditor esterni. | |
| Rispondi Autore: Roberto | 13/03/2026 (09:58:26) |
| Per l'amor del cielo... interessante articolo scritto in collaborazione con l'IA o comunque ispirato dai martellanti post di QHSE Standard (a sua volta scritti dall'IA). Almeno sarebbe stato corretto fare un riferimento agli autori della teoria del tacchino induttivista (Russell) o dell'effetto lampione (Kaplan)... | |
| Rispondi Autore: Aldo Belli | 13/03/2026 (12:27:11) |
| Non so se l’articolo è stato scritto in collaborazione con l’IA o ispirato da post scritti con l’IA, ma valuto il contenuto. E il contenuto è assolutamente corretto. Quante volte si segnalano criticità e viene risposto che “tanto qui non è mai successo niente”? Le previsioni delle direzioni aziendali di qualsiasi livello (micro, piccole, medie e grandi imprese) sono ogni anno smentite dai dati sugli infortuni, ma, soprattutto, sulle tecnopatie, le cui cause risultano meno evidenti rispetto a quelle degli eventi infortunistici (e pesano economicamente molto di più sulle aziende). La complessità del problema sta nella capacità di chi deve intercettare i segnali. Tale soggetto, a mio parere, dovrebbe essere presente in modo quasi costante all’interno degli ambienti lavorativi, ricevere una formazione idonea al compito assegnato ed avere attitudini personali per riuscire a “farsi valere” nei confronti dei destinatari delle segnalazioni. In conclusione, scusate la banalità, servono le persone giuste nei posti giusti (facile a dirsi molto meno a farsi). Soprattutto, conclusione scontata, servono interventi economici che in molti, purtroppo, non ritengono opportuno sostenere. E allora, se non intendo risolvere il problema, provo a sostenere che il problema non esiste con tanti saluti alla sicurezza dei lavoratori. | |
| Rispondi Autore: VF | 15/03/2026 (22:31:03) |
| Ho letto relazioni di indagine che individuano nel "fattore umano" la causa di incidenti e inconvenienti. Il Fattore Umano, una scienza applicata, sarebbe la causa! | |
| Rispondi Autore: georgia carigllia | 23/03/2026 (14:58:59) |
| Bellissimo | |