Blog
Ricerca Applicata

Anomaly detection per la supply chain: come abbiamo ridotto i fermi produzione del 35%

L'anomaly detection rileva pattern anomali nei dati di produzione prima che causino guasti. Un caso reale nel manifatturiero con -35% di fermi non pianificati.

7 minTeam Sydus28 febbraio 2026

Un fermo produzione non pianificato nel manifatturiero costa, secondo le stime di Aberdeen Research, in media 260.000 dollari l'ora. Nel settore automotive si parla di un milione di dollari l'ora. Dietro questi numeri ci sono fermi della linea, operai improduttivi, penali contrattuali, ordini non consegnati, danni reputazionali con il cliente.

La logica tradizionale della manutenzione è reattiva: si interviene quando il guasto è già avvenuto. La manutenzione preventiva basata su calendario è un passo avanti, ma non considera le condizioni reali di utilizzo del macchinario. L'anomaly detection basata su machine learning consente un approccio diverso: rilevare segnali di degrado prima che si trasformino in guasto.

Cos'è l'anomaly detection

L'anomaly detection è la capacità di un modello di identificare osservazioni che si discostano significativamente dal comportamento normale di un sistema. Nel contesto manifatturiero, "normale" è definito dal modello attraverso l'analisi statistica di settimane o mesi di dati operativi in condizioni di funzionamento regolare.

Quando i dati di produzione live si discostano da questo baseline, un aumento anomalo delle vibrazioni, una temperatura che cresce più velocemente del solito, un consumo energetico irregolare, il modello segnala l'anomalia prima che si verifichi il guasto.

Non si tratta di prevedere il guasto con certezza, ma di cambiare la domanda: da "quando si guasterà?" a "c'è qualcosa di anomalo adesso?".

Tecniche principali

Isolation Forest

È uno degli algoritmi più usati in ambito industriale. L'idea di base è che i punti anomali sono isolabili con meno separazioni rispetto ai punti normali. È efficiente su grandi dataset multivariati e funziona bene come primo livello di rilevamento.

Autoencoder neurale

Una rete neurale addestrata a ricostruire i dati di input normali. Quando un input anomalo viene passato alla rete, l'errore di ricostruzione è elevato, il modello "non riesce a spiegarsi" quei dati. Gli autoencoder sono particolarmente efficaci quando le anomalie riguardano combinazioni di variabili piuttosto che singoli valori fuori scala.

LSTM per dati temporali

Le reti Long Short-Term Memory sono progettate per sequenze temporali e catturano le dipendenze tra osservazioni nel tempo. Sono particolarmente utili quando il comportamento anomalo non è rilevabile in un singolo timestamp ma emerge come una sequenza di valori che, individualmente normali, insieme indicano un degrado progressivo.

I dati necessari

La qualità del modello dipende dalla qualità e dalla completezza dei dati. Le fonti tipiche in un impianto manifatturiero includono:

  • Sensori di vibrazione sui motori e sugli organi di trasmissione
  • Temperatura di cuscinetti, inverter, zone di lavorazione
  • Consumo energetico (assorbimento anomalo indica spesso attrito aumentato)
  • Dati di processo dal SCADA (velocità, pressione, portata)
  • Log di produzione e scarto dal MES

La frequenza di campionamento è critica: per rilevare anomalie meccaniche, si lavora tipicamente a 1-100 Hz. Per anomalie di processo, la frequenza minuto è spesso sufficiente.

Il caso reale: fabbrica di valvole industriali

Il progetto che descriveremo riguarda un produttore italiano di valvole industriali con 120 addetti, 15 isole di lavorazione CNC e una storia di fermi non pianificati che incidevano per circa 8% del tempo produttivo disponibile.

Fase 1, Audit dei dati (4 settimane)

I macchinari erano già collegati a un sistema SCADA, ma i dati venivano registrati solo ai fini di reportistica giornaliera aggregata. Abbiamo estratto i dati raw a frequenza minuto degli ultimi 18 mesi per i 15 centri di lavoro.

Fase 2, Baseline e training (6 settimane)

I primi 12 mesi di dati sono stati usati per costruire il baseline del comportamento normale, escludendo i periodi di fermo e manutenzione. È stato addestrato un Isolation Forest per il rilevamento veloce e un autoencoder per la dettaglio anomalie multivariate.

Fase 3, Validazione e tuning (4 settimane)

Il modello è stato validato sui 6 mesi successivi, calibrando le soglie di allarme per minimizzare i falsi positivi (allarmi inutili che perdono credibilità con gli operatori) mantenendo alta la sensibilità su anomalie reali.

Risultati a 6 mesi dall'attivazione

  • -35% di fermi non pianificati rispetto ai 12 mesi precedenti
  • 3,2 anomalie rilevate su 4 si sono rivelate effettive (tasso di precisione 80%)
  • Tempo medio di anticipo dell'allarme rispetto al guasto: 4,7 ore
  • ROI a 12 mesi positivo già al quarto mese dall'attivazione

Come si implementa in un impianto esistente

Il percorso tipico si articola in tre fasi:

  1. Assessment (2-4 settimane): analisi dei dati disponibili, identificazione dei macchinari critici per percorso critico produttivo, stima del potenziale di riduzione dei fermi
  2. Pilota (3-4 mesi): implementazione su 2-3 macchinari ad alto impatto, training e validazione del modello, integrazione con il sistema di notifiche della manutenzione
  3. Scale-up: estensione al resto dell'impianto, integrazione con CMMS (Computerized Maintenance Management System), dashboarding per il reparto manutenzione

Il fattore umano è determinante: il modello produce allarmi, ma sono gli operatori e i manutentori a decidere come intervenire. La formazione del personale e la definizione di procedure di risposta agli allarmi sono parte integrante del progetto.

L'anomaly detection non sostituisce l'esperienza del manutentore, la amplifica, dandogli informazioni strutturate dove prima aveva solo l'intuito.

Tag

anomaly-detectionsupply-chainmachine-learningmanifatturiero

Domande frequenti

Hai ancora dubbi?

Servono sensori nuovi per implementare anomaly detection?

Non necessariamente. Molti impianti manifatturieri già raccolgono dati da PLC, SCADA e sistemi MES esistenti, spesso senza analizzarli. Il primo passo è un audit dei dati disponibili: frequenza di campionamento, completezza, qualità. In molti casi è possibile partire con i dati già presenti. Dove i dati sono insufficienti (es. macchinari datati senza sensori), l'aggiunta di sensori IoT a basso costo, vibrazione, temperatura, consumo elettrico, ha un costo contenuto (200-500€ per punto di misura) rispetto al valore generato.

Quanto tempo ci vuole per addestrare il modello?

La fase di training richiede tipicamente 3-6 mesi di dati storici di buona qualità per costruire un baseline affidabile del comportamento normale dei macchinari. Il training computazionale del modello è veloce (ore, non giorni) su hardware standard. La parte più lunga del progetto è solitamente la raccolta, pulizia e labeling dei dati storici, che può richiedere 4-8 settimane di lavoro.

L'anomaly detection funziona anche con macchinari datati?

Sì, ed è spesso uno dei casi d'uso più interessanti. I macchinari datati sono spesso privi di diagnostica integrata, quindi qualsiasi segnale anomalo rimane invisibile fino al guasto. Aggiungendo sensori di vibrazione, temperatura e consumo energetico su questi macchinari e applicando modelli di anomaly detection, si può ottenere una capacità predittiva che il costruttore originale non aveva mai previsto, prolungando la vita utile del parco macchine esistente.