L’affidabilità nella probabilità dinamica dei processi

Scarica PDF Stampa

Quello che passa per logica ( nel suo ruolo di autorità suprema quando si tratta di emettere giudizi e riconoscerli come incontestabili), al pari di quello che è considerato essere buon senso ( nel suo ruolo di doxa o paradigma) tende sempre a cambiare nel corso del tempo. Cambia insieme alla condizione umana e alle sfide che essa propone.

Tutte le nostre concezioni della logica e del buon senso, o le più diffuse tra esse, sono tendenzialmente prassomorfiche. Sono determinate dalla risposta alle realtà esterne viste attraverso la lente delle prassi umane: quello che gli esseri umani comunemente fanno, sono addestrati, indotti e inclini a fare” ( Z. Bauman, L’etica in un mondo di consumatori, 4-5, Laterza 2010).

Il passare da una visione per atti e competenze ad una per processi unitari dinamici, unita alle enormi possibilità che lo strumento informatico dispone in termini statistici, fa sì che si crei la possibilità di introdurre il concetto di affidabilità, quale caratteristica qualitativa sulla capacità di rispettare determinate specifiche di funzionamento nel tempo.

Ogni sistema tende inevitabilmente a degradare nel tempo senza adeguati interventi manutentivi, si che le prestazioni diventano insoddisfacenti in una scala da 1 a 0, con una “fiducia” nel sistema che si avvierà a 0.

Il disturbo al funzionamento del sistema può derivare da problemi interni o da interferenze “esterne”, intese quali sollecitazioni ambientali anche aleatorie, per quanto riguarda i problemi interni questi possono essere o circostanze “accidentali” o fenomeni di invecchiamento e logorio eccessivo del sistema.

Concettualmente l’affidabilità è una misurazione della capacità di funzione del sistema nel tempo, al fine di quantificare tale capacità si devono:

  • Individuare le grandezze atte a misurare il sistema, sviluppandone i metodi di calcolo;

  • Disporre dei criteri decisionali atti a consentire una decisione sulla situazione misurata;

  • Avere una capacità di analisi dei provvedimenti migliorativi da adottare.

In un sistema che non è meccanico ma biologico e sociale vengono a influire nel fallimento per singolo evento, che ripetendosi nel tempo porterà al gusto definitivo e pertanto ad una nuova transizione globale di sistema, gli aspetti di psicologia sociale che Bronfenbrenner individua nei:

  • microsistema, relazioni individuali dirette;

  • mesosistema, relazioni tra microsistemi;

  • esosistema, sistema che influisce sul singolo;

  • macrosistema, culture ed organizzazioni più ampie, ossia credenze, ideologie, politiche e norme sociali.

Doise nel riprendere tale suddivisione, definisce a sua volta quattro livelli di interazione:

  • intrapersonale, processi psicologici entro l’orizzonte individuale;

  • interindivuale, tra più individui in un determinato contesto;

  • ruoli, differenze di posizioni sociali tra categorie di individui;

  • ideologico, sistema di credenze sociali condivise.

Ogni sistema ha tuttavia un fault tolerant , in altre parole una capacità di proseguire nel funzionamento senza errori rilevanti a fronte di un mal funzionamento di una delle controparti con cui interagisce.

Il concetto di affidabilità può essere inteso sia in termini “classici” o “frequentasti”, quale percentuale numerica di volte con cui l’evento si verifica, sia in termini “soggettivi”, quale “grado di fiducia” che l’osservatore pone nel verificarsi dell’evento, in entrambi i casi si valutano tre aspetti:

  • la missione del sistema o prestazioni richieste, dovendo valutare che l’affidabilità cambia a seconda delle prestazioni richieste;

  • le condizioni in cui agisce il sistema, da specificare a priori a causa dell’influenza sul funzionamento;

  • la “durata” del sistema o tempo nel quale vengono considerate le prestazioni, valutando al contempo che il progressivo “invecchiamento” del sistema ne aumenta lo “stress” e l’eventuale mal funzionamento.

Le grandezze atte a misurare l’affidabilità di un processo quale parte di sistema entro un più ampio complesso possono essere, ad esempio, il tempo medio di un procedimento dall’iscrizione all’inizio del dibattimento e dal dibattimento alla sentenza, il tempo medio di un appello, la frequenza degli appelli, le conferme o riforma delle decisioni, tutte queste grandezze citate sono deterministiche non affette da incertezze, pertanto calcolabili, applicando ad esse una analisi statistica dei dati abbiamo i “parametri di ingresso”, dobbiamo considerare che l’affidabilità può essere intesa come continuità della prestazione, ma anche qualitativamente in termini più complessi come il rispetto dei vincoli di funzionamento richiesti.

L’aumento dell’affidabilità determina un aumento dei costi in generale, circostanza da ricollegare da una parte al rapporto economico costi/benefici, dall’altro al problema sempre economico della previsione di una ulteriore riserva di generazione per far fronte a eventuali imprevisti o disservizi.

Tutti i fenomeni in natura sono aleatori, pertanto vi è l’impossibilità di determinare con esattezza tutte le grandezze che li descrivono, a questo dobbiamo aggiungere l’aleatorietà intrinseca derivante dalle nostre limitate capacità di conoscenza delle cause dei fenomeni, tuttavia la potenza del calcolo informatico nel ripetersi degli innumerevoli eventi permette la determinazione delle medie, se a questo sommiamo una buona descrizione del fenomeno si può ottenere un modello deterministico per fenomeni aleatori che riduce in termini accettabili l’incertezza intrinseca, considerando tra l’altro l’emergere di una certa regolarità in molti dei fenomeni aleatori.

Nella “legge dei grandi numeri” un dato evento aleatorio A ripetuto per n volte tendente all’infinito, tende ad una costante, tale costante rappresenta la probabilità che l’evento stesso A si verifichi in una generica prova, tale legge verificata mediante osservazione diretta dei fenomeni aleatori è detta anche “legge empirica del caso”, sebbene gli errori quali scostamenti siano variabili aleatorie essi presentano una certa “regolarità” determinabile con l’aumentare del numero delle misurazioni (Curva di Gauss).

Dobbiamo sempre avere presente, come abbiamo già precedentemente sottolineato, che vi sono tre probabilità:

  • una “classica” detta “geometrica” per cui “la probabilità P(A) di un evento A è il rapporto tra il numero dei casi favorevoli al suo verificarsi ed il numero dei casi possibili, purché essi siano tutti egualmente possibili”, è una definizione in cui i casi tutti egualmente possibili sono egualmente probabili;

  • una “frequentistica” o “statistica” per cui “la probabilità P(A) dell’evento A è il limite della sua frequenza relativa quando il numero delle osservazioni n cresce indefinitamente” (Von Mieses), essa è il frutto della proprietà della “legge dei grandi numeri” ed è adoperata per stimare la probabilità su un numero “sufficientemente elevato” di eventi nelle medesime condizioni, presenta tuttavia delle difficoltà in rapporto alla determinazione del campo delle condizioni stesse;

  • una “soggettiva”, applicabile sempre, basata sullo stato di informazione del soggetto, sulla sua esperienza o conoscenza del fenomeno per cui “la probabilità di un evento aleatorio A è il numero che misura il grado di fiducia che tale individuo ripone nel verificarsi dell’evento A”.

E’ la quantità e la qualità dell’informazione elaborata che permette di migliorare la probabilità soggettiva, fino al passaggio ad una probabilità statistica attraverso l’elaborazione su banche dati per campi omogenei, si otterranno estrapolazioni statistiche di dati dal campo per ciascuna componente del sistema in un compromesso tra complessità e accuratezza di risultato, considerando la complessità del sistema, il grado di interconnessione e pertanto la dipendenza tra i singoli componenti, nonché le strategie di manutenzione.

Il passaggio tra singoli eventi e probabilità avviene con la codifica numerica, ma la gestione delle strategie di manutenzione è politica ed entra in rapporto alla frequenza del feedback oltre alla vera volontà del gestore, tuttavia dobbiamo valutare che l’aumentare l’affidabilità di un qualsiasi componente aumenta l’affidabilità dell’intero sistema, ma vi è comunque una sintesi di affidabilità collegata ai vincoli di natura tecnica, economica e ambientale, si che una analisi dinamica del sistema comporta la conoscenza dell’affidabilità dei singoli elementi in funzione del tempo A(t).

L’affidabilità desiderata di un sistema è comunque il risultato delle connessioni fisiche dei vari componenti e della missione affidata al sistema stesso, oltre alla sua configurazione nell’ambiente, ossia alla sua apertura o chiusura nei confronti dello stesso, l’affidabilità non è altro quindi che la probabilità che un determinato sistema adempia con continuità alla funzione richiesta in un dato intervallo di tempo e in determinate condizioni sia operative che ambientali, ma la durata del corretto funzionamento non è prevedibile a priori in maniera deterministica per le variabilità e aleatorietà presenti sia nel sistema che nell’ambiente.

 

Bibliografia

  • G. Spirito, La matematica dell’incerto, Newton Compton 1995;

  • B. De Finetti, La logica dell’incerto, Il Saggiatore 1989;

  • D’Alessi – Meucci – Somma, I metodi dell’affidabilità, Franco Angeli 1987;

  • Papolulis, Probabilità, variabili aleatorie, processi stocastici, Boringhieri 1978;

  • Scozzafava, La probabilità soggettiva e le sue applicazioni, Ed. Veschi 1991.

Dott. Sabetta Sergio Benedetto

Scrivi un commento

Accedi per poter inserire un commento