<< Paolo Rugarli è un autore prolifico. Non so quanti libri abbia scritto, certamente molti. Qualcuno l’ho letto, commentato e consigliato. Si tratta sempre di letture che impegnano e che certo devono costare all’autore mesi di sacrifici. Questa ultima sua fatica è una tappa importante e certamente farà molto discutere.
Si intitola Validazione Strutturale ed è articolata in 2 volumi. Il primo volume, uscito da poco, è di oltre 650 pagine e pone le basi per la comprensione della validazione strutturale; tema che verrà successivamente analizzato con molti esempi pratici nel secondo volume.
La personalità e le capacità dell’autore sono ben note al pubblico degli strutturisti. Così come ben nota è la vena polemica che spesso e giustamente anima i suoi interventi nei dibattiti sulle riviste di settore e nel web.
In questo caso non viene risparmiata una critica al mondo degli ingegneri che sta subendo, senza un’apparente reazione, una pericolosa deriva per varie cause: la moltitudine di norme prestazionali e prescrittive che si accavallano a scapito della chiarezza; la mancanza di una corretta e continua scuola di progettazione; l’invadenza, sempre più marcata, di strumenti di calcolo automatico sovente utilizzati senza la dovuta competenza.
A ciò si aggiungono le complesse prescrizioni per il calcolo sismico per gran parte del territorio nazionale.
Di questo si occupano le prime 40 pagine del primo capitolo denominato “Il contesto”, che, a partire dalla disamina di casi di crollo sempre più frequenti, mostrare come si è passati da un approccio alla progettazione strutturale rigorosa, ragionata e cosciente, ad una progettazione banalizzata per il ricorso indiscriminato a software commerciali a cui falsamente si attribuiscono capacità di soluzione illimitate.
Per introdurre il lettore all’argomento, l’autore fa dapprima una lunga premessa che richiama alcuni concetti ed algoritmi del trattamento probabilistico delle grandezze e delle problematiche che concernono logica, trasmissione dei dati e decodifica.
Si passa poi all’analisi degli errori e delle probabili cause degli stessi. Si entra in mondi che investono il comportamento umano che spesso è portato a reagire al di fuori di logiche codificate. Si parla delle regole di ragionamento, di trasmissione di concetti e dei problemi di decodifica correlati. La lettura di tali parti non è agevole, ma è uno sforzo che aiuterà nel seguito poiché molti di questi concetti vengono ripresi ed inseriti in contesti pratici.
Siamo arrivati così alle prime duecento pagine del volume e finalmente si tratta della validazione in senso stretto.
E qui, confesso, si sono sgretolate alcune mie certezze. Ho sempre pensato infatti che i software commerciali potessero essere validati, secondo procedure standard, con criteri assolutamente oggettivi con piccolissime probabilità di errore, pur sapendo anche che “tutti i programmi sono esatti sino al giorno in cui non gli scopri un baco” [Valerio Jonitza]. Sembra una banalità, ma è cosa che gli analisti o scrittori di software conoscono bene: è molto difficile che un programma arrivi a coprire tutti i casi che si manifestano nella realtà. Pur tuttavia ho sempre pensato che gli utilizzatori dei programmi dovessero essere in qualche modo tutelati dall’invasione dei software che promettono di calcolare e dimensionare ogni cosa.
In special modo da quando è invalsa la cattiva abitudine di travasare nelle norme tecniche le cosiddette ricerche “avanzate” fatte in qualche angolo di università, complicando inutilmente e pericolosamente il processo logico che deve accompagnare il progettista nel suo lavoro. Per questi motivi ho sempre ritenuto che i software che ci piovono addosso da tutte le parti, dovessero essere certificati.
In effetti il capitolo sulla validazione comincia così: “ Cosa sia una validazione potrebbe sembrare ovvio, ma non è così” e prosegue “… per gli studiosi di software testing, ovvero per i veri esperti di software, è un fatto pacifico, assolutamente acclarato, che una campagna di test non possa provare che un programma sia privo di difetti…”
Pensavo, speravo, che potesse bastare un accordo (o una norma con carattere vincolante) che dicesse: tutti i programmi di analisi strutturale che si vogliono immettere sul mercato, devono essere capaci di affrontare questo tipo di analisi standard, con questi test (per esempio qualche centinaio di test tipo), con questi dati di input ed i risultati che si ottengono devono essere compresi entro un intervallo molto piccolo della soluzione, per esempio l’x per mille di un certo valore.
E Rugarli ancora mi dice: “Nessuno può affermare in senso assoluto che un programma o un modello è valido…” ed aggiunge che al massimo si può dire “…il programma X, nella versione Y, a parere di chi scrive, ha eseguito in modo affidabile questi xx test, in accordo alla normativa. Il calcolo è stato eseguito su computer Z, sistema operativo W, versione Q”.
Ciò che deve essere validato (parere del CSLLPP – 1^ sezione 17/9/2013) è l’applicazione del codice di calcolo, e non la validazione del codice stesso. Nel caso in cui si renda necessaria una validazione indipendente del calcolo strutturale, i calcoli più importanti devono essere eseguiti nuovamente da un soggetto diverso da quello originario mediante programmi di calcolo diversi …”.
La sfida allora è aperta: vogliamo lasciare da parte certe cattive abitudini, contratte nel tempo ed aprirci ad un mondo nuovo in cui il nostro autore vuole condurci, forte dei suoi oltre venticinque anni di esperienza a tutto campo: come analista e scrittore di software, come verificatore di altri software e come progettista di strutture? Se accettiamo la sfida ci si addentra in altre 400 pagine con passaggi sempre ardui, ma sempre più affascinanti.
Si parla di validazione e poi di errore. L’errore dice l’autore è “un’attività normativamente scorretta, ovvero un’attività che viola certe regole di logica e di coerenza, senza che sia dimostrato (da un’ampia messe di risultati statisticamente accettabili) che una tale violazione sia scusabile perché poco influente o ininfluente.
Il capitolo sugli errori esplora in lungo e in largo per più di 75 pagine la classificazione degli errori umani, fino a tornare nell’alveo ingegneristico delle strutture e riscoprire proprio come l’errore è figlio di atteggiamenti che si devono riconoscere ed abbandonare.
Per chi vuole entrare più a fondo ecco il rimando ad un testo fondamentale in questo campo: “L’errore umano” scritto da James Reason, uno dei suoi maggiori esperti di questa tematica oggi viventi. Il libro, per inciso, è il primo di una nuova collana, dal formato grafico piacevole, edita da EPC di Roma e curata proprio da Paolo Rugarli.
Torniamo ancora al libro. Siamo arrivati al capitolo 6 e ci stiamo addentrando nell’analisi dei modelli strutturali. Questa volta l’Autore fornisce linee e procedure di controllo da applicare durante la costruzione di un modello per minimizzare gli errori. Il modello è visto come un insieme di aree logiche omogenee dei dati di ingresso e uscita (schemi strutturali, geometrici, vincoli e svincoli, materiali e scelta degli elementi strutturali, carichi diretti ed indiretti, combinazioni dei carichi, ecc.) che vanno verificati passo passo.
Ciò presuppone che il progettista abbia fatto la sua sana fatica di capire preventivamente come funziona la sua struttura, si sia precalcolato, manualmente o con qualche semplice ausilio, l’entità delle forze in gioco, le azioni globali sulla struttura e le reazioni a terra. Cosa non sempre facile da farsi, sappiamo infatti che le schematizzazioni troppo spinte a volte ci fanno perdere di vista alcuni effetti locali molto importanti. Comunque è un rischio da correre per tenere in mano le redini del progetto ed evitare di farsi sommergere da miliardi di numeri a cui non si sa dare il peso giusto.
Il libro si conclude con un capitolo sulle norme sismiche. Abbiamo riscontrato tutti che con il passaggio dalle norme del ‘96 a quelle ora vigenti c’è veramente stato un passaggio di un’epoca. L’evoluzione del calcolo sismico a seguito degli sforzi congiunti di una comunità scientifica che appartiene ad ogni sito del mondo, sta portandoci verso regole sempre più comuni. Ora è quasi scontato che il calcolo delle azioni interne in una struttura deve essere svolto con l’ausilio di un software e così pure le verifiche in quanto le combinazioni di carico con il metodo di verifica agli stati limite sono aumentate a dismisura.
Concludendo: la nostra è un’attività pericolosa che va svolta con grande prudenza e continua aggiornata preparazione. L’uso indiscriminato di software commerciali che promettono (falsamente) di risolvere con facilità ed in breve tempo le strutture, sta creando seri problemi, a volte con esiti tragici.
Ogni crollo strutturale, sia parziale che globale, ogni esito negativo, ogni errore, dovrebbero essere conosciuti ed analizzati per comprendere chi e come li ha provocati. Dovremmo imparare dai nostri errori e dagli errori altrui per evitare di sbagliare di nuovo. Per fare ciò ci vuole attenzione, approfondimento, partecipazione a corsi e convegni, scambi frequenti di esperienze. Sinceramente non vedo come ci si possa far chiamare ingegneri senza spendere un euro per comprare un libro o una rivista specialistica.
Resta la responsabilità legale ed umana di chi progetta. Resta la sua conoscenza e capacità di tradurre in un modello matematico ciò che poi diverrà una costruzione viva, preziosa, abitata da persone.
Conoscenza e capacità crescono con il confronto con esperienze di alto livello come questo libro che ora viene proposto.
Da leggere! >>
(Riccardo De Col)

Partendo da un’analisi sulla situazione italiana attuale, Paolo Rugarli affronta la tematica della validazione strutturale secondo un approccio interdisciplinare attraverso: il concetto di probabilità, i problemi cognitivi e di decodifica del messaggio.
Viene dimostrato come gli errori nella progettazione e nel calcolo strutturale, siano legati non tanto alla complessità dei metodi di calcolo, quanto a problemi di natura cognitiva.
Sono descritte le caratteristiche di un modello strutturale standard con appunti per l’individuazione di un modello univoco.
E’ presente, infine, una critica alle metodologie probabilistiche adottate dalle normative correntemente in vigore per determinare la pericolosità sismica.
Due le appendici: “ La classificazione delle cause dei disastri” e “Ciò che accade a un re e a tre impostori”.


Validazione struturale
Volume I: Aspetti generali


Autore | Paolo Rugarli
Anno | 2014
Pagine | 656
ISBN | 978 88 6310 563 6
Prezzo | 40 euro
 



Validazione strutturale

Stato attuale, errori e modelli standard