Simulazione: correlazione tra Analisi agli Elementi Finiti e test

L’approccio con analisi agli elementi finiti  sta trovando sempre più larga diffusione non solo nel mondo accademico, ma anche a livello industriale soprattutto grazie all’aumento della potenza di calcolo e conseguente riduzione dei tempi di simulazione. Ricorrere ad una progettazione assistita dal calcolatore permette, infatti, sia di automatizzare calcoli che potrebbero essere fatti anche con approcci classici, sia di modellare problemi per cui non esistono soluzioni note. Un esempio tipico può essere rappresentato dallo stato di sforzo in una geometria complessa o dai campi di moto all’interno di un fluido.

Allo stesso modo, anche una analisi vibro acustica o modale di un sistema difficilmente può essere portata a termine senza l’ausilio di tecniche numeriche per l’inversione delle matrici e soluzione del sistema. Storicamente la strada seguita nello sviluppo di un prodotto è stata quella di realizzare dei prototipi e verificare sperimentalmente la bontà del progetto. Qualora però i risultati non fossero quelli attesi, si dovrebbe ricorrere alla produzione di un altro prototipo cosa che comporterebbe tempi lunghi e, soprattutto, costi importanti per cui una vera ottimizzazione non è, nella maggior parte dei casi, possibile. Questo approccio è forse classificabile come un trial and error.

Il duplice scopo della sperimentazione

Per la caratterizzazione del materiale

Avere a disposizione uno strumento di calcolo come il metodo degli elementi finiti ,che permette il confronto tra più soluzioni senza spese vive e in tempi comunque minore rispetto a quelli necessari per la sperimentazione, permette un salto qualitativo a livello di efficienza dello sviluppo prodotto. Questo però non significa che la sperimentazione perda di significato. Ogni modello matematico atto a simulare qualsivoglia legge fisica (si tratti di un modello costitutivo del materiale, un equazione di bilancio di energia, la conservazione della massa e così via), necessita infatti di dati di partenza. Basti pensare come anche per il più semplice calcolo strutturale fattibile “a mano” sulla base della teoria di de Saint Venant, il modulo elastico ed il coefficiente di Poisson siano basi imprescindibili che possono essere ricavate solo per via sperimentale.

Per la validazione del modello di calcolo

Ma ovviamente l’utilizzo dei test sperimentali non si limita a fornire le basi di partenza. Serve, infatti, anche alla validazione del calcolo. La creazione di un modello numerico, infatti, viene fatta da un tecnico che, in modo diretto o indiretto, lo crea introducendo ipotesi semplificative. Basti pensare come lo stesso modello possa essere meshato (discretizzato) in modo completamente differente da due operatori differenti. E questo ovviamente può avere un impatto sul risultato. Ammesso di aver una mesh sufficientemente fitta (cosa che può essere garantita con uno studio di sensitività della griglia), discretizzazioni differenti porteranno comunque a risultati diversi (seppur di poco) ad esempio a causa degli errori numerici.

In questo la sperimentazione può essere un utile strumento che permetta di far una validazione del modello teorico che può poi essere utilizzato per studi parametri estesi. Un altro esempio che forse porta a risultati teorici la cui affidabilità va sicuramente controllata è legata ad assunzioni sulla dipendenza temporale del risultato (si può assumere il fenomeno come stazionario?) o a semplificazione geometriche estreme come modellare un caso reale come bidimensionale. Ciò fa capire come per molte ragioni avere un riscontro teorico che permetta la validazione del modello prima di un suo utilizzo estensivo sia fondamentale.

Interazione tra gli approcci

Ma fino ad ora si è parlato di convivenza e utilizzo dei due approcci, numerico e sperimentale, ma non di vera integrazione. Se la FEA (analisi agli elementi finiti) può trarre benefici dalla sperimentazione, va sottolineato come anche la parte sperimentale possa trarre enormi vantaggi da un confronto con l’approccio teorico. La progettazione di un esperimento, ad esempio, può essere fatta tramite simulazione in modo da ottimizzare il dimensionamento degli apparati di prova… riducendone, ad esempio, i costi. In sintesi, si è fin ora parlato di come la bontà o meno di un modello teorico possa essere confermata attraverso misure sperimentali. Ma anche ammesso di avere un modello ideale, come si può essere sicuri che questo sia applicabile ad una qualsiasi condizione. Per fare un esempio si pensi al modello ad elementi finiti di una trave caricata. Sicuramente alcuni dati come modulo elastico e coefficiente di Poisson verranno dalla sperimentazione sul materiale base. Ora ammettiamo di avere anche i risultati sperimentali del sistema trave incastrata (ad esempio misura dell’inflessione). E che i risultati teorici siano confermati da quelli sperimentali.

Il modello è veramente sempre applicabile? Se nelle prove cambiasse la temperatura sicuramente i risultati potrebbero essere differenti. E di questo si potrebbe tenere conto che nel modello FEM, ammesso di avere i dati sperimentali di caratterizzazione del materiale alle diverse temperature. Si consideri poi che nella lavorazione meccanica le tolleranze dimensionali risultino differenti da quelle indicate a disegno. Il modello teorico è potenzialmente in grado tenerne conto, ma necessita dei dati che si ottengono solo con misure sperimentali. Insomma, risulta chiaro che se l’approccio teorico offre uno strumento imprescindibile per una progettazione accurata, è anche cristallino come la sperimentazione e le informazioni che solo così possono essere ottenute sono fondamentali per un utilizzo accurato e proficuo del calcolo analitico/numerico. E allora perché non provare ad integrare ancor più i due approcci che come si è visto sono alternativi sotto certi aspetti e complementari per molti altri?

Integrazione

Per integrazione si intende la possibilità di far comunicare in modo automatico i software che gestiscono le misure sperimentali ed i software di modellazione numerica. Per fare questo sicuramente è necessaria un’interfaccia hardware adeguata ma, soprattutto, un software che sappia interpretare l’output di un approccio ad elementi finiti ed utilizzarlo come input per l’altro. L’esempio classico è quello della determinazione delle frequenze proprie di un sistema. Chiunque sa, ad esempio, come la determinazione dello smorzamento caratteristico sia uno dei problemi principali nel setup di un modello a paramenti concentrati.

Perché non usare i risultati sperimentali in termini di frequenze proprie ed ampiezze di vibrazione per tarare i parametri del modello a parametri concentrati che verrà poi risolto per via numerica? In questo modo si avrebbe un modello perfettamente inerente la realtà che permetterebbe di analizzare poi ogni qualsiasi configurazione del sistema. In pratica da una singola prova sperimentale il modello a parametri concentrati potrebbe essere in grado di estrarre i dati necessari per auto tararsi ed essere poi uno strumento ancora più potente per l’ottimizzazione e caratterizzazione del sistema nelle varie condizioni operative.

Aggiornamento deterministico

L’aggiornamento deterministico del modello si basa sul relazioni funzionali tra le risposte misurate (output) ed i parametri del modello teorico (input). Gli output possono essere rappresentati come espansioni in serie di Taylor, limitate ai termini lineari

dove  rappresenta il vettore che contiene le risposte sperimentali del sistema di riferimento,  il vettore che contiene le risposte del sistema predette dal modello teorico per uno stato definito,  il vettore che contiene il valore iniziale dei parametri di modellazione,  il vettore che contiene i valori dei parametri aggiornati ed  la matrice di sensitività. La differenza fra le predizioni iniziali del modello ed i dati sperimentali è ridotta minimizzando una funzione di errore filtrata, definita come

sottoposta ai vincoli

Le matrici  e  esprimono, rispettivamente, l’affidabilità dell’utente sulle risposte del sistema di riferimento e sulle stime iniziali dei parametri. Nel caso in cui le matrici di affidabilità siano ottenute da una post elaborazione statistica dei risultati di numerosi test, queste discendono direttamente dalle matrici di covarianza. La derivazione della seconda equazione e la minimizzazione di  rispetto ai valori dei parametri portano ad una stima aggiornata dei valori stessi dei parametri che permette di ridurre la differenza fra i risultati della simulazione e quelli dei test, minimizzando al contempo le modifiche fra il modello originale e quello aggiornato (in termini di variazione del valore dei parametri). In altre parole noti i valori di alcune grandezze misurate e i corrispettivi valori predetti (output) dal modello teorico per quelle grandezze, è possibile agire sui parametri del modello (input) in modo da far corrispondere i risultati predetti con quelli sperimentali. In questo modo è semplice anche capire se l’eventuale errore nella predizione sia imputabile semplicemente ad un input sbagliato o se il modello teorico stia trascurando alcuni parametri. La similarità tra il modello aggiornato, definito dalle due ultime equazioni soprastanti, ed il problema generale di ottimizzazione del progetto, è molto marcata.

Tuttavia, mentre la funzione obiettivo dell’ottimizzazione del progetto ingegneristico, di solito, esprime la qualità del progetto in termini di costo, peso, affidabilità meccanica, ecc., quella di aggiornamento del modello va riferita al suo miglioramento in termini di predizione del comportamento osservato, limitando allo stesso tempo le modifiche necessarie per perseguire lo scopo. Ciò si traduce in scelte differenti di obiettivi, variabili e vincoli. Per ottenere un modello teorico ottimizzato spesso bisogna, secondo un approccio manuale, modificare più parametri per capire quale di questo porti all’errore nel risultato predetto. Un’analisi automatica di input ed output ed un confronto statistico con i dati sperimentali permette di velocizzare il processo di miglioramento del modello andando ad agire su di esso con cognizione di causa ed alla luce di dati statisticamente significativi. Questo porta ad un miglioramento del modello in modo molto rapido. Ottimizzato il modello, questo può essere sistematicamente applicato per un’ottimizzazione del progetto ingegneristico.

Nell’ottimizzazione di progetto, un ottimo è accettabile nel momento in cui i vincoli imposti ai parametri siano soddisfatti (massa, dimensioni, stato di sollecitazione ecc.). Nell’aggiornamento del modello, invece, si raggiunge l’ottimo quando le modifiche allo stesso ricadono nell’intervallo prestabilito. Ciò è garantito non soltanto soddisfacendo i vincoli propri sui parametri, ma anche aggiornando i parametri più adatti (e solo quelli). Molto spesso, infatti, il primo sistema di equazioni risulta indeterminato, ovvero vi sono più variabili di valori sperimentali per cui non è possibile arrivare a fare una analisi fattoriale completa della sensibilità dei risultati ai parametri ed è spesso necessario limitare il numero dei parametri aggiornabili. Questo può essere fatto attraverso l’analisi di correlazione locale, l’analisi di sensitività e l’analisi di indeterminazione. In questo modo risulta possibile ridurre il numero di combinazioni critiche fra i parametri in ingresso ed analizzare solo quelle.

Altra strada consiste nel raggruppamento di elementi e selezione di parametri globali per il gruppo. In altre parole, si considera che molti parametri abbiano un effetto analogo sulla risposta del sistema, per cui con analisi locali è possibile rappresentarli, in prima approssimazione, con delle grandezze di sintesi. Alternativamente è possibile introdurre relazioni note tra i parametri riducendo il numero di quelli indipendenti. Ovviamente un’altra strada possibile è quella di aumentare il numero di risposte misurate considerando anche grandezze derivate non direttamente misurabili come, ad esempio, l’ortogonalità delle deformate modali. Ma tutto questo a senso se vi sono dati sperimentali con cui confrontarsi. I pannelli solari per satelliti spaziali, ad esempio, potrebbero venire testati durante differenti fasi di apertura e, per ciascuna fase, essere costruito un modello ad elementi finiti. Ciò fornirebbe un insieme più ricco di dati sperimentali da poter utilizzare per l’aggiornamento delle proprietà degli elementi comuni in tutte le configurazioni.

In altre parole, non necessariamente per avere più risposte sperimentali da usare per la taratura del modello teorico è necessario andare a misurare più grandezze, ma può essere sufficiente misurare le stesse grandezze in configurazioni, ad esempio geometriche, differenti così da cogliere meglio l’effetto sulla risposta di altri parametri. Nel caso specifico, ad esempio, si potrebbero ottenere dati sulla correlazione tra l’angolo di apertura e la rigidezza del sistema o le vibrazioni nelle varie configurazioni che permetterebbero di tarare le proprietà del materiale adottato nel modello ad elementi finiti. Altro esempio potrebbe essere un dispositivo di lancio, da testarsi con differenti livelli di carburante e così via.

Interfaccia di comunicazione

Questo aggiornamento del modello sulla base dei dati sperimentali è un potente strumento di tuning iniziale che permette di implementare e tarare un modello così da rappresentare meglio la realtà ed avere predizioni più realistiche ed affidabili con cui andare a studiare le differenti varianti progettuali. Per fare questo, processo che richiede comunque la capacità di trasferire i dati dalla piattaforma di acquisizione all’ambiente di modellazione FEM (hardware adeguato), è fondamentale un tool apposito che permetta di far dialogare i due mondi.

FEMtools, ad esempio, oltre a gestire i formati dei maggiori ambienti di modellazione numerica (NASTRAN, ANSYS, I-DEAS, ABAQUS, File Universali, etc.), permette il controllo totale del processo di taratura permettendo di impostare quali parametri e in quali intervalli possano essere variati, in modo completamente automatizzato grazie ad algoritmi genetici, per ottenere il miglior allineamento possibile tra i dati teorici e quelli sperimentali. Avere uno strumento che, per la determinazione dei parametri aggiornati di ogni nuova simulazione, si basi su tutti i risultati raccolti fino a quel punto permette di velocizzare il processo di ottimizzazione portando ad una convergenza rapida il processo di tuning che altrimenti necessiterebbe di un numero assai maggiore di risultati e prove per arrivare a determinare i valori ottimali dei parametri per una ottimizzazione delle risposta.

Validazione probabilistica del modello

Fino a questo punto si è sempre parlato di come dai test, per ogni condizione, si ottenga un risultato bene determinato e di come questo possa essere usato per il tuning del modello ad elementi finiti in modo che la sua risposta sia più inerente alla realtà. In presenza di dispersioni, però, la singola risposta deterministica rappresenta soltanto un punto all’interno di una nuvola di valori e, di conseguenza, aggiunge poca informazione sulla affidabilità e sugli andamenti. Ci si può infatti trovare nella condizione in cui la risposta del sistema sia particolarmente sensibile alla variazione di un parametro. Facendo più misurazione dello stesso sistema nella stessa configurazione, il valore della risposta probabilmente oscillerà attorno ad un valore medio. Ogni singola misura sarà più o meno discostata da questo valore medio.

Con una singola misurazione una taratura si affiderebbe dunque ad un valore che, rispetto ad una media statistica, si discosta in modo più o meno significativo (ad esempio anche solo per l’incertezza dello strumento di misura). Così facendo, soprattutto se la risposta risulta essere molto sensibile alla variazione dei parametri, è possibile che si arrivi alla determinazione di valori dei parametri che, benché portino ad un’ottima correlazione numerico-sperimentale sulla singola misura, non daranno risultati altrettanto affidabili su misure ripetute. In tal senso è possibile anche estendere quanto già spiegato per la singola misura, anche a misure ripetute andando ad utilizzare un approccio statistico. Le risposte ottenute in misure ripetute sono analizzate in modo statistico così da ottenere parametri quali valore medio e varianza in grado di rappresentare in modo statistico una grandezza fisica misurata. Se sperimentalmente è sufficiente ripetere le misure, dal punto di vista della simulazione, i parametri di aggiornamento possono essere randomizzati (cioè applicare una distribuzione di probabilità statistica) e, impiegando uno strumento di analisi quale il metodo Monte Carlo, risulta possibile ottenere nuvole di punti per ogni combinazione parametro-risposta.

oti i parametri caratteristici che rappresentano la distribuzione statistica per ogni parametro e di ogni risposta, è possibile andare a correlarle come spiegato nel paragrafo precedente i due insiemi statistici. L’insieme delle distribuzioni statistiche una per ciascuna combinazione della variabile ingresso-uscita, rappresenta un nuovo concetto di modello, al quale in letteratura ci si riferisce spesso col termine meta-modello. La correlazione fra le distribuzioni statistiche per ogni parametro e per ogni risposta simulati ed ottenuti sperimentalmente va analizzata impiegando tecniche apposite, quali, ad esempio, la distanza di Mahalonobis definita come

in cui i vettori  e  rappresentano le medie o centri di gravità del meta-modello e  la matrice comune di covarianza. Mentre una misura deterministica di correlazione, quale potrebbe essere l’errore relativo medio sulle frequenze di risonanza, fornisce soltanto una misura istantanea che potrebbe essere buona o cattiva a seconda della coincidenza, la distanza Mahalonobis rappresenta chiaramente una misura molto più sicura, poiché si basa sulla posizione e la forma di nuvole di punti (distribuzioni statistiche). Coincidenza, fortuna buona o cattiva con le stime dei parametri o condizioni di misura variabili possono, difficilmente, influenzare questo risultato.

Il concetto dei meta-modelli, sia per la simulazione numerica che per il test, assieme alla metrica Mahalonobis, permettono un confronto efficace e rigoroso fra le risposte. Inoltre, l’analisi della forma delle distribuzione dei punti statistici permette di estrarre informazioni aggiuntive. Le differenze lungo gli assi principali delle due ellissi suggeriscono una significativa mancanza di discretizzazione della geometria della struttura, una discrepanza fisica fra i due modelli o semplicemente errori di modellazione. Dovrebbe risultare chiaro che la traslazione relativa e la grandezza totale delle nuvole di punti risultino più facili da correggere rispetto alle relative rotazioni. Le prime semplicemente stanno ad indicare errori sistematici o globali, mentre le seconde, di solito, indicano errori fisici (locali). Come seconda cosa, il livello di dispersione nei due modelli e chiaramente differente. Sebbene ciò possa risultare desiderabile in alcuni casi, in generale e preferibile ottenere un modello di simulazione che presenti un livello di dispersione bilanciato rispetto alle dispersioni dei dati di test.

Un contributo fondamentale all’analisi dei meta-modelli, ai fini dell’aggiornamento, consiste nella possibilità di determinare con esattezza i parametri dominanti di un sistema e di quantificare le correlazioni fra le variabili di ingresso ed uscita. Ciò e l’equivalente dell’analisi di sensitività in analisi deterministiche. Tuttavia, il concetto di sensitività, o di gradiente, non esiste più in presenza di dispersioni statistiche. Così, a meno che le dispersioni non siano molto basse e possano essere trascurate, risulta necessario utilizzare altre procedure per l’identificazione dei parametri dominanti. In modo analogo, non tutte le risposte disponibili possono avere uguale rilevanza. In effetti, la post elaborazione statistica può rilevare delle relazioni nascoste ed identificare risposte dipendenti ed indipendenti. Come risultato, l’analista può ridurre l’ordine del sistema, in modo da tener conto soltanto dei parametri più importanti e delle risposte indipendenti. Con queste tarerà il modello sulla base dei dati sperimentali.

L’obiettivo dell’aggiornamento del modello probabilistico consiste, dunque, nel risolvere il sistema di equazioni per le proprietà non conosciute dei parametri che modificano il centro di gravita, le direzioni principali e la densità delle nuvole di punti, ottenute dall’analisi probabilistica, per un accordo con le corrispondenti nuvole di punti dei test. In effetti, ciò porta ad un aggiornamento della Funzione Densita di Probabilità (PDF) dei parametri in ingresso in modo tale che la PDF degli output corrisponda a quella delle risposte di riferimento sperimentali. Nella sua forma più semplice, assumendo una distribuzione di probabilità normale, questo significa che, in aggiunta al valore nominale (come per l’aggiornamento del modello deterministico), anche la deviazione standard dei parametri del modello dovrebbe essere ottimizzata.

Conclusioni

L’analisi a elementi finiti è diventata uno strumento essenziale in supporto allo sviluppo del prodotto virtuale. Al fine di effettuare il passaggio alla prototipazione digitale e, in tal modo, ridurre il numero di prototipi fisici, le predizioni delle prestazioni dovrebbero essere fornite assieme ad una misura di affidabilità del modello di previsione e validate in confronto ai dati sperimentali.

La correlazione tra Analisi agli Elementi Finiti e test risulta un processo complesso che interessa tutti gli aspetti della progettazione ingegneristica e del ciclo di analisi. La complessità e la natura di questa funzione richiede strumenti di calcolo dedicati in modo da riuscire a gestire efficacemente il processo di interscambio dati (tra modello teorico e test sperimentali) ed ottimizzazione. In tal senso è possibile già oggi una stretta integrazione tra due mondi storicamente separati. Questo è possibile grazie a strumenti di diagnostica, algoritmi di aggiornamento e guide di supporto come la progettazione degli esperimenti.

I metodi basati sulle superfici di risposta e le analisi di sensitività diventeranno sempre più parte integrante del processi di sviluppo aiutando i tecnici nell’aggiornamento e taratura dei modelli teorici. In questo contesto è possibile non solo fare valutazioni deterministiche ma anche fare studi di tipo statistico che, sulla base di analisi di affidabilità permettono di aggiungere ancor più informazioni soprattutto sulla sensibilità delle risposte e sull’affidabilità dei risultati ottenuti… in altre parole risulta più semplice ottenere modelli teorici affidabili e precisi con cui fare una ottimizzazione dei modelli ingegneristici. Tutto questo è e sarà possibile solo se la strumentazione di prova e l’elaborazione dei dati si evolveranno in modo parallelo.

Le capacità sempre maggiori di calcolo contribuiranno a creare modelli di simulazione sempre più affidabili e di dettaglio. Ed in tal senso la sperimentazione non perde di significato ma costituisce un prerequisito fondamentale per poter sfruttare al massimo potenziale offerto dal CAE.

Bibliografia

[1] Pestelli C., Palloni F., Bregant L., Castellani F., Dynamic properties assessment and updating of large diesel ship engines, ICSV 13, Vienna

[2] Dascotte E, The Use of FE Model Updating and Probabilistic Analysis for Dealing with Uncertainty in Structural Dynamics Simulation”, Proceedings of the 2003 Japan Modal Analysis Conference (JMAC), September 10-12, 2003,Tokyo, Japan.