Fluidodinamica
La fluidodinamica, disciplina che ha per oggetto il moto dei fluidi e le relative utilizzazioni, riveste una importanza fondamentale nello studio di molti fenomeni naturali e applicazioni tecnologiche, sia in ambiti di quotidiana familiarità sia in contesti più remoti. A conferma di tale centralità, si possono portare, dal più prossimo al meno intuitivo, alcuni esempi rilevanti di carattere fluidodinamico: la respirazione o il flusso del sangue si possono considerare fenomeni biofluidodinamici che avvengono all’interno del corpo umano rendendo possibile la vita; il flusso d’aria intorno a un’automobile o a un aereo è invece responsabile della loro resistenza all’avanzamento e viene studiato dall’aerodinamica; mentre appartengono al settore dell’aeroelasticità le oscillazioni di un ponte sospeso che, indotte dal vento, possono causarne il cedimento strutturale; anche le correnti oceaniche o atmosferiche e persino i moti nel nucleo o nel mantello terrestre sono problemi di natura geofisica che coinvolgono il moto di uno o più fluidi; infine, la formazione di galassie o la loro interazione costituiscono problemi di astrofisica in cui le implicazioni fluidodinamiche sono imprescindibili. Tutte queste applicazioni hanno in comune il movimento di un fluido e la sua interazione con l’ambiente circostante che determina il comportamento del sistema e la sua evoluzione nel tempo.
Concetti generali, caratterizzazione dei fluidi e dei flussi
Sebbene il concetto di fluido sia abbastanza intuitivo (a temperatura ambiente l’acqua è chiaramente un fluido, il marmo no) una sua caratterizzazione oggettiva richiede ulteriori precisazioni in quanto la definizione di fluido non è legata al particolare materiale, ma piuttosto alla sua reazione quando viene sottoposto a sollecitazioni esterne. Per meglio inquadrare la questione si consideri un esempio illustrativo: se si prende un libro e, tenendo i palmi delle mani sulle pagine iniziali e finali, lo si sollecita tangenzialmente, questo si deformerà ed entro certi limiti l’entità della deformazione sarà proporzionale alla sollecitazione applicata; quando la sollecitazione verrà rimossa il libro recupererà la sua forma iniziale. Se si applica lo stesso sforzo tangenziale a una risma di carta, questa continuerà a deformarsi fino a che sarà presente la sollecitazione e, quando quest’ultima verrà rimossa, la risma non ritornerà nella sua configurazione di partenza. Il comportamento del libro è tipico di un solido elastico, mentre la risma di carta si comporta come un fluido. In generale si definisce fluido un materiale che si deforma indefinitamente se sottoposto a sollecitazioni tangenziali e, al cessare di queste, non recupera la sua configurazione iniziale. Ciò equivale ad affermare che un fluido in condizioni di quiete può resistere solo a sollecitazioni normali, per es. la pressione. È bene notare che questa definizione non quantifica né l’intensità della sollecitazione esterna né la velocità della deformazione, quindi contempla un vasto spettro di possibili comportamenti (relazioni costitutive) che vengono studiati in dettaglio dalla reologia. Il caso più semplice è quello in cui la velocità di deformazione dell’elemento fluido è linearmente proporzionale allo sforzo tangenziale attraverso una costante di proporzionalità che è la viscosità dinamica (μ) del fluido. Questi materiali sono detti fluidi newtoniani e contemplano, oltre ad aria e acqua, tutti i gas lontani dalle condizioni critiche e anche i liquidi più comuni come olio, benzina e mercurio. Si vuole accennare per completezza al fatto che la relazione costitutiva definisce un comportamento macroscopico che riflette la struttura microscopica del fluido. Il comportamento newtoniano è la più semplice delle possibilità in quanto non contempla alcuna struttura interna del materiale considerandolo omogeneo e isotropo. Esistono altri tipi di fluido, come quelli di Bingham, che presentano un attrito interno di tipo statico e non si deformano fino a quando non viene superato un valore limite di sollecitazione tangenziale dopo il quale presentano, anch’essi, una relazione lineare tra sforzo applicato e velocità di deformazione; la sabbia è uno di questi fluidi ed è solo grazie a questa proprietà che si possono formare strutture come le dune. Altre tipologie di fluido, invece, non presentano una relazione lineare tra sforzo e velocità di deformazione e hanno una viscosità effettiva che cresce (fluidi pseudoplastici) o diminuisce (fluidi dilatanti) con la velocità di deformazione; il sangue è forse il più comune tra i fluidi dilatanti e questa caratteristica permette a un organo relativamente compatto come il cuore di assicurare la circolazione in tutto il corpo. Il fatto che le relazioni costitutive caratterizzino il materiale nel suo comportamento globale, prescindendo dalla struttura microscopica, implica l’importante ipotesi di poter considerare il fluido come un mezzo omogeneo le cui proprietà risultano sempre definite a tutte le scale di lunghezza. Ciò è chiaramente solo un’astrazione, in quanto se si arriva alle scale microscopiche, tipiche delle molecole o degli atomi, non soltanto il fluido non può avere una struttura continua, ma molte proprietà come densità, pressione o temperatura perdono significato in quanto definite come valori medi su un insieme e non sulle singole entità. Questa assunzione prende il nome di ipotesi di continuo e riveste importanza fondamentale non solo in fluidodinamica ma, più in generale, in tutta la meccanica dei solidi e nella teoria dell’elasticità. Tale ipotesi permette, tra l’altro, di considerare differenze nelle proprietà del materiale su distanze infinitamente piccole e quindi di poter ricorrere al calcolo infinitesimale per la formulazione e la soluzione delle equazioni che ne governano il moto.
Per i fluidi newtoniani queste equazioni assumono una forma particolarmente compatta che prende il nome di equazioni di Navier-Stokes; tali equazioni derivano dai principi di conservazione della massa e dell’energia e dalla seconda legge della dinamica di Newton (F=ma, per un osservatore inerziale). Indicando con u e f i vettori velocità e di forze specifiche di massa (per es., l’accelerazione di gravità e l’accelerazione centrifuga), con p, ρ e T pressione, densità (o massa volumica) e temperatura del fluido, con μ e λ la viscosità dinamica e la conducibilità termica, con e l’energia interna e con q̇ le sorgenti interne di calore (per es., per reazioni chimiche come la combustione o cambiamenti di fase come la solidificazione o la fusione), le equazioni del moto sono:
∂ρ-∂t + ∇∙(ρu)=0
ρ Du'''-‒Dt=−∇p + ρf − -23∇(μ∇∙u) + 2∇∙(μE)
ρ De-‒Dt=− p∇∙u + (2μE − -23(μ∇∙u)I)∙E + ∇∙(λ∇T) + ρq̇
E =-12(∇u+∇uT), e=e(T), f(ρ, p, T)=0 [1]
5
L’ultima uguaglianza è un’equazione di stato (per i gas ideali è l’equazione di stato dei gas perfetti p/ρ=RT essendo R la costante del gas) che mette in relazione tra loro le grandezze termodinamiche p, ρ e T mentre e=e(T) fornisce la definizione di energia interna (per i gas ideali risulta de=CvdT con Cv il calore specifico a volume costante); nel sistema, I rappresenta il tensore identità. Nel caso più generale le proprietà del fluido μ, λ possono dipendere dalle variabili p, ρ e T anche se tale dipendenza è generalmente nota una volta che si conosca il tipo di fluido. Le incognite del problema sono quindi il vettore velocità u e le grandezze p, ρ e T per un totale di sei grandezze scalari, in tre dimensioni, che sono completamente determinate dal sistema di equazioni sopra illustrato, anch’esso formato da sei equazioni scalari (una vettoriale più tre scalari e due definizioni). Sebbene l’uguaglianza tra numero di equazioni e incognite permetta di affermare che il sistema è matematicamente chiuso, cioè potenzialmente risolubile, l’effettiva possibilità di soluzione per via analitica è assai ridotta e limitata a casi estremamente semplificati. Il sistema di equazioni di governo, infatti, è composto da equazioni differenziali alle derivate parziali non lineari e accoppiate, precludendo così sia la soluzione di una delle equazioni indipendentemente dalle altre sia la combinazione lineare di più soluzioni semplici per crearne una più complessa (sovrapposizione degli effetti).
Un caso particolare è rappresentato dall’ipotesi in cui si trascurino tutti gli effetti viscosi e di conducibilità termica, si escluda la presenza di forze non conservative e si assuma che la densità ρ sia costante o al più possa variare solo a causa della pressione p (flusso barotropico). In tali condizioni si ha che la dinamica di un fluido è un fenomeno reversibile in cui il vettore velocità u e la pressione p vengono ricavati da un set di equazioni (equazioni del potenziale e di Bernoulli) più semplici rispetto a quelle di partenza e per le quali sono disponibili efficienti metodi per la soluzione analitica. Tali flussi prendono il nome di flussi potenziali e permettono di studiare rapidamente alcune caratteristiche di molti problemi fluidodinamici anche di elevata complessità. La loro limitazione fondamentale consiste nell’impossibilità di ottenere una valutazione corretta delle forze che si scambiano il fluido e il corpo, in particolare si dimostra che nell’interazione tra un corpo chiuso e un flusso stazionario a densità costante la risultante delle forze che il fluido esercita sul corpo è identicamente nulla e tale risultato prende il nome di paradosso di d’Alembert. Tale definizione si riferisce evidentemente al fatto che ogni interazione tra un fluido e una superficie genera delle forze la cui determinazione rappresenta una delle questioni fondamentali della fluidodinamica e sicuramente la più importante nell’applicazione della medesima a problemi ingegneristici. Quest’apparente incongruenza tra i flussi potenziali e la realtà fisica venne risolta all’inizio del 20° sec. dal fisico tedesco Ludwig Prandtl (1875-1953) il quale mostrò che non è sempre possibile trascurare gli effetti viscosi; in particolare ciò non è mai lecito in un sottile strato di fluido adiacente alle pareti di un corpo (strato limite) in cui gli effetti viscosi sono sempre preponderanti, indipendentemente da quanto piccola sia la viscosità del fluido (o da quanto elevato sia il numero di Reynolds). L’effetto dello strato limite è da una parte quello di determinare le forze viscose e dall’altra quello di governare la generazione e la dinamica di eventuali zone di ricircolazione che a loro volta determinano la distribuzione delle pressioni sulla superficie del corpo. In conclusione, la scoperta dello strato limite mostrò che la cancellazione dei termini viscosi dalle equazioni del moto non ha come unico esito quello di trascurare gli effetti viscosi, ma anche di modificare profondamente la topologia del flusso intorno al corpo; in altre parole essa trasforma il problema di partenza in uno completamente differente.
D’altra parte se non si trascura l’effetto della viscosità, la soluzione analitica delle equazioni di Navier-Stokes è possibile solo per quei casi in cui la soluzione presenta particolari caratteristiche di regolarità e simmetria in modo da permettere il disaccoppiamento delle varie equazioni e la semplificazione di molti dei termini del sistema. Per es., ricadono in questa categoria il flusso stazionario tra due lastre piane e parallele (flusso di Couette piano), in un tubo a sezione circolare (flusso di Hagen-Poiseuille), il flusso su una parete oscillante infinitamente estesa (problema di Stokes) o la soluzione stazionaria di un vortice cilindrico assialsimmetrico e infinito continuamente e omogeneamente allungato lungo il suo asse (vortice di Burgers).
Il denominatore comune tra gli esempi appena citati è la natura laminare dei flussi, requisito che ne garantisce la regolarità nello spazio e nel tempo ossia la loro prevedibilità a lungo termine. Tuttavia, come osservò sperimentalmente nel 1883 il fisico inglese Osborne Reynolds (1842-1912), la regolarità spaziotemporale della soluzione può essere mantenuta solamente per valori limitati del parametro adimensionale Re=ρUL/μ (U e L sono, rispettivamente, una velocità e una lunghezza caratteristica del flusso) che, in onore del suo scopritore, è stato chiamato numero di Reynolds. Una delle interpretazioni fisiche più semplici che si può fornire di tale parametro è pensarlo come il rapporto tra le forze d’inerzia e le forze viscose agenti su una particella fluida. Le prime sono tenute in conto dai termini convettivi (non lineari) delle equazioni e tendono a distribuire l’energia del moto tra strutture di dimensioni diverse. Le forze viscose, al contrario, dissipano l’energia meccanica delle singole scale di moto trasformandola in calore; quando il numero di Reynolds è elevato (quindi le forze di inerzia sono preponderanti rispetto a quelle viscose), il flusso genera un’ampia gamma di strutture fluidodinamiche di dimensione diversa la cui interazione favorisce la transizione alla turbolenza. Al contrario, se il numero di Reynolds è basso, gli effetti viscosi sono dominanti e il trasferimento di energia tra le strutture del flusso è inibito: ciò garantisce la regolarità del moto che rimane laminare. È bene notare che ogni problema ha un limite specifico del numero di Reynolds oltre il quale il flusso cessa di essere laminare (Recr) e il suo valore può variare notevolmente da applicazione ad applicazione (per es., risulta Recr=2100 per il flusso in un tubo a sezione circolare e Recr∼500.000 per uno strato limite); tuttavia, nella quasi totalità dei flussi tale limite viene sempre abbondantemente superato e pertanto non ci si può attendere un comportamento laminare nel moto di un fluido in applicazioni reali. In questo contesto il moto è caratterizzato dalla presenza simultanea di un’ampia gamma di scale di moto, dalle più grandi di dimensioni L confrontabili con l’oggetto, fino alle più piccole di dimensione η (dette scale di Kolmogorov) la cui ampiezza è determinata dal numero di Reynolds secondo la relazione η/L∼Re−3/4, valida in condizioni di omogeneità e isotropia. Tali scale interagiscono tra loro in modo non stazionario, generando continuamente strutture piccole per instabilità delle più grandi e contemporaneamente producendo scale grandi per fusione (merging) delle più piccole; se il flusso è prevalentemente bidimensionale o tridimensionale viene maggiormente favorito l’uno o l’altro scenario, ma in ogni caso entrambi i meccanismi sono presenti simultaneamente.
La caratteristica più sorprendente di un flusso turbolento è la natura non deterministica di ogni soluzione e ciò ha principalmente due effetti: l’impossibilità di replicare per due volte esattamente la stessa configurazione e la necessità di studiare il problema con metodi statistici piuttosto che deterministici. Il fatto che non si riesca mai a riprodurre esattamente lo stesso flusso turbolento sembra in contrasto con le equazioni del moto che ne governano la dinamica; tali equazioni, infatti, sono di natura deterministica e devono quindi dare la stessa soluzione a parità di condizioni iniziali e al contorno. Questo paradosso fu risolto in modo soddisfacente soltanto nel 1963 quando il fisico statunitense Edward N. Lorenz (1917-2008), integrando al calcolatore un modello semplificato delle equazioni di Navier-Stokes, notò che alcuni sistemi non lineari hanno una sensibilità estrema alle piccole perturbazioni e generano nel tempo differenze macroscopiche anche in soluzioni le cui condizioni iniziali differiscono impercettibilmente (effetto farfalla). Più in dettaglio, se ε è l’incertezza con cui si conosce una condizione di partenza e δ è il massimo errore che si è disposti a tollerare, si può dimostrare che il tempo dopo il quale tale errore viene superato è
t≃(1/Λ)[ln(δ/ε)] [2]
in cui Λ è il più grande tra gli esponenti di Lyapunov del sistema che è una sua caratteristica intrinseca. Si può notare che il tempo t, detto anche tempo di prevedibilità, risulta tanto più lungo quanto più è piccola l’incertezza iniziale ε; tuttavia, t cresce solo al diminuire del logaritmo naturale di ε implicando che, anche per notevoli miglioramenti sulla determinazione della configurazione iniziale, l’aumento di t risulta modesto (si può dimostrare in particolare che il logaritmo cresce asintoticamente più lentamente di qualsiasi legge di potenza). È bene sottolineare che tale risultato non preclude in linea di principio la prevedibilità indefinita di un sistema dinamico a patto però di conoscerne la configurazione di partenza con una precisione infinita (ε→0); ciò non è possibile sia perché qualunque misura risulta inevitabilmente affetta da un’incertezza sia perché nessun sistema è controllabile con una precisione assoluta.
La scoperta di Lorenz aprì la strada allo studio dei sistemi dinamici e permise di inquadrare il problema della turbolenza in un quadro più generale dei sistemi con elevato numero di gradi di libertà. Nella turbolenza, infatti, i gradi di libertà si possono identificare con la quantità di strutture fluidodinamiche presenti e, notando che il rapporto tra le dimensioni delle strutture più grandi e di quelle più piccole segue la proporzionalità η/L∼Re−3/4, è facile comprendere come in un cubo di fluido di lato L il numero di gradi di libertà cresca come Re9/4, e per numeri di Reynolds sufficientemente elevati la turbolenza sia uno stato inevitabile. Per fare una semplice analogia si può immaginare un cubo di fluido come una scatola contenente delle palline il cui numero cresce con il numero di Reynolds: se le palline sono poche (basso Re) la loro dinamica sarà ordinata e la loro interazione risulterà prevedibile anche nel lungo termine (flusso laminare), quando invece il numero delle palline diventa elevato (alto Re) il sistema avrà un’evoluzione imprevedibile nel lungo termine in quanto anche disturbi impercettibili rispetto a una configurazione di riferimento, verranno progressivamente amplificati nelle successive interazioni tra palline producendo configurazioni non determinabili a priori.
È bene sottolineare che il carattere non deterministico di un flusso turbolento si riferisce esclusivamente alle configurazioni istantanee del flusso e non alle sue proprietà statistiche, come velocità e pressioni medie o statistica delle fluttuazioni. In altre parole se si esegue, per es., una misura di velocità in un punto di un flusso turbolento per due esperimenti effettuati nelle stesse condizioni, si otterranno due serie temporali che non saranno sovrapponibili istante per istante ma saranno identiche in termini statistici, ossia avranno gli stessi valori medi e le stesse deviazioni rispetto alla media. Sulla base della premessa fatta, lo scenario in cui si inquadra un problema fluidodinamico è quello di un fenomeno generalmente molto complesso che non ha possibilità pratica di essere risolto analiticamente nella sua completezza, ossia partendo dalle equazioni che ne governano la dinamica.
Come accennato in precedenza, una possibilità per analizzare problemi fluidodinamici consiste nel ricorrere a modelli semplificati che rendono il problema matematicamente trattabile anche se al costo di notevoli semplificazioni che talvolta forniscono risultati non direttamente applicabili a quanto in esame. Ciò però non deve indurre a pensare che l’analisi teorica sia inutile o superata, anzi deve sempre essere considerata come prima possibilità in quanto è la scelta meno dispendiosa e in ogni caso può fornire delle preziose linee guida per l’impiego di metodi di analisi più complessi. Uno di questi è la sperimentazione di laboratorio che costituisce la strada maggiormente seguita e anche la più consolidata: una prova sperimentale su un modello in scala costituisce infatti la scelta più facile e immediata anche se richiede una serie di considerazioni preliminari che consentono di progettare adeguatamente l’esperimento e di razionalizzare il lavoro richiesto. Lo scopo di un esperimento, infatti, è quello di prevedere quale sarà il flusso, in termini di forze, distribuzioni di pressione e campi di velocità, per una data configurazione geometrica e assegnate condizioni fluidodinamiche. È evidente che, dovendo progettare una prova sperimentale, la soluzione più immediata sarebbe quella di considerare direttamente il problema reale ed eseguire le misure esattamente nelle condizioni di interesse. Questa eventualità è comunque molto remota in quanto richiede, già in fase di sperimentazione, la disponibilità dell’oggetto da studiare di dimensioni reali e la possibilità di raggiungere in laboratorio le condizioni di flusso richieste. Ciò non è evidentemente possibile per grandi strutture come ponti, dighe o edifici per i quali lo scopo dell’esperimento è proprio stabilire se la loro realizzazione è o meno possibile.
Parimenti per condizioni fluidodinamiche estreme, come il rientro in atmosfera di velivoli spaziali o le elevate pressioni e temperature raggiunte nei fenomeni esplosivi, in un laboratorio non è né tecnicamente possibile né economicamente opportuno realizzare tali condizioni per configurazioni di dimensioni reali. In generale, il problema viene risolto realizzando un modello in scala del fenomeno di interesse e producendo condizioni fluidodinamiche nell’esperimento che risultino significative per il fenomeno reale. La determinazione di queste condizioni risulta tutt’altro che semplice, richiedendo in qualche caso l’uso di fluidi dalle proprietà particolari o condizioni ad hoc come temperature criogeniche o ambienti pressurizzati; in ogni caso la determinazione di queste scelte si inquadra nel contesto generale dell’analisi dimensionale che permette di stabilire in funzione del fattore di scala dell’esperimento le esatte condizioni in cui deve essere effettuato per rappresentare il fenomeno reale. In generale ciò implica che i due fenomeni debbano essere geometricamente simili, ossia l’uno deve essere una fedele riproduzione in scala anche nei minimi dettagli dell’altro, ma anche dinamicamente simili, ossia devono avere lo stesso valore tutti i parametri adimensionali (per es., il numero di Reynolds); queste due condizioni assicurano l’uguaglianza tra i coefficienti di forza dell’esperimento e del fenomeno reale e ciò permette di estendere i risultati ottenuti per un fenomeno anche all’altro.
La fluidodinamica computazionale
Fino ad alcuni decenni fa i modelli matematici ridotti e la sperimentazione di laboratorio erano le uniche alternative possibili per lo studio di un problema fluidodinamico; attualmente, la disponibilità di supercalcolatori ad architettura vettoriale e/o parallela ha ampliato la possibilità di scelta con la fluidodinamica computazionale (CFD, Computational Fluid Dynamics) che costituisce un valido complemento e in qualche caso persino un’alternativa agli esperimenti di laboratorio. Un vantaggio fondamentale della simulazione numerica rispetto alla sperimentazione è che nel primo caso non è necessario costruire modelli in scala, solitamente estremamente costosi, e tutta la fase di realizzazione di un prototipo, in cui le diverse soluzioni progettuali vengono verificate per prova ed errore, possono essere eseguite virtualmente con modelli numerici. Le prove di laboratorio possono essere eventualmente limitate alla sola versione semidefinitiva del prototipo, contenendo così i costi e i tempi di sviluppo di un prodotto innovativo.
L’idea di base della fluidodinamica computazionale risiede nel considerare il sistema di equazioni riportato in precedenza non in ogni punto del dominio fluido che si intende analizzare e per ogni istante di tempo, ma solo su un reticolo discreto di nodi nello spazio (detto griglia di calcolo) e per tempi discreti separati tra loro da un intervallo finito (detto passo temporale). Ciò costituisce un vero e proprio cambio di prospettiva che consente di trasformare il sistema di equazioni differenziali di partenza in un sistema di equazioni algebriche per il quale sono disponibili diverse tecniche di soluzione che diventano facilmente ed efficientemente utilizzabili da un calcolatore elettronico. La trasformazione del sistema di equazioni avviene sostituendo le derivate spaziali e temporali con loro approssimazioni discrete; ciò comporta un errore che solitamente è proporzionale a una potenza della spaziatura della griglia di calcolo e a un’altra potenza del passo temporale. In linea di principio è quindi possibile rendere l’errore piccolo a piacimento a patto di ridurre il passo temporale e rendere la griglia di calcolo più fitta, restituendo però una simulazione numerica sempre più onerosa.
Poiché per la fluidodinamica è disponibile un modello completo, le equazioni di Navier-Stokes, si potrebbe immaginare che l’integrazione numerica di tali equazioni permetta di risolvere qualunque problema pratico. Purtroppo queste equazioni, pur essendo complete, non forniscono un modello trattabile e la causa del problema è proprio la loro eccessiva completezza. Per comprendere meglio questo punto si può riconsiderare un cubo di fluido di lato L all’interno del quale sono presenti strutture fluidodinamiche di dimensioni η; se si vogliono simulare tutti i moti del fluido, anche quelli prodotti dalle scale più piccole, la spaziatura tra i punti della griglia di calcolo non potrà essere più grande di η (in realtà non può essere più grande della metà di η in base al teorema del campionamento di Shannon). Ciò implica che il numero di punti di calcolo dovrà essere dell’ordine di L/η=Re3/4 per ognuna della direzioni spaziali. Si deve anche notare che le scale di moto più piccole sono anche le più veloci, per cui il passo temporale deve essere sufficientemente piccolo per descrivere la dinamica dei fenomeni più rapidi; se T è il lasso temporale che si intende simulare (che stima anche i tempi di evoluzione dei fenomeni sulle scale L) e tη è il tempo caratteristico delle strutture più piccole, si ha che risulta T/tη=Re1/2 che dà anche una stima degli intervalli temporali necessari a coprire il tempo T con passo tη. Poiché il numero di operazioni necessarie all’integrazione delle equazioni è proporzionale al numero dei nodi della griglia di calcolo e al numero di passi temporali, ne consegue che il tempo di calcolo cresce quasi come il cubo del numero di Reynolds (Re3) mentre lo spazio richiesto per la memorizzazione dei dati aumenta come Re9/4. Purtroppo i valori del numero di Reynolds delle applicazioni pratiche sono dell’ordine dei milioni e arrivano fino a miliardi, rendendo questa strada impercorribile in quanto necessita di risorse computazionali ingenti che non sono disponibili e di cui non si prevede la disponibilità nel futuro prossimo. Solo per casi semplificati e numeri di Reynolds bassi, il cui interesse è prevalentemente confinato alla ricerca, l’integrazione delle equazioni senza alcuna ipotesi semplificativa (detta simulazione diretta) risulta possibile e anzi costituisce uno strumento di analisi insostituibile in quanto permette di studiare i meccanismi di base della dinamica di un fluido e di validare o confutare modelli o teorie approssimate.
D’altra parte la conoscenza completa di tutti i dettagli del moto del fluido risulta spesso inutile, specialmente se la fluidodinamica computazionale viene utilizzata per fini progettuali o di verifica nei quali le quantità d’interesse sono essenzialmente le forze con le loro variazioni e il trasferimento di grandezze scalari, come il calore nei problemi di raffreddamento. Queste quantità sono determinate principalmente dalla componente più a grande scala del flusso la cui dinamica è più lenta e regolare e quindi maggiormente prevedibile. L’alternativa alla simulazione diretta consiste quindi nel limitarsi all’analisi delle sole caratteristiche principali non considerando il moto completo del fluido; tale tecnica prevede che ogni grandezza, scomposta in una parte regolare e in fluttuazioni (per es., per la velocità risulterebbe u=U+u′), sia considerata nelle equazioni complete per ottenere, cercando di separare le parti, delle relazioni che contengano solo quella regolare. Purtroppo in fluidodinamica ciò non risulta tecnicamente possibile e, sebbene si riescano a ottenere delle equazioni per i campi regolari, questi continuano a dipendere dalle loro fluttuazioni. Tale circostanza prende il nome di chiusura della turbolenza e costituisce attualmente il maggior problema per l’utilizzazione della fluidodinamica computazionale nelle applicazioni pratiche. Ci sono comunque molti modelli empirici che esprimono, con vari gradi di approssimazione, i termini delle equazioni contenenti le fluttuazioni in funzione delle sole componenti regolari della soluzione; ciò permette di chiudere il problema e di fornire risposte adeguate per molti aspetti pratici. Senza entrare in dettagli di natura specialistica ci sono due tecniche differenti che permettono di simulare numericamente la parte più regolare del flusso e prendono il nome di RANS (Reynolds Averaged Navier-Stokes) e LES (Large Eddy Simulation); la prima è attualmente lo standard nelle applicazioni industriali, ha costi computazionali relativamente contenuti ma i modelli su cui poggia soffrono di poca generalità e variano molto secondo le applicazioni. La tecnica LES, al contrario, richiede maggiori risorse computazionali e per questo è meno diffusa in campo applicativo, tuttavia consente di ottenere risultati più generali, essendo basata su modelli universali che hanno una notevole capacità predittiva.
Applicazioni
Uno dei contesti in cui la fluidodinamica computazionale trova maggiore applicazione è la meteorologia che, partendo dalla situazione in un certo istante (quello attuale), cerca di calcolare come evolverà il campo di moto atmosferico per tempi successivi. In questo ambito è quanto mai evidente come precisione del modello e tempi di calcolo ridotti siano esigenze contrastanti, in quanto la prima comporta griglie di calcolo molto fitte e modelli sofisticati mentre per corrispondere alla seconda, ossia ottenere risultati in anticipo rispetto al trascorrere del tempo (previsioni), i modelli devono essere computazionalmente efficienti e sufficientemente semplici. Tuttavia, se anche si utilizzasse il miglior modello disponibile e la griglia di calcolo fosse estremamente fitta, le previsioni non sarebbero completamente affidabili in quanto un problema fondamentale della meteorologia è la determinazione delle condizioni iniziali da cui partire per l’evoluzione del modello numerico. Tali condizioni vengono infatti ottenute partendo da misure effettuate da stazioni meteorologiche, palloni sonda, navi, aerei e da dati satellitari che, essendo distribuiti in modo molto eterogeneo sulla superficie terrestre, forniscono elementi inutilmente dettagliati in alcune zone e fortemente incompleti in altre. Per poter utilizzare queste misure in un modello di previsione è necessario quindi interpolarle su una distribuzione regolare di punti che costituisce la griglia computazionale. Tutte queste operazioni introducono un’incertezza ε nella condizione di partenza e, ricordando che per un sistema dinamico il tempo di previsione è tanto più breve quanto più grande è l’incertezza iniziale, secondo la relazione [2], si comprende facilmente come le previsioni meteorologiche abbiano un’affidabilità che degrada rapidamente nel tempo. Per ovviare all’incertezza delle condizioni iniziali, queste ultime vengono spesso artificialmente alterate in modo pseudocasuale e più simulazioni numeriche vengono effettuate contemporaneamente con condizioni iniziali leggermente diverse; ciò consente di valutare la sensibilità della particolare situazione atmosferica all’indeterminatezza iniziale e quindi di poter definire la probabilità con la quale si verificherà successivamente una condizione prevista piuttosto che un’altra.
Con le risorse computazionali attualmente disponibili e nel contesto appena esposto i modelli di previsione meteorologica su scala globale hanno spaziature della griglia orizzontale dell’ordine dei 50-100 km (a latitudini intermedie) mentre lo spessore dell’atmosfera viene suddiviso in 20-50 strati. Ogni maglia della discretizzazione implicata copre pertanto un’area di centinaia o migliaia di chilometri quadrati all’interno della quale si possono verificare i fenomeni più disparati: evaporazione o condensazione d’acqua da laghi, fiumi o mari, correnti termiche in prossimità di rilievi montuosi fino ad arrivare a fenomeni più locali come le brezze o i temporali o addirittura alle scale più piccole della turbolenza. Purtroppo, data la natura non lineare delle equazioni che governano il moto di un fluido, tutti questi fenomeni non possono essere trascurati in quanto, pur avendo una natura locale, influenzano la dinamica delle scale globali (effetto farfalla) che a loro volta determinano l’evoluzione meteorologica. D’altra parte tutto ciò che evolve a scale più piccole della griglia di calcolo non può essere calcolato esplicitamente dal modello matematico e deve invece essere tenuto in conto con modelli fenomenologici contenenti delle costanti che vengono tarate mediante il raffronto a posteriori delle simulazioni numeriche con i dati misurati in atmosfera.
Poiché i modelli globali non sono sufficientemente dettagliati, per poter formulare previsioni sulla scala locale delle singole città o provincie, si utilizzano spesso dei modelli regionali che analizzano solo una porzione limitata del globo (per es., l’Europa settentrionale, il Mediterraneo o l’Australia ma ci si può spingere fino a dettagli come una singola regione italiana o una città) potendo così utilizzare griglie di calcolo con spaziature di qualche chilometro e ottenere risultati più accurati. In questo caso, tuttavia, nasce il problema di dover assegnare delle condizioni fluidodinamiche al confine (artificiale) del dominio computazionale che dipenderanno evidentemente anche da ciò che accade fuori da tale dominio e quindi non può essere previsto all’interno della simulazione numerica. In questi casi si utilizza una tecnica di annidamento (nesting) in cui la porzione di superficie terrestre che s’intende analizzare viene inserita in un modello a scala più grande e la soluzione a grana maggiore viene utilizzata soltanto per valutare l’evoluzione nel tempo delle condizioni al bordo del dominio più dettagliato.
In questa breve digressione sono stati superficialmente menzionati solo alcuni tra i problemi che vengono affrontati in meteorologia, ormai giunta a un livello di specializzazione tale da potersi considerare una disciplina a sé stante. Grazie ai continui progressi sul fronte computazionale e modellistico, che ricevono un fondamentale contributo da sperimentazioni di laboratorio e da misure effettuate direttamente in atmosfera, le previsioni a tre giorni hanno una notevole affidabilità, mentre fino al settimo giorno si possono ancora considerare abbastanza precise. È bene notare comunque che il margine di miglioramento è ancora ampio e l’orizzonte di prevedibilità è destinato ad aumentare ulteriormente e in modo costante.
La fluidodinamica computazionale ha trovato interessanti applicazioni anche in campo biomedico in quanto permette di sperimentare in modo virtuale soluzioni innovative, senza ricorrere unicamente a prove su esseri viventi (sperimentazione in vivo), e di risolvere alcune difficoltà insite nell’analisi di laboratorio (sperimentazione in vitro). D’altra parte le simulazioni numeriche devono affrontare problemi di straordinaria difficoltà rendendo queste applicazioni delle sfide di frontiera. Tra innumerevoli esempi, uno dei più importanti è il moto del sangue nel sistema cardiocircolatorio che, a sua volta, si può considerare come un insieme di problemi, ognuno dei quali di per sé complesso e meritevole di un’analisi separata.
Per comprendere meglio la questione si può partire dal cuore che con le sue contrazioni ritmiche funziona da pompa e spinge il sangue in tutto il sistema circolatorio; poiché però ci sono due circolazioni, quella sistemica e quella polmonare, anche il cuore ha al suo interno due pompe separate, la destra per la circolazione polmonare e la sinistra per la grande circolazione. Ogni singola pompa è a sua volta composta da due camere (atrio e ventricolo) separate da una valvola che assicura l’unidirezionalità del flusso sanguigno dall’atrio verso il ventricolo; un’altra valvola è posta all’uscita del ventricolo per impedire il rigurgito del flusso verso il cuore. Il sangue ossigenato parte dal cuore attraverso l’arteria aorta che nelle sue successive diramazioni si divide in arterie, arteriole e capillari portando così ossigeno e nutrimento in tutti gli organi e i tessuti fino all’estrema periferia del corpo. Nel circuito di ritorno il sangue raccoglie i prodotti del metabolismo delle cellule e degli organi (anidride carbonica e scorie) e lo convoglia verso la parte destra del cuore che alimenta la piccola circolazione nella quale il sangue viene riossigenato dai polmoni. È evidente che una rete così complicata non può essere studiata in dettaglio nella sua interezza costringendo ad analizzarne approfonditamente soltanto piccoli tratti (un ventricolo, una valvola, la biforcazione di un’arteria o un tratto di una vena). Anche in questo caso, però, il problema risulta tutt’altro che semplice in quanto il sangue è una soluzione non diluita di cellule in un liquido, il che lo rende un fluido dotato di struttura. Poco meno del 50% (ematocrito) del suo volume è infatti costituito da cellule che per la quasi totalità sono globuli rossi e questi ultimi hanno una forma di lente biconcava con un diametro di circa 8 μm, uno spessore minimo di 1 μm e una struttura estremamente elastica tanto da riuscire a fluire anche all’interno di capillari con una sezione minore delle loro dimensioni. Il comportamento macroscopico del sangue, considerato come un unico mezzo continuo, è quindi il risultato dell’interazione tra la sua parte liquida (il plasma) e la parte solida, ma anche delle interazioni tra le singole cellule che ne rendono il comportamento particolarmente complesso. Il contesto è ulteriormente complicato dal fatto che i vasi sanguigni sono caratterizzati da un certo grado di deformabilità e la loro forma dipende anche dal flusso interno; le pareti delle arterie infatti si adattano elasticamente, dilatandosi e contraendosi, agli impulsi di pressione prodotti dal battito cardiaco. Le vene non devono sopportare le stesse onde di pressione, in quanto sono poste a valle della fitta rete dei capillari che dissipa la maggior parte dell’energia; tuttavia per favorire il flusso di ritorno verso il cuore sono dotate di valvole lamellari che vengono mosse passivamente dal flusso ematico. Passivo è anche il movimento delle membrane delle valvole cardiache le quali però hanno ampi spostamenti e devono sostenere ingenti differenze di pressione (specialmente quelle del lato sinistro, le valvole aortica e mitralica). Le contrazioni e il rilassamento atrio-ventricolare sono invece movimenti attivi prodotti dal muscolo cardiaco che determinano lo svuotamento e il riempimento dei vari volumi del cuore.
In tutti i casi elencati si verifica quindi che il flusso del sangue determina la configurazione della struttura che lo contiene ma, a sua volta, la geometria del contorno influenza le caratteristiche del flusso, producendo così un sistema in cui il problema fluidodinamico e quello strutturale sono ognuno dipendente dall’altro e non possono essere studiati separatamente. Questo tipo di problema viene classificato come interazione fluido/struttura e implica difficoltà computazionali aggiuntive rispetto al già complesso problema fluidodinamico; infatti, data la stretta interdipendenza della dinamica del fluido e della controparte strutturale, entrambi i problemi devono essere integrati simultaneamente e trattati come elementi di un singolo sistema dinamico. Considerando che il diametro dell’aorta è dell’ordine di 2-3 cm, che le velocità in gioco sono intorno a 1 m/s e che il sangue è poco più viscoso dell’acqua, il numero di Reynolds caratteristico di questi flussi non eccede mai qualche migliaio, per cui il flusso risulta transizionale o con turbolenza incipiente nei grandi vasi (nel ventricolo sinistro o nell’aorta), mentre ha un carattere essenzialmente laminare nel resto del circuito. Sebbene con questo tipo di dinamica sia possibile evitare l’uso di modelli di turbolenza, bisogna però ricordare che la natura pulsatile, e quindi intrinsecamente non stazionaria, del flusso complica il calcolo delle medie e delle statistiche, in quanto necessita di campionamenti in fase, ossia di dati di molte pulsazioni distinte, ottenuti nello stesso istante richiedendo così lunghe e costose simulazioni numeriche per ricavare delle statistiche a convergenza. Nonostante tutte le difficoltà citate, nell’effettuare queste simulazioni numeriche ci sono molte ragioni che spingono all’uso del computer nello studio di fenomeni emodinamici; le motivazioni sono di tipo economico (assenza di prototipi e costosi impianti sperimentali), etico (riduzione di esperimenti in vivo su animali e pazienti volontari), e soprattutto pratico, in quanto la fluidodinamica numerica permette il calcolo e l’analisi di ogni quantità, anche di quelle non direttamente misurabili in analisi di laboratorio (per es., la storia temporale degli sforzi fluidodinamici a cui è sottoposto un globulo rosso lungo la sua traiettoria, parametro fondamentale per il fenomeno dell’emolisi).
La fluidodinamica trova ampia applicazione anche in molti contesti in cui non se ne sospetterebbe l’impiego: l’elettronica è uno di questi campi e alcune delle sue prospettive di sviluppo sono legate a fenomeni fluidodinamici. Per es., le prestazioni di un microprocessore sono legate, tra le altre cose, alla sua frequenza operativa ossia al numero di cicli di calcolo nell’unità di tempo. Purtroppo con le prestazioni cresce anche la potenza richiesta che è proporzionale al cubo della frequenza e, poiché praticamente tutta l’energia viene dissipata in calore (effetto Joule), il suo smaltimento richiede un sistema efficiente di raffreddamento che è un problema tipicamente fluidodinamico. Una delle strategie seguite per diminuire il consumo di energia è quella di ridurre le dimensioni dei singoli transistor producendo così processori di superficie sempre minore; in tal caso però, pur diminuendo la potenza richiesta, aumenta la densità di potenza da smaltire e, per i processori attuali, tale valore ha superato i livelli del nucleo di una centrale nucleare e nel futuro prossimo raggiungerà quello della superficie solare (equivalente a una potenza radiante di 8 kW/cm2 circa). Ciò rende il problema del raffreddamento particolarmente critico e obbliga a utilizzare dissipatori sempre più grandi, realizzati con metalli a elevata conducibilità termica (rame o alluminio) nei quali viene aumentata la superficie di scambio con l’aria producendo delle alettature.
Il trasferimento di calore può essere ottenuto in due diverse modalità: nel primo caso l’aria a contatto con il metallo si scalda, si espande e per galleggiamento sale verso l’alto, lasciando il posto a nuova aria fresca che lambisce le alette del dissipatore per asportare altro calore. In questo caso si è in regime di convezione naturale e i sistemi basati su questo principio sono silenziosi, non hanno bisogno di componenti aggiuntivi e quindi non consumano ulteriore energia, ma smaltiscono soltanto limitate quantità di calore e la loro potenza non è modulabile. Se invece il dissipatore è affiancato da una ventola si avrà un regime di convezione forzata in cui si produce un flusso, possibilmente in condizioni turbolente, che lambisce le alette del dissipatore in modo da aumentare il calore smaltito a unità di superficie. In questo caso si possono smaltire potenze maggiori (o a parità di potenza usare dissipatori più piccoli) e, usando ventole tachimetriche, in cui la velocità di rotazione è regolabile in base alla temperatura nel dissipatore, è possibile modulare la quantità di calore smaltito. Lo svantaggio è, tuttavia, il rumore prodotto dalle ventole e l’energia aggiuntiva consumata da queste ultime che può essere un fattore limitante nei dispositivi a basso consumo energetico.
Un fenomeno fluidodinamico rende possibile anche il funzionamento dei dischi rigidi dei calcolatori. Infatti, l’informazione di base (bit) è memorizzata su una porzione (settore) di un piattello mediante la sua polarizzazione magnetica. La testina del disco ha un componente la cui resistenza dipende dal campo magnetico in cui si trova; quindi, se inserita in un circuito elettrico, lascerà passare più o meno corrente secondo che si trovi nel campo di un settore con magnetizzazione diretta o inversa e un apposito algoritmo di controllo convertirà le variazioni di corrente in bit 0/1 la cui sequenza costituirà l’informazione immagazzinata. La capacità di memoria sempre crescente dei dischi rigidi spinge a ridurre sempre più l’area dei settori che attualmente hanno dimensioni lineari dell’ordine delle decine di nanometri fornendo per ogni pollice (2,54 cm) quadrato una quantità di settori maggiore di 100 miliardi. Una densità di informazione così elevata richiede una distanza di lettura tra disco e testina intorno ai 30 nm, sia per avere un’adeguata sensibilità sia per evitare errori in lettura che diminuirebbero le prestazioni del disco. Questa distanza deve inoltre essere mantenuta con variazioni contenute intorno ai 4-5 nm in quanto se la testina si allontana troppo dal disco non riesce più a distinguere i singoli settori, mentre se si avvicina troppo può urtare le inevitabili asperità della superficie del piattello danneggiando così irreparabilmente la pellicola magnetica deposta sul disco compromettendone il funzionamento.
È evidente che se distanze tanto piccole dovessero essere controllate con tale precisione da un sistema attivo di movimentazione, un disco rigido sarebbe un oggetto costosissimo e non potrebbe essere annoverato tra gli oggetti di uso comune. Al contrario la fluidodinamica rende tale controllo relativamente semplice e senza richiedere alcun dispositivo attivo; infatti i piattelli del disco ruotano a velocità comprese tra i 5400 e i 15.000 giri al minuto e nella loro rotazione trascinano lo strato d’aria che aderisce alla loro superficie. La testina di lettura invece di essere parallela alla superficie ha una piccola inclinazione e l’aria che fluisce tra disco e testina fornisce il sostentamento necessario a evitare che questa atterri sul piattello nello stesso modo in cui una persona che fa sci nautico riesce a scorrere sulla superficie dell’acqua senza affondare. Questo sistema permette alla testina di seguire automaticamente eventuali irregolarità del piattello in quanto è l’elasticità del braccio che consente alla testina di regolarne la distanza. In un tale fenomeno, la presenza di impurità nell’aria (polveri) può costituire un serio pericolo poiché i granelli hanno dimensioni confrontabili o superiori rispetto alla distanza tra disco e testina; se una particella di polvere si frappone tra i due elementi mentre il disco è in funzione si possono produrre rigature superficiali che danneggiano il disco stesso. Per questo motivo i piattelli sono chiusi in un involucro sigillato e ogni intervento sugli stessi (per es., un recupero dati in caso di rottura) dev’essere effettuato unicamente in camere pulite dov’è tenuto sotto controllo il livello di particelle in sospensione nell’aria.
Le stampanti a getto d’inchiostro forniscono un ulteriore esempio di come la fluidodinamica renda possibile la realizzazione a basso costo di dispositivi a elevata risoluzione. Il dispositivo di base è relativamente semplice e consiste di un microserbatoio in cui una membrana viene spostata da un attuatore piezoelettrico; ciò provoca l’espulsione da un minuscolo ugello di goccioline microscopiche di inchiostro che costituiscono il pixel di stampa. Nonostante il principio di funzionamento sia relativamente semplice, la progettazione di una testina completa è molto complessa in quanto, per avere elevate risoluzioni di stampa, per es. 1200 punti per pollice, è necessario che le gocce abbiano un diametro dell’ordine delle decine di micron, mentre per avere elevate velocità di stampa ogni testina contiene migliaia di ugelli per ogni colore e ogni ugello deve operare a frequenze anche superiori a 10 kHz. È chiaro che un simile dispositivo può funzionare soltanto se si ha il controllo delle singole gocce d’inchiostro e quindi della dinamica dei getti pulsati con tutti i meccanismi di formazione della goccia legati alla tensione superficiale nell’interfaccia tra aria e inchiostro. Il controllo della fluidodinamica è fondamentale anche all’interno del microserbatoio dove le oscillazioni di pressione ad alta frequenza possono generare delle bolle di gas formate per accumulo di aria disciolta nell’inchiostro intorno a un nucleo. La presenza di tali bolle altera le dimensioni delle gocce e può arrivare persino a impedirne completamente l’espulsione in quanto tutto il lavoro di deformazione della membrana può essere assorbito per compressione dalla bolla. Tutti questi problemi sono stati studiati sia mediante prove in laboratorio su modelli in scala sia con simulazioni numeriche, riuscendo a ottimizzare la forma e le dimensioni degli ugelli rispetto alle frequenze di oscillazione, a perfezionare il funzionamento delle testine e a minimizzare i problemi sopra descritti.
Moltissime altre applicazioni, oltre alle difficoltà legate alla turbolenza, alla complessità delle equazioni o a difficoltà tecniche nell’analisi di laboratorio, presentano anche ulteriori complicazioni teoriche dovute all’assenza di un modello comunemente accettato. Tali sono, per es., i problemi legati allo stampaggio delle plastiche o all’estrusione della pasta nell’industria agroalimentare per i quali non esiste un’unica relazione costitutiva possibile e quindi ci sono diversi possibili sistemi di equazioni di governo.
Nei problemi fluidodinamici che coinvolgono reazioni chimiche, per es. nella combustione, anche i processi più semplici implicano molte decine di reazioni intermedie che è praticamente impossibile seguire tutte nel dettaglio; il problema viene quindi semplificato, considerando dei modelli ridotti, in cui solo i passi più importanti della reazione completa vengono esplicitamente considerati. È stato però osservato che, rispetto al livello di dettaglio del modello utilizzato, si possono cogliere o meno alcuni fenomeni i quali, in funzione della specifica applicazione, possono essere trascurabili o di fondamentale importanza. Infine, con il ricorso sempre più frequente alle nanotecnologie, anche le applicazioni fluidodinamiche a dimensioni nanometriche (nanofluidodinamica) hanno assunto notevole rilevanza. Purtroppo a dimensioni così piccole diventano importanti alcune forze tra pareti e fluido che altrimenti possono essere trascurate. Le condizioni al contorno si complicano notevolmente essendo possibile anche lo scorrimento del fluido (slip) a contatto con una superficie solida e, più in generale, comincia a entrare in crisi l’ipotesi di continuo, visto che le dimensioni del problema diventano confrontabili con il libero cammino medio delle molecole. Tutti questi aspetti della fluidodinamica sono oggi oggetto di numerose ricerche, sia mediante sperimentazione di laboratorio sia con simulazioni numeriche, per poterli rendere normali strumenti di produzione nel futuro prossimo.
Bibliografia
J.D. Anderson Jr, A history of aerodynamics and its impact on flying machines, Cambridge-New York 1997.
S.B. Pope, Turbulent flows, Cambridge-New York 2000.
J.H. Ferziger, M. Perić, Computational methods for fluid dynamics, Berlin-New York 20023.