Equazioni funzionali
di Jacques Louis Lions
Equazioni funzionali
sommario: 1. Motivazione ed esempi. 2. Definizione delle soluzioni. 3. Il metodo della trasformazione di Fourier; operatori pseudodifferenziali; operatori integrali di Fourier. 4. I metodi del calcolo delle variazioni. 5. I metodi topologici. 6. I problemi di evoluzione. 7. Metodi di approssimazione. 8. Conclusioni. □ Bibliografia.
1. Motivazione ed esempi
La teoria delle equazioni funzionali si è sviluppata a stretto contatto con i problemi via via sorti nelle varie scienze, la meccanica, la fisica, ecc.
Per prima si è sviluppata la teoria delle ‛equazioni differenziali ordinarie', la quale d'altronde continua a porre problemi di estremo interesse, come ad esempio in tutte le questioni di stabilità.
Parallelamente, varie questioni di fisica, fra le quali i classici problemi scaturiti dalla teoria del calore e dalla teoria delle lamine vibranti, han fatto sorgere vari tipi di problemi con ‛equazioni alle derivate parziali'.
Ad esempio, nel caso della teoria del calore, se Ω ⊂ Rn (nei casi pratici: n = 1, 2, 3) è un aperto che rappresenta il dominio in cui si vuole studiare la temperatura u(x, t) nel punto x = {x1, ..., xn} e all'istante t, ci si riduce (in un opportuno sistema di unità di misura) all'equazione
dove
con temperatura iniziale
u (x, 0) = u0 (x),
dove u0 è dato in Ω, e una condizione al contorno che, se, ad esempio, Ω è immerso nel ghiaccio, è del tipo
u (x, t) = 0 se x∈Γ, (2)
dove Γ è la frontiera di Ω e t>0.
Nel caso più semplice della teoria delle onde, si cerca una funzione u(x, t) che sia soluzione di
quando si conoscano la posizione e la velocità iniziali
con u0 e u1 definiti in Ω, e ancora una condizione al contorno, ad esempio
u (x, t) = 0 se x∈Γ, t>0. (5)
I problemi (1)-(5) sono esempi tipici dei cosiddetti ‛problemi misti' secondo Hadamard: l'origine di questa terminologia dipende dal carattere misto delle condizioni al contorno e iniziali, le quali svolgono differenti ruoli.
Dai punti di vista fisico e teorico, può essere interessante studiare il caso in cui Ω coincide con tutto lo spazio. In tal caso scompaiono le condizioni al contorno (2) o (5) e il problema corrispondente diventa un ‛problema di Cauchy'. Si osservi che anche l'equazione del calore, per esempio, si può far rientrare in questo caso, purché si impongano delle opportune condizioni di decrescenza alla funzione u per x tendente all'infinito.
È ugualmente importante studiare i ‛problemi stazionari' associati ai problemi precedenti: essi si ottengono sopprimendo le derivate in t negli enunciati precedenti. Il problema tipo è quello di Dirichlet (v. analisi):
Naturalmente, esistono molte altre possibili condizioni al contorno. Ad esempio, invece del problema di Dirichlet (6), si può considerare il problema ‛misto'
Se Γ1 = 0/, si ritrova il problema (6). Se Γ0 = 0/, otteniamo il problema di Neumann.
Le condizioni al contorno del tipo (7b) si incontrano anche nei problemi di ‛evoluzione' relativi alla (1) o alla (3).
I precedenti problemi rientrano nella categoria dei problemi al contorno delle ‛equazioni lineari'. Ma la teoria lineare è essenzialmente insufficiente per un gran numero di fenomeni fisici, come quelli, ad esempio, in cui spostamenti troppo grandi o velocità troppo elevate non giustificano più le ipotesi di linearizzazione, che si sono dimostrate indispensabili per ricavare le equazioni precedenti. Questo è il caso della maggior parte dei fenomeni dell'idrodinamica (la quale ha svolto e continua a svolgere un ruolo assolutamente fondamentale come fonte di problemi) e di molti altri fenomeni che si incontrano nella teoria dell'elasticità, ove si abbiano grandi spostamenti, nella teoria della meccanica unilaterale, sulla quale torneremo in seguito, nella teoria della meccanica statistica, ecc.
Esplicitiamo a questo punto uno dei più noti modelli non lineari: le equazioni di Navier-Stokes, relative allo scorrimento di un fluido incomprimibile che aderisce alle pareti; se u = {u1, ..., un} rappresenta il vettore velocità, e p la pressione, il sistema di equazioni sarà
dove u0 è dato in Ω. Nella (8) la grandezza ν, che rappresenta la viscosità, è positiva.
A differenza dei problemi precedenti, la (8) rappresenta un problema ‛non lineare', per la presenza del fattore
Le equazioni alle derivate parziali non lineari compaiono anche nella teoria (essa stessa sorgente assai stimolante di problemi) della ‛geometria differenziale'. Infatti, si incontrano problemi non lineari stazionari nella minimizzazione di funzionali che si esprimano mediante integrali di derivate delle funzioni incognite sotto forma ‛non quadratica' (soltanto il caso quadratico porta a un'equazione di Eulero lineare). Uno dei più comuni funzionali della geometria differenziale è non quadratico: l'espressione dell'area della superficie x→u(x)
per u che si appoggia su una data curva, cioè per
u = ϕ con (x1, x2) ∈ ∂Ω = Γ. (10)
Il problema di ‛calcolo delle variazioni'
sotto la limitazione (10), è dunque un problema non lineare: l'equazione di Eulero, detta delle ‛superfici minime', e uno tra i più celebri modelli di equazioni alle derivate parziali non lineari.
La fisica porta, anche, sia ad ‛equazioni integrali' (v. analisi), sia ad ‛equazioni integrali alle derivate parziali', cioè contenenti non solo derivate parziali, ma anche integrali, lineari o no. A questo riguardo, il modello più noto è, probabilmente, quello delle equazioni di Boltzmann.
Segnaliamo anche lo studio dei problemi ‛multifasi', che conducono ai cosiddetti problemi di ‛frontiera libera', come, ad esempio, le equazioni di Stefan nella teoria dell'evaporazione, la teoria delle scie, ecc.
Tutti questi sono problemi non lineari. Alcuni di essi, nei casi stazionari, si riducono a problemi di calcolo delle variazioni, nei quali una delle variabili rappresenta il dominio di integrazione.
Tutte le equazioni precedenti si possono scrivere (anche se ciò è generico e dovrà essere precisato nel cap. seguente) nella forma
A (u) = f, (11)
dove A è un operatore, lineare o no, che applica uno spazio D(A) (il ‛dominio' di A che, nella sua definizione, tiene anche conto delle condizioni al contorno) su uno ‛spazio' F: essendo dato f∈F, si cerca u∈D(A) che soddisfi la (11).
Ma certe applicazioni relativamente recenti affrontate con diversa prospettiva, quali: a) i problemi di ‛controllo ottimale' connessi con le ricerche spaziali o con il controllo di processi industriali ed economici; b) i problemi di ‛meccanica unilaterale' o di meccanica con condizioni di snervamento (plasticità, materiali bloccanti, ecc.) hanno portato allo studio sistematico delle equazioni del tipo della (11) in cui A è un operatore multivoco. A(u) non è più un punto di uno spazio funzionale F, ma un sottoinsieme di F; in tal caso, si cerca u tale che
f∈A(u).
Discuteremo più avanti alcuni esempi.
Quanto è stato detto si riferisce a un universo deterministico.
Ma, naturalmente, ciò può essere insufficiente, e ha portato alla teoria delle ‛equazioni stocastiche' e, soprattutto, alla teoria del controllo ottimale dei sistemi stocastici, su cui torneremo più avanti.
Qui non insisteremo sulla teoria dei modelli o su quella dell'identificazione dei sistemi: ad esempio, nel caso di un sistema che sia retto da una equazione alle derivate parziali di tipo noto, di cui sia però incognito il valore di uno dei coefficienti (costante o variabile), si tratta di ricostruire, in modo esatto o nel miglior modo possibile, a partire da misure effettuate sullo stato del sistema e cioè sulla soluzione, questo coefficiente incognito. Problemi di questo tipo si incontrano nella geologia, nella biomatematica e così via.
È certo che i progressi delle altre scienze portano automaticamente a nuovi modelli di equazioni: se ne hanno degli esempi nella biomatematica, nell'economia (dove intervengono, tra le altre, equazioni ‛a ritardo') ecc.
Le prime questioni di carattere matematico che insorgono in relazione a un nuovo modello sono: a) il problema è ‛ben posto'? Ammette cioè un'unica soluzione, dipendente in modo continuo dai dati (ovviamente in una topologia da precisare)? b) il problema è ‛stabile'? Si possono ottenere alcune proprietà delle soluzioni (una stima approssimata, il comportamento all'infinito, ecc.)? c) è possibile calcolare numericamente la soluzione servendosi di un sistema informatico più o meno evoluto?
Tenteremo, ora, di fornire qualche indicazione sulla soluzione di questi problemi, raggruppando le nostre idee secondo i possibili metodi di soluzione dei problemi.
Il primo preblema da affrontare, pertanto, concerne la definizione precisa di ciò che si intende per ‛soluzione'.
2. Definizione delle soluzioni
È naturale cominciare con il caso delle equazioni lineari alle derivate parziali senza condizioni al contorno.
In altri termini, sia P un operatore differenziale di ordine m,
in cui si supponga dapprima che i coefficienti pα siano differenziabili indefinitamente.
Nel cap. 1 abbiamo incontrato i seguenti esempi:
La fisica matematica è ricca di molti altri esempi; ma in tal caso si deve delineare un quadro ben più generale, il quale, a sua volta, si dimostra utile per le applicazioni.
Ci proponiamo di considerare, dal punto di vista più generale possibile, la seguente equazione:
Pu = f. (12)
A tale scopo, conviene cercare di operare in uno spazio vettoriale topologico che sia ‛sufficientemente grande', in modo che ogni suo elemento sia una funzione derivabile quante volte si voglia, in un senso opportuno.
Per questo si utilizza la dualità. Si introduce uno spazio ‛molto piccolo': lo spazio D (Rn) = D delle funzioni C∞ a supporto compatto in Rn (funzioni di questo tipo esistono e sono anche assai numerose; ad esempio D è denso nello spazio L2(Rn) delle funzioni a quadrato sommabile); seguendo L. Schwartz, si introduce in questo spazio ‛molto piccolo' una topologia ‛molto fine'. In tal modo una successione ϕj ∈ D tenderà a zero in D se: a) tutte le ϕj hanno i loro supporti in un compatto fisso; b) le ϕj, insieme a tutte le loro derivate, tendono uniformemente a zero.
Allora, per definizione, lo spazio delle distribuzioni è il duale D′ di D.
La proprietà fondamentale per porre problemi del tipo (12) è che ogni distribuzione g ∈ D′ ammetta derivate Dαg ∈ D′ ∀ α.
Indichiamo, perciò, con 〈g, ϕ > il prodotto scalare tra g ∈ D′ e ϕ ∈ D, nella dualità tra D′ e D; se g è una funzione, allora
e se g è derivabile, allora
Ora, se g ∈ D′, si assume la (13) come definizione di ∂g/∂xi.
Si verifica che (∂g/∂xi) ∈ D′ e si definisce Dαg per ricorrenza:
〈Dαg, ϕ> = ( − 1)∣α∣ 〈g, Dα ϕ >.
In tal caso, se u ∈ D′, siamo in grado di definire Pu, e cioè poniamo
pαg ∈ D′ per 〈pαg, ϕ> = 〈g, pα ϕ>.
Il problema generale naturale diventa, pertanto, il seguente: per f data in D′, trovare u in D′ che sia soluzione della (12).
Ciò conduce a delle classificazioni di operatori assai interessanti: quelli per cui tutte le soluzioni sono C∞ (oppure analitiche) qualora lo sia il secondo membro; si ottiene in tal modo la classe degli operatori ipoellittici (o, rispettivamente, quella degli operatori ellittici).
Una formulazione così generale ha il grande pregio di semplificare l'enunciato dei problemi; ad esempio, si deve a H. Lewy la scoperta di certi operatori P per i quali la (12) può non avere soluzione; donde il problema: quali sono gli operatori P per i quali esistono sempre delle soluzioni in D′.
È possibile d'altronde procedere, in modo assai ragionevole, a un'ulteriore generalizzazione del problema, introducendo degli spazi ancora ‛più piccoli' di D, come quelli delle classi di funzioni quasi-analitiche: ad esempio, lo spazio gs delle funzioni di Oevrey di ordine s >1 e a supporto compatto; considerandone lo spazio duale, si ottengono le classi di ultradistribuzioni, nelle quali si possono porre dei problemi analoghi ai precedenti.
Queste teorie forniscono gli strumenti per la formulazione dei problemi lineari che non hanno condizioni al contorno.
Per i problemi in cui vi siano condizioni al contorno, lo strumento principale è costituito da particolari classi di distribuzioni su un aperto Ω, quali sono gli spazi di Sobolev e i loro duali.
Indichiamo con Hm(Ω) lo spazio delle classi di funzioni v e L2(Ω) tali che
Dαv ∈ L2(Ω) ∀ ∣ α ∣ ≤ m.
(Dαv è calcolato nel senso delle distribuzioni su Ω); introduciamo ora nello spazio Hm(Ω) la norma ‛hilbertiana'
Indichiamo con H0m(Ω) l'aderenza di D (Ω) in Hm(Ω) (D(Ω) è lo spazio delle funzioni C∞ a supporto compatto in Ω) e con H-m(Ω) il duale di H0m(Ω).
Il problema di Dirichlet (6) si può allora formulare nei termini seguenti: assegnata f in H-1(Ω), trovare una u∈H01(Ω) che sia soluzione di
−Δu = f.
Questa formulazione è giustificata dal fatto che
u ∈ H01(Ω) È u ∈ H1(Ω) e u = 0 su Γ.
Si noti che le condizioni al contorno sono state, per dir così, ‛trasferite' nelle definizioni degli spazi. Ritornando a quanto affermato a proposito della (11), si ha
D (A) = H01(Ω), F = H-1(Ω).
È istruttivo dare, inoltre, una formulazione ‛funzionale' del problema. Se si introduce
si può verificare senza difficoltà che se u è soluzione ‛regolare' delle (7), allora
u ∈ V, a (u, v) = (f, v) ∀ v ∈ V, (14)
dove
Viceversa, se u è soluzione della (14) allora non è possibile, senza qualche ipotesi supplementare sui dati e sulla regolarità di Γ, fare il calcolo inverso e risalire alle (7). Si assume allora la (14) come nuova definizione del problema e ogni possibile soluzione della (14) si dice ‛soluzione debole' del problema (7).
Occorre notare che una definizione debole è assolutamente indispensabile, poiché, senza una opportuna definizione generalizzata, non sarebbe possibile, per esempio, porre il problema di Neumann, neppure nel caso di un dominio cubico.
Queste formulazioni deboli si estendono ai problemi di evoluzione e a quelli non lineari. Mostriamo la possibilità di tale estensione nel caso delle equazioni di Navier-Stokes (8).
Introduciamo lo spazio
V = {v ∣ v ∈ (H01(Ω))n, div v = 0}
(spazio che ‛tiene conto' della seconda e della terza condizione (8) e definiamo
Indicata con u(t) la funzione vettoriale x → u(x, t), si vede che, se u è soluzione ‛regolare' della (8), allora
dove
Viceversa, ogni soluzione della (15) sarà, per definizione, ‛soluzione debole' del problema: è l'idea ormai classica, introdotta da Leray fin dal 1932, per le ‛soluzioni turbolente'. Osserviamo che nella (15) si deve ancora precisare la dipendenza da t, cosa che qui non facciamo, poiché richiederebbe delle nozioni di carattere eccessivamente tecnico come, ad esempio, quella di ‛distribuzione a valori vettoriali'.
Gli spazi di Sobolev Hm(Ω), costruiti su L2(Ω), possono essere insufficienti per i problemi non lineari. Più spesso si introducono gli spazi di Sobolev Wm,p(Ω) su Lp(Ω), con 1 ≤ p ≤ ∞:
Wm,p(Ω) = {v ∣ v ∈ Lp(Ω), Dαv ∈ Lp(Ω) ∀ ∣ α ∣ ≤ m},
nei quali Wm,2(Ω) = Hm(Ω). Così sarà del tutto naturale considerare il funzionale (9) sullo spazio W1,1(Ω). In generale, se si introduce in Wm,p(Ω) la norma
otteniamo uno spazio ‛riflessivo', ad eccezione dei casi in cui p = 1 e p = ∞; la non riflessività di W1,1(Ω) è alla origine delle grandi difficoltà che si incontrano nella teoria delle superfici minime.
Si può osservare, in base a quanto esposto finora, che si perde molto in generalità passando dai problemi delle equazioni senza condizioni al contorno (che vengono posti negli spazi generali delle distribuzioni o delle ultradistribuzioni) a quelli con condizioni al contorno (in questo altro caso, i problemi sono stati posti in spazi molto particolari di distribuzioni); invero, è possibile, dimostrando dapprima certe proprietà di regolarità, quindi trasponendole, risolvere i problemi al contorno lineari in spazi di distribuzioni e di ultradistribuzioni. Ciò è, invece, essenzialmente impossibile nel caso di problemi non lineari.
In conclusione, disponiamo ora degli strumenti mediante i quali diventa possibile porre in modo rigoroso i problemi di equazioni alle derivate parziali; presentiamo nel seguito qualcuno dei metodi essenziali per la risoluzione di questi problemi.
3. Il metodo della trasformazione di Fourier; operatori pseudodifferenziali; operatori integrali di Fourier
Supponiamo che P sia un operatore a coefficienti costanti, cioè
a priori, il metodo più naturale per risolvere l'equazione
Pu = f (16)
consiste nell'utilizzare la trasformazione di Fourier.
Per esempio, se v è una funzione sommabile su Rn, la sua trasformata di Fourier ö sarà la funzione data da
dove 〈x, ξ> = x1ξ1 + ... + xnξn.
Conviene definire, innanzi tutto, la trasformata di Fourier di una funzione o di una distribuzione, che sia più generale possibile. A tal fine, si utilizza di nuovo il concetto di ‛dualità'. Introduciamo, seguendo L. Schwartz, lo spazio ‛più piccolo possibile' delle funzioni v tali che v e ö posseggano proprietà analoghe: volendo precisare questa idea, si arriva a introdurre lo spazio S = S(Rn) delle funzioni C∞ a decrescenza rapida
S = {v ∣ xαDβv ∈ L2(Rn) ∀ α, ∀ β},
che è uno spazio di Fréchet (cioè metrizzabile e completo) per la famiglia di seminorme
pαβ(v) = ∥ xαDβv ∥L2(Rn).
Si dimostra allora facilmente che v→ö è un isomorfismo
S(Rnx) → S(Rnξ).
Introduciamo allora lo spazio S′ duale di S, che è lo spazio delle distribuzioni a crescenza lenta. Definiamo, quindi, la trasformata di Fourier di f ∈ S′ per trasposizione:
< ô, ϕ > = <f, ϕ> ∀ϕ ∈ S(Rn).
Tale definizione è giustificata dal fatto che, se f è, ad esempio, una funzione sommabile, allora:
L'applicazione f → ô è un isomorfismo S′ → S′. Scriveremo ancora formalmente (indicando le distribuzioni come funzioni)
ô(ξ) = ∫ ei〈x,ξ>f(x) dx,
e avremo la formula d'inversione
̂
f(x) = (2π)-n ∫ ei〈x,ξ>ô(ξ) dξ. (17),
Utilizziamo ora questo strumento fondamentale per risolvere il problema (16), in cui si precisa che f è data in S′ e che si cerca u in S′.
La trasformata di Fourier di ∂u/∂xj è iξjû, così che, se si pone
allora la (16) equivale a
P(ξ)û = ô . (18)
Il polinomio P(ξ) (uguale alla trasformata di Fourier di Pδ, dove δ è la densità di massa nell'origine) è il ‛simbolo' dell'operatore P. Formalmente, la soluzione della (18) è evidente:
da essa, utilizzando la formula di inversione (17), si ricava
Naturalmente, vi sono difficoltà tanto maggiori quanto maggiore è la varietà delle ξ reali per le quali P(ξ) = 0. Così non vi è alcuna difficoltà se
P = − Δ + identità,
perché in tal caso la (19) dà
È, tuttavia, possibile adattare la (19) integrando nello spazio complesso ed evitando così la varietà P = 0. In tal modo si giunge a dimostrare che per ogni f in D′ (e non più solo in S′) esiste u in D′ soluzione della (16).
In particolare, esiste una distribuzione E soluzione di
PE = δ.
In tal caso si dice che E è soluzione elementare di P. È possibile classificare gli operatori P a partire dalle proprietà delle soluzioni elementari. Perciò, dire che P è ellittico (oppure ipoellittico) equivale a dire che esiste una soluzione elementare analitica (oppure C∞) al di fuori dell'origine (poiché δ è ‛nulla' fuori dell'origine). Un problema interessante, in cui interviene la geometria algebrica, consiste allora nel caratterizzare mediante le proprietà del polinomio P(ξ) la proprietà di ipoellitticità. Tale problema è stato risolto da Hörmander nel 1955.
Allo stesso modo si possono introdurre gli operatori iperbolici che sono, all'incirca, gli operatori P che ammettono una soluzione elementare con supporto entro un cono strettamente convesso. Si verifica facilmente, allora, che l'operatore (∂2/∂t2) − Δ è iperbolico: esso ammette una soluzione elementare con supporto entro il cono K = {∣ x ∣ ≤ t, con t > 0}. È noto ed è facile da verificare che uno studio più preciso del supporto della soluzione elementare di (∂2/∂t2) − Δ fa intervenire la dimensione dello spazio: se la dimensione dello spazio è dispari, il supporto è costituito dalla frontiera del cono K, mentre il supporto è tutto il cono K, se la dimensione è pari. Tale proprietà è fondamentale per le applicazioni in fisica; su di essa si fonda, per esempio, il fenomeno della propagazione delle onde in 3 dimensioni.
Nelle applicazioni, ad esempio in geofisica, si incontrano dei sistemi iperbolici per i quali è importante conoscere le proprietà del supporto di una soluzione elementare. È questo il problema generale della ‛teoria delle lacune': si tratta di trovare, a partire dalle proprietà algebriche di P(ξ) o di un sistema di polinomi), le proprietà dei ‛buchi' del supporto di una soluzione elementare. Successivamente ai lavori di Petrowski del 1936, questa teoria è stata sviluppata e approfondita da M. Atiyah, R. Bott e L. Gårding (1970).
Segnaliamo, inoltre, il fatto che si possono studiare sistemi del tipo
Piu = fi, i = 1, ..., N
che intervengono, per esempio, nella teoria delle funzioni di più variabili complesse. Naturalmente, affinché il problema possa ammettere una soluzione, i dati fi devono soddisfare delle condizioni di compatibilità del tipo Pjfi = Pifj ∀ i, j. La soluzione di questi problemi dipende in larga misura da proprietà di geometria algebrica.
Riassumendo, l'algoritmo costituito dalla trasformazione di Fourier fornisce gli elementi necessari per la soluzione delle equazioni generali lineari a coefficienti costanti, senza condizioni al contorno.
Per tener conto delle condizioni al contorno, si consideri il problema seguente:
Pu = f in Ω, Bju = gj su Γ, (20)
dove P e Bj sono degli operatori a coefficienti costanti e Ω è il semispazio definito da {x ∣ xn > 0}. Si effettui una trasformazione di Fourier nelle variabili ‛tangenziali' x1, ..., xn-1; il problema (20) si riduce allora a un'equazione differenziale ordinaria nella variabile xn, nella quale la variabile ξ = {ξ1, ..., ξn-1} funge da parametro, con condizioni al contorno per xn = 0 e condizioni di decrescenza per xn→ + ∞ che dipendono anch'esse dal parametro. Si perviene così a certe condizioni (algebriche) necessarie e sufficienti, che devono essere soddisfatte dal sistema {P, Bj}; si tratta delle condizioni necessarie e sufficienti affinché il problema (20) sia posto in modo corretto e si sogliono indicare col nome di condizioni di Lopatinski-Shapiro.
Ciò permette, allora, di risolvere il problema ellittico generale (lineare): si consideri in un aperto Ω un operatore ellittico A di ordine 2m a coefficienti variabili con sufficiente regolarità. Siano, inoltre, Bj operatori di ordine ≤ 2m − 1. Il problema consiste nel trovare, in modo conveniente, una soluzione di
Au = f, Bju = gj su Γ. (21)
Mediante mappe locali e partizioni dell'unità, ci si riduce al problema (20), per operatori a coefficienti variabili. Fissando i coefficienti in un punto x0 qualunque del bordo, si scrivono le condizioni di Lopatinski-Shapiro in questo punto x0; quindi, facendo variare x0, si ottengono le condizioni necessarie e sufficienti affinché il problema (21) sia posto correttamente (ciò consente di risolvere il problema negli spazi di Sobolev costruiti su L2 e, con l'ausilio inoltre della teoria di Calderon-Zygmund-Michlin sugli integrali singolari, negli spazi di Sobolev costruiti su Lp, 1 〈 p 〈 ∞).
Se Ω è un ‛aperto limitato', il nucleo N dell'operatore A per condizioni al contorno Bju = 0, cioè
N = {u ∣ Au = 0, Bju = 0 su Γ, ∀ j},
ha dimensione finita, al pari del nucleo N* del problema aggiunto. L'indice del problema è χ = dim N − dim N*. Il problema riguardante l'‛invarianza dell'indice' per differenti modifiche del problema è stato risolto da Atiyah e Singer nel 1963, poi da Atiyah e Bott nel 1964, mediante l'impiego contemporaneo di risultati di analisi e di topologia. Uno strumento importante, per la grandissima flessibilità che introduce nelle ‛modifiche' da apportare a un dato operatore, è costituito dagli operatori ‛pseudo-differenziali'.
Se si vogliono estendere le considerazioni svolte all'inizio di questo capitolo agli operatori a ‛coefficienti variabili'
si è portati a introdurre il ‛simbolo di P'
e a considerare in modo del tutto generale gli operatori pseudodifferenziali
Af(x) = (2π)-n∫ei〈x,ξ>a(x, ξ)ô(ξ)dξ,
dove a si comporta come somma di funzioni omogenee per ∣ ξ ∣ → ∞. Si può estendere completamente la teoria dei problemi al contorno ellittici, sostituendo gli operatori differenziali con opportuni operatori pseudodifferenziali. Soprattutto, si può fare un passo avanti decisivo nella generalizzazione degli operatori differenziali, con la teoria dovuta a Hörmander e Maslov degli ‛operatori integrali di Fourier'. La motivazione è la seguente: la soluzione del problema di Cauchy
è data da
Tale formula conduce alla definizione degli ‛operatori integrali di Fourier'
Af(x) = ∫eiS〈x,ξ>a(x, ξ)ô(ξ) dξ
per opportune coppie di funzioni S e a. La teoria degli operatori integrali di Fourier, sviluppata da Hörmander tra il 1969 e il 1970, si adatta sostanzialmente allo studio di operatori non ipoellittici con metodi simili a quelli classici delle trasformazioni di Fourier. Il loro uso fa intervenire la teoria classica delle caratteristiche e delle bicaratteristiche.
Questi operatori sono legati anche alla teoria degli sviluppi asintotici e trovano utile impiego, mediante una equazione iperbolica, nello studio delle proprietà asintotiche degli autovalori degli operatori ellittici.
Sostanzialmente, quindi, il metodo della trasformazione di Fourier, con le sue notevoli generalizzazioni, è lo strumento di base per la soluzione dei problemi lineari di equazioni alle derivate parziali. Altri strumenti sono indispensabili per lo studio di problemi non lineari. Vogliamo iniziare qui dai problemi connessi con il calcolo delle variazioni.
4. I metodi del calcolo delle variazioni
L'osservazione fondamentale è la seguente: se K è un insieme convesso chiuso di uno spazio di Banach riflessivo V e se J è un funzionale convesso continuo su K tale che
J(v) → + ∞ se ∥ v ∥ → ∞, v ∈ K,
allora esiste u ∈ K tale che
Inoltre, se J è ‛strettamente' convesso, cioè se
J((1 − θ)u + θv) 〈 (1 − θ)J(u) + θJ(v)
se 0 -〈 θ 〈 1, u ≠ v,
allora, evidentemente, u, soluzione della (22), è unica.
Se, poi, il funzionale J è differenziabile, l'elemento u soluzione della (22) è caratterizzato da
u ∈ K, (J′(u), v − u) ≥ 0 ∀ v ∈ K, (23)
dove il simbolo (,) indica il prodotto scalare di cui è dotata la coppia di spazi V′ e V; le disequazioni (23) generalizzano le equazioni di Eulero.
Esempio 1: problema lineare. Sia J quadratico e K = V; allora J′ è un operatore lineare e le (23) si riducono alla
J′(v) = 0. (24)
Si può prendere, ad esempio,
V = H01(Ω), J(v) = ½a(v, v) − (f, v), f ∈ H-1(Ω).
La (24) diviene allora il problema di Dirichlet.
Esempio 2: problema non lineare. Sia J quadratico,
Si verifica che K è un cono convesso chiuso in V e che esiste un'unica soluzione u delle (23). Il sistema si interpreta in questi termini:
Questo è un ‛modello' dei problemi di condizioni unilaterali della teoria dell'elasticità (Signorini).
Queste semplici considerazioni non si applicano al problema delle superfici minime in quanto in tal caso si deve prendere V = W1'1(Ω), che non è riflessivo.
La teoria precedente può essere estesa nel modo seguente: si verifica che, se J′ è la derivata del funzionale convesso J, che si suppone differenziabile, allora
(J′(u) − J′(v), u − v) ≥ 0.
Generalmente, un operatore non lineare v→A(v) di V→V′ si dirà monotòno se
(A(u) − A(v), u − v) ≥ 0 ∀ u, v ∈ V.
L'operatore J′ è dunque monotòno; ma il viceversa non è vero. Ciò porta a considerare le equazioni
A(u) = f (25)
o, più in generale, le disequazioni
u ∈ K, (A(u) − f, v − u) ≥ 0 ∀ v ∈ K (26)
per degli operatori A monotòni che verificano alcune ipotesi tecniche di continuità. Se
allora esiste u soluzione di (25). Le considerazioni precedenti si possono estendere anche agli operatori ‛pseudomonotòni', in modo da raggruppare tutti i casi ‛riflessivi', sia quelli che si presentano nel calcolo delle variazioni, sia altri che vengono affrontati con metodi diversi.
Possiamo fare ancora un passo avanti, utile per le applicazioni. Fin qui abbiamo supposto che il funzionale considerato fosse differenziabile; ora, nel caso di un funzionale convesso continuo non differenziabile, possiamo ‛sostituire' a J′(u) il ‛sub-differenziale' ∂J(u) di J nel punto u:∂J(u) è l'insieme degli elementi p∈V′ tali che
J(v) − J(u) − (p, v − u) ≥ o ∀ v ∈ V.
L'operatore ‛multivoco' v → ∂J(v) è monotòno e ciò conduce a studiare le equazioni multivoche
f ∈ A(u),
dove A è un operatore multivoco monotòno.
Alla teoria delle funzioni convesse si suole classicamente associare, seguendo Legendre, una teoria ‛duale' che si ottiene prendendo spunto dal fatto che una funzione semicontinua inferiormente è l'inviluppo superiore delle funzioni affini che essa domina.
In modo del tutto generale, si introducono le funzioni ‛convesse proprie' ψ, che sono le funzioni convesse su uno spazio di Banach riflessivo V, semicontinue inferiormente, che assumono i valori entro ] − ∞, + ∞], con ψ≢+ ∞. In tal caso la funzione ψ*, duale di ψ, è data da
Si perviene così a formulazioni duali per i problemi di calcolo delle variazioni e si ottengono alcune informazioni nei casi non riflessivi; ciò consente, in tali casi, di considerare un problema duale che ammette una soluzione. In questo modo, si ottengono soluzioni generalizzate per il problema delle superfici minime.
Altre soluzioni generalizzate per problemi di superfici minime sono state introdotte mediante procedimenti geometrici diretti, che si basano sulla teoria della misura o su opportune estensioni del concetto di varietà.
Un problema classico, cui sono stati dedicati fin dall'inizio del secolo molti importanti lavori, è quello della ‛regolarità': in quali circostanze può accadere che delle soluzioni generalizzate siano anche soluzioni ordinarie, addirittura C∞ o analitiche?
È interessante notare che in questi problemi ha grande importanza la dimensione dello spazio.
In connessione col calcolo delle variazioni, si deve anche segnalare l'importante idea, dovuta a Jacobi, di introdurre dei parametri supplementari per ricondurre il problema a una famiglia di problemi di calcolo delle variazioni.
Senza entrare nei particolari tecnici, diciamo che se si ha una famiglia, di funzionali Jλ(v) dipendenti da un parametro λ (che può essere un elemento di uno spazio funzionale), allora
infv Jλ(v) = V(λ)
e in certi casi si può stabilire un'equazione alle derivate parziali o un'equazione alle derivate funzionali che caratterizza V. Reciprocamente, si può pensare che infvJλ(v) fornisca una soluzione, o la soluzione, dell'equazione soddisfatta da V. Questo procedimento è di notevole importanza nella risoluzione di alcuni sistemi di equazioni iperboliche non lineari (in connessione, d'altronde, con certi problemi di minimizzazione stocastici o con problemi della teoria dei giochi).
Abbiamo appena citato le equazioni alle derivate funzionali; questo tipo di equazioni si incontra anche nella teoria della turbolenza e in certe questioni della teoria quantistica dei campi. Visto il ruolo fondamentale svolto dalla trasformazione di Fourier nelle equazioni alle derivate parziali ordinarie, si è posto in modo del tutto naturale il problema di estendere questo concetto alle equazioni con un insieme infinito di variabili, in connessione con le equazioni alle derivate funzionali; si deve allora estendere il concetto di integrazione a spazi di dimensione infinita, ciò che per la prima volta è stato fatto per i problemi di probabilità. Incontreremo di nuovo questo procedimento nei problemi di approssimazione numerica.
5. I metodi topologici
Naturalmente non tutti i problemi stazionari non lineari che si incontrano nelle applicazioni fanno intervenire degli operatori monotòni. Un'idea classica per la soluzione di
A(u) = f (27)
si fonda sull'osservazione che, qualunque sia l'operatore lineare o non lineare B, la (27) equivale a
A(u) − f + B(u) = B(u),
o, ancora, se B è invertibile, a
B-1(A(u) − f + B(u)) = u.
Se, dunque, si considera l'operatore S dato da
S(v) = B-1(A(v) − f + B(v)),
il problema equivale alla ricerca dei ‛punti fissi' di S, cioè degli elementi per i quali
S(u) = u.
La teoria dei punti fissi è dominata dal concetto di ‛grado topologico' e dai risultati di Leray-Schauder (1934), che sono stati il punto di partenza di ricerche tuttora vivaci e interessanti.
Altre teorie topologiche sono evidentemente utili in analisi non lineare. Ad esempio, molti problemi di meccanica e di fisica conducono alla ricerca di elementi u di data norma che soddisfino l'equazione
A(u) = λB(u),
dove A e B sono due operatori ellittici non lineari. È questa la cosiddetta teoria degli ‛autovalori non lineari' che si riconduce al calcolo delle variazioni su varietà di dimensione infinita e all'utilizzazione della teoria di Lusternik e Schnirelmann.
Segnaliamo anche l'uso della topologia in tutte le questioni di ‛biforcazione' e di ‛stabilità'.
6. I problemi di evoluzione
Fin qui abbiamo voluto dare un'idea della teoria dei problemi al contorno non lineari ‛stazionari'. Passiamo ora ai problemi di ‛evoluzione'.
Nel caso dei problemi lineari, si deve a Fourier l'osservazione classica secondo cui, se si utilizzano le autofunzioni della parte ellittica dell'operatore, il problema si riduce a dei sistemi di equazioni differenziali ordinarie. Si deve a Galerkin l'osservazione che può anche essere conveniente, invece, servirsi di una ‛base' di funzioni qualsiasi piuttosto che di autofunzioni.
Si consideri il caso delle equazioni di Navier-Stokes. Allora, se Vm indica un sottospazio di V di dimensione finita m, la (15) viene approssimata dall'equazione differenziale ordinaria non lineare
Si dimostra allora, mediante una serie di opportune valutazioni a priori e l'uso di teoremi di compattezza, che um converge in modo opportuno verso una soluzione u del problema di Navier-Stokes. A tal proposito va ricordato che, anche dopo i lavori classici di Leray e quelli più recenti di numerosi ricercatori, in diverse direzioni, il problema fondamentale dell'idrodinamica non è stato ancora completamente risolto: se la dimensione dello spazio è uguale a 2, si conoscono parecchie classi funzionali per le quali si è dimostrata l'esistenza e l'unicità della soluzione, ma il problema analogo in spazi a 3 dimensioni è ancora aperto; si conoscono alcune classi funzionali in cui si ha l'esistenza, ma non si sa nulla sull'unicità, e viceversa. Analogamente, il problema del comportamento delle soluzioni quando la viscosità tende a zero, che è fondamentale nell'idrodinamica applicata, resta ancora aperto.
Nel caso in cui l'equazione di evoluzione, lineare o no,
ammetta un'unica soluzione opportuna, allora l'applicazione
u0→u(t) = G(t)(u0)
definisce un ‛semigruppo' lineare o no.
Nel caso lineare, si può scrivere formalmente
G(t)u0 = e-tAu0,
e l'operatore A si comporta come il ‛generatore infinitesimale' del semigruppo: in un senso opportuno, si ha
Diviene allora naturale tentare di invertire il ragionamento e di trovare a priori le condizioni necessarie e sufficienti affinché A sia generatore infinitesimale di un semi- gruppo. Naturalmente esistono nozioni diverse di semi- gruppo; i semigruppi più generali sono quelli di distribuzioni o di ultradistribuzioni. In questo contesto ci si riferirà ai semigruppi ‛continui'. La teoria di Hille-Yosida fornisce, nel caso di un semigruppo continuo, le suddette condizioni necessarie e sufficienti, espresse mediante le proprietà dello spettro di A.
Nelle applicazioni sarà quindi sufficiente verificare che un dato operatore differenziale A soddisfi le proprietà del teorema di Hille-Yosida. Si è potuta estendere la teoria anche in alcuni dei casi in cui l'operatore A dipende da t.
La teoria dei semigruppi è molto utile anche nella teoria delle probabilità, ad esempio nello studio dei semigruppi di Markov.
Si devono segnalare soprattutto le recenti estensioni della teoria al caso di problemi non lineari; la teoria dei semigruppi non lineari è ancora in pieno sviluppo.
Naturalmente, se si ritorna al caso lineare, la teoria dei semigruppi è legata a quella della ‛trasformazione di Laplace'. Utilizzando la trasformazione di Laplace nel senso delle distribuzioni, si è potuto dimostrare che tutti i problemi di evoluzione lineare ‛ben posti' possono essere risolti mediante la trasformazione di Laplace in t.
Segnaliamo ancora un'estensione della teoria lineare delle equazioni di evoluzione
a una situazione più generale, in cui intervengono equazioni operazionali del tipo
Bu + Au = f,
in cui A e B sono operatori non limitati che soddisfano opportune proprietà spettrali.
Infine segnaliamo l'estensione, utile nella teoria del controllo ottimale dei sistemi retti da equazioni alle derivate parziali e in certi problemi di fisica quantistica, della teoria dei semigruppi al caso in cui gli elementi u(t) della funzione incognita siano in un' ‛algebra'. Recenti applicazioni della meccanica e della fisica hanno portato a disequazioni di evoluzione del tipo (cfr. 25 e 26)
o
e ad altre ancora.
Queste disequazioni di evoluzione possono essere trattate utilizzando la teoria dei semigruppi non lineari o con vari metodi di approssimazione con equazioni di tipo noto. Torneremo su questo punto nel capitolo successivo.
7. Metodi di approssimazione
Abbiamo già avuto occasione di incontrare, a proposito della (28), un metodo di approssimazione: l'equazione alle derivate parziali non lineare da risolvere è stata approssimata con un sistema di equazioni differenziali.
Per poter utilizzare i calcolatori elettronici, è necessario approssimare la soluzione cercata mediante certe soluzioni di equazioni algebriche.
Prendiamo in considerazione per primo il caso stazionario.
Nel caso lineare, il metodo di approssimazione più classico della soluzione di
Au = f, (29)
con opportune condizioni al contorno, consiste nel sostituire alle derivate parziali dei rapporti incrementali: è questo il metodo delle ‛differenze finite'. Naturalmente si può approssimare una data derivata con una infinità di rapporti incrementali, facendo intervenire un numero più o meno grande di punti del reticolo discreto sul quale ci si pone. Si ha, dunque, a priori una infinità di schemi possibili con differenze finite: per la scelta dello schema, sia
Ahuh = fh (30)
(dove h sta ad indicare un parametro a una o più dimensioni che serve a individuare il reticolo di discretizzazione); si deve verificare naturalmente che il problema algebrico (30) ammette un'unica soluzione, quindi verificare che lo schema è convergente verso la soluzione u della (29). Tra i diversi schemi convergenti, la scelta - che può anche essere difficile - deve tenere conto della stima dell'errore, della facilità di definire lo schema e della natura più o meno semplice della matrice Ah.
Un'importante variante del metodo delle differenze finite è quello degli elementi finiti. Ad esempio, nel quadro del problema (14) si sceglie un sottospazio Vh di V formato da funzioni lineari a tratti, o da polinomi di terzo grado a tratti, e a supporto ‛piccolo' in una triangolazione del dominio Ω, nel caso bidimensionale. Allora alla (14) si sostituisce
uh ∈ Vh, a(uh, vh) = (f, vh) ∀ vh ∈ Vh. (31)
Il sistema (31) è ancora un sistema algebrico lineare, in cui il numero delle equazioni è uguale alla dimensione di Vh.
Nei casi non lineari, dopo aver discretizzato, bisogna ricorrere a metodi iterativi di linearizzazione; si noti, d'altra parte, che da un punto di vista pratico non si deve trascurare la risoluzione effettiva delle equazioni algebriche (30) e (31); anche per questa in genere si è fatto ricorso a vari metodi iterativi.
Come si è visto nel cap. 4, un gran numero di problemi stazionari non lineari ha avuto origine dal calcolo delle variazioni. Utilizzando l'equazione di Eulero, ci si può ricondurre in certi casi alla risoluzione di problemi del tipo precedente. Ma, come si è già visto al cap. 4, l'equazione di Eulero può essere una disequazione (cfr. 23) la cui risoluzione numerica richiede metodi particolari; l'idea più semplice è quella di tornare alla formulazione iniziale e di affrontare il problema mediante una successione di problemi analoghi in dimensione finita, sostituendo V con Vh. Si possono utilizzare anche i metodi di dualità. Tutto ciò porta alla teoria della programmazione matematica (lineare, quadratica, convessa non quadratica, con o senza condizioni, ecc.) incontrata altrove: in economia matematica, nella ricerca operazionale e nel controllo ottimale. Aggiungiamo inoltre che diversi ricercatori hanno utilizzato la teoria della programmazione matematica per la risoluzione di equazioni alle derivate parziali, muovendo dall'osservazione evidente che la risoluzione di A(u) = f equivale alla minimizzazione di ∥ A(v) − f ∥ in v in una norma scelta, la più semplice possibile.
I problemi di evoluzione, in generale, vengono trattati, dal punto di vista numerico, mediante discretizzazione delle variabili spaziali e temporali. Se si deve risolvere
si introduce un passo temporale Δt; sia unh l'approssimazione di u all'istante n Δt. Allora, se Ah è costruito a partire da A mediante il metodo delle differenze finite o quello degli elementi finiti, alla (32) si può sostituire
oppure
(evidentemente esiste un'infinità di modi possibili). Alla (33) o alla (34) si deve aggiungere il dato iniziale
u0h = u0h, approssimazione di u0.
Per attuare lo schema (33), ovvero per passare da unh a unh+1, si deve risolvere l'equazione
unh+1 + ΔtAh(unh+1) = unh + Δtfnh+1, (35)
a motivo della quale lo schema (33) si dice ‛implicito'. Analogamente la (34) fornisce esplicitamente unh+1 a partire da unh:
unh+1 = unh + Δt(fnh − Ah(unh)).
Lo schema (34) si dice ‛esplicito'. Non se ne deve, tuttavia, dedurre affrettatamente che lo schema (34) debba essere sistematicamente preferito al (33). Invero si dimostra che in molte classi di problemi lo schema (33) è convergente quando h e Δt tendono a zero indipendentemente, mentre lo schema (34) è convergente solo se h e Δt tendono a zero verificando una condizione detta ‛di stabilità'; ad esempio, per l'equazione del calore (1) la condizione di stabilità sarà del tipo
Δt ≤ C ∣ h ∣2
e per l'equazione delle onde (3)
Δt ≤ C ∣ h ∣.
La differenza tra queste due condizioni trova ragione nel fatto che la propagazione è istantanea nel caso del calore, mentre avviene con una velocità finita nel caso iperbolico.
Si vede, dunque, che gli schemi impliciti permettono di avanzare nel tempo scegliendo dei grandi intervalli Δt (naturalmente tali intervalli di tempo possono essere variabili) al prezzo della difficoltà essenziale di risolvere la (35), mentre gli schemi espliciti, che possono essere trattati con maggiore facilità, possono richiedere degli intervalli Δt molto più piccoli.
Sorge allora spontanea l'idea di conservare la buona convergenza dei metodi impliciti, ma di ‛semplificare' la risoluzione della (35) o di una equazione analoga. Si arriva così a uno dei metodi di decomposizione che rappresenta una delle idee fondamentali dell'analisi numerica: l'operatore A viene ‛scomposto' in ‛parti elementari'. Per darne alcune indicazioni formali, supponiamo che
A(u) = A1(u) + A2(u),
dove ogni Ai è più ‛semplice' di A; tutto ciò che diremo si estende immediatamente a una decomposizione finita qualunque
Si integra quindi ‛approssimativamente' la (32) utilizzando di volta in volta A1(u) e A2(u). Si parte da
che si integra tra 0 e Δt; quindi si integra
sull'intervallo (0, Δt) e infine si riprende A1: si integra
su (Δt, 2Δt) partendo da u3/2(Δt) = u1(Δt) e così di seguito.
Se si rende discreto il precedente metodo, si arriva a uno schema detto dei ‛tratti frazionari' (schemi simili a questo sono noti nella letteratura col nome di schemi delle ‛direzioni alternate'): conoscendo unh, si definisce unh+1/2 mediante lo schema di tipo implicito
quindi unh+1 a partire da unh+1/2, ancora mediante lo schema implicito
Si dimostra, sotto condizioni del tutto generali, che gli schemi delle due ultime equazioni presentano la stessa stabilità dello schema (33). Per passare da unh a unh+1 si devono così risolvere due equazioni invece di una, ma queste sono più semplici. Questo metodo può essere di grande aiuto nelle applicazioni, ed è invero utilizzato implicitamente molto spesso dai fisici e dagli ingegneri, quando si prendono in considerazione successivamente, e non simultaneamente, i diversi fenomeni fisici che intervengono in un problema. Aggiungiamo che questo metodo, sotto la forma (36) (37), quando gli operatori Ai sono lineari, si riallaccia a una importante formula della teoria dei semigruppi (formula di Trotter): per n→∞, si ha
se gli operatori A1 e A2 soddisfano delle opportune ipotesi. Notiamo anche che questo tipo di formula è connesso con la teoria dell'integrazione sugli spazi di dimensione infinita (integrale di Wiener). Queste considerazioni dimostrano assai bene, se ve ne fosse ancora bisogno, l'unità della scienza, unità che vogliamo qui ancor meglio sottolineare, sia pur brevemente, con qualche ulteriore commento.
Innanzi tutto, una teoria sistematica dell'approssimazione dei problemi al contorno lineari mediante differenze finite si intravede oggi attraverso l'uso della teoria degli operatori pseudodifferenziali.
D'altra parte, dal momento che ogni teoria dell'approssimazione introduce degli errori sistematici, si può benissimo aggiungere, cambiando il tipo di equazione, un errore a priori per ottenere una equazione ‛più semplice'. L'esempio più celebre è dovuto a von Neumann: la teoria degli shock nei fluidi comprimibili non viscosi è rappresentata mediante il modello di un sistema iperbolico non lineare, il cui studio e integrazione numerica sono molto difficili. L'idea di von Neumann consiste nell'introdurre una viscosità artificiale per ‛sopprimere' gli shock; cioè, dal punto di vista matematico, nel sostituire con funzioni continue le funzioni discontinue: questa viscosità artificiale è scelta in modo che le discontinuità siano approssimate, in un intorno il più piccolo possibile e con il minimo numero di oscillazioni parassite, mediante certe funzioni continue che hanno una grande pendenza nell'intorno di ogni shock. Dal punto di vista matematico, ciò corrisponde ad approssimare le equazioni iperboliche con delle equazioni paraboliche, da cui il problema generale dell'approssimazione di equazioni di un tipo dato con quelle di un altro tipo o di un ordine differente: naturalmente occorre in tal caso cambiare la natura o il numero delle condizioni al contorno. Si perviene così alla teoria degli ‛strati limite' e degli sviluppi asintotici e si ritorna agli operatori integrali di Fourier introdotti al cap. 3. Dal punto di vista fisico, l'idea della viscosità artificiale corrisponde, in una certa misura, a reintrodurre un fenomeno fisico che era stato trascurato volutamente, in un tentativo di semplificazione che non ha avuto il successo sperato.
I metodi numerici che abbiamo citato fin qui sono solo una piccola parte di quelli disponibili. In verità per risolvere un dato problema si può scegliere tra un gran numero di metodi: i criteri di scelta dovrebbero basarsi sulla stima della ‛quantità di calcolo', dovendosi un metodo ritenere soddisfacente quando è assai vicino alla quantità ottimale di calcolo. Per ora è stato possibile raggiungere almeno dei risultati parziali in questa importante direzione, grazie al concetto di ‛entropia' di Kolmogorov.
8. Conclusioni
Abbiamo tentato di dare un'idea dei metodi fondamentali di risoluzione, teorici e numerici, delle equazioni alle derivate parziali, lineari e non lineari.
Per il futuro si possono ragionevolmente attendere dei successi decisivi dall'impiego del metodo degli operatori integrali di Fourier nei problemi lineari. Sembra, inoltre, che i problemi misti iperbolici lineari generali siano sul punto di essere risolti. Forse, un giorno non lontano, si arriverà a una teoria generale dei problemi al contorno per operatori lineari qualsiasi.
L'avvenire è, invece, più incerto per quel che riguarda i problemi non lineari. Infatti, nei problemi lineari, alcuni strumenti molto potenti hanno permesso di impostare dei problemi molto generali, la cui risoluzione ha dato modo di unificare la teoria. Nell'analisi non lineare questi strumenti non sono ancora a portata di mano e, per il momento, non sembra ragionevole soffermarsi su equazioni non lineari ‛qualsiasi' (l'idea naturale di prendere gli operatori lineari tangenti non è sufficiente, dal momento che gli operatori non lineari di maggiore interesse non sono, in generale, differenziabili). È, dunque, probabile che per un tempo ancora impossibile da valutare ci si soffermerà sia sulla risoluzione di numerosi problemi classici non lineari non ancora perfettamente risolti, sia sullo studio di nuovi problemi particolari, che non mancheranno di apparire regolarmente in connessione coi progressi generali della scienza e con la presa di coscienza, da parte degli scienziati, che modelli sempre più elaborati, che tengano conto di fenomeni sempre più ‛raffinati', sono accessibili ai metodi numerici grazie alla crescente potenza dei calcolatori e ai progressi dell'analisi.
Abbiamo, d'altronde, tentato di mostrare come lo studio di alcune famiglie di problemi non lineari particolari consenta di porre in evidenza dei metodi assai generali: è molto probabile che questa situazione migliorerà nei prossimi anni, in particolare quando diventerà indispensabile affrontare la risoluzione sistematica di certi problemi entro classi funzionali non lineari, eventualmente costruite mediante procedimenti astratti generali.
Infine si consideri che nuovi problemi, ben più difficili, stanno entrando in scena. Man mano che l'analisi teorica e numerica dei modelli della fisica, della biomatematica, dell'economia, ecc. diviene più raffinata, le ambizioni aumentano: non solo si vuol comprendere il fenomeno, ma lo si vuole, a giusto titolo, controllare. L'aspetto affascinante della teoria del ‛controllo ottimale dei grandi sistemi' è che essa rappresenta il punto di incontro di discipline diverse, come la matematica, la probabilità, la fisica, la biologia, l'economia e la tecnologia.
bibliografia
Atiyah, M., Bott R., Gårding, L., Lacunas for hyperbolic differential operators, in ‟Acta mathematica", 1970, CXXIV, pp. 109-189.
Hörmander, L., Linear partial differential operators, Berlin 19642.
Leray, J., Essai sur le mouvement plan d'un liquide visqueux que limitent des parois, in ‟Journal de mathématiques pures et appliquées", 1934, XIII, pp. 331-418.
Leray, J., Schauder, J., Topologie et équations fonctionelles, in ‟Annales de l'École Normale Supérieure", 1934, LI, pp. 45-78.