VARIAZIONI, CALCOLO DELLE.
- È quel ramo dell'analisi matematica che studia i problemi di massimo e minimo (v. massimi e minimi) relativi a quantità variabili, che si presentano sotto la forma di integrali definiti o di soluzioni di equazioni differenziali o, più generalmente, di funzionali (v.). Questi problemi differiscono dagli ordinarî problemi di massimo e minimo (quelli cioè che si considerano nell'algebra elementare o nel calcolo differenziale) per la natura degli elementi da cui dipendono le quantità da rendere massime o minime; elementi che, nei problemi ordinarî, sono uno o più numeri, mentre invece nelle questioni di calcolo delle variazioni sono una o più funzioni. Si tratta qui di una differenza essenziale; ed i procedimenti in uso per la ricerca degli ordinarî massimi e minimi non sono sufficienti per trovare quelli del calcolo delle variazioni, il quale oggi è dominato dai concetti del calcolo funzionale.
Il nome di calcolo delle variazioni gli fu dato perché il suo primo svolgimento sistematico, completamente libero da considerazioni geometriche, mosse, con G. L. Lagrange, dal concetto di variazione, di cui sarà detto più oltre.
L'importanza delle questioni di massimo e minimo fu già messa in rilievo nella voce massimi e minimi. Nel campo della filosofia naturale essa deriva essenzialmente dal fatto che si è sempre cercato di ricondurre i problemi naturali a dei problemi di minimo, perché sempre si è pensato che la natura, nelle sue manifestazioni, tenda a risparmiare il più possibile ciò che essa deve impiegare nello sviluppo dei diversi fenomeni. Aggiungeremo che al calcolo delle variazioni conducono importanti questioni, non soltanto di analisi matematica, ma anche di geometria, di meccanica, di fisica, di economia politica, ecc.; e che è spesso molto utile considerare certi problemi dal punto di vista del calcolo delle variazioni.
Sviluppo storico. - I. Newton studiò per primo, in Philosophiae naturalis principia mathematica (1686), il problema del solido di rivoluzione di minor resistenza: quale è la forma più conveniente da darsi a un sommergibile, a un dirigibile, a un proiettile di fucile o di cannone, affinché essi, movendosi nell'acqua o nell'aria, incontrino la minor resistenza possibile e possano quindi, con una data forza motrice, raggiungere la massima velocità? Ammesse certe ipotesi semplificatrici e ammesso pure che la resistenza opposta dal mezzo, nel quale avviene il movimento, si manifesti secondo una certa legge, indicata dallo stesso Newton, la questione posta porta a cercare una funzione y (x) la quale renda minimo l'integrale
fra tutte quelle che (soddisfacendo a date condizioni di continuità e derivabilità) assumono per x = a e x = b valori prestabiliti.
Nel 1696 Giovanni Bernoulli pose e risolse il problema della brachistocrona: trovare la curva che deve seguire un corpo pesante per scendere, senza attrito, da un punto A ad un punto B nel minor tempo possibile. In forma analitica, si tratta di trovare una funzione y (x) la quale renda minimo l'integrale
fra tutte quelle (soddisfacenti a date condizioni di continuità e derivabilità) che assumono prestabiliti valori per x = a e x = b.
Con i problemi di Newton e della brachistocrona, e con altri dello stesso genere, come quello degli isoperimetri (v. più oltre) proposto da Giacomo Bernoulli (1687) e quello delle geodetiche (v. geodetiche, linee) posto da Giovanni Bernoulli (1697), ebbe inizio il calcolo delle variazioni; nel quale il tipo più semplice delle questioni studiate può essere fissato nella forma seguente: fra tutte le funzioni y (x), definite su un dato intervallo (a, b), soddisfacenti a precisate condizioni di continuità e derivabilità, e assumenti prestabiliti valori per x = a e x = b, trovare quella che rende minimo o massimo l'integrale
dove la funzione integranda f (x, y, y′) dipende (effettivamente o no) dalla variabile indipendente x, dalla funzione y (x) e dalla sua derivata y′ (x). A questo tipo appartengono i problemi di Newton e della brachistocrona; ma anche altri tipi subito si imposero, come ad es. quello dei problemi isoperimetrici.
Giacomo Bernoulli, intervenuto molto vivacemente nelle dispute accese intorno alla determinazione della brachistocrona, escogitò un metodo geometrico per trattare in modo uniforme tutti questi problemi, e i suoi procedimenti vennero immediatamente generalizzati da L. Eulero, il quale giunse a stabilire (1744) l'equazione o le equazioni fondamentali (ora conosciute sotto il nome di equazioni differenziali di Eulero) cui devono soddisfare le soluzioni cercate. I ragionamenti di Eulero, di natura essenzialmente geometrica, e tutt'altro che soddisfacenti dal punto di vista del rigore logico, non potevano essere da tutti accettati; e G. L. Lagrange (1755-1760) propose perciò un nuovo metodo, fondato sul concetto di variazione, che elimina ogni considerazione geometrica e che cerca di ricondurre i problemi del calcolo delle variazioni nell'ambito dei procedimenti del calcolo differenziale.
Per dire brevemente di questo metodo, indichiamo con y0 (x) la funzione che rende minimo l'integrale I [y (x)] fra tutte quelle y (x) che assumono in a e b i valori prestabiliti. Volendo dimostrare che I [y0 (x)] dà il minimo cercato, si deve confrontare il valore I [y0 (x)] con quello I [y (x)] relativo a un'altra qualsiasi funzione y (x) della classe indicata. La differenza y (x) − y0 (x) è la variazione che subisce il valore y0 (x) corrispondente ad x, quando dalla funzione y0 (x) si passa all'altra y (x). Questa variazione è dunque l'incremento che riceve la y0 (x) per un cambiamento della funzione su cui si vuole calcolare l'integrale I, ed è cosa diversa dall'incremento che alla stessa funzione y0 (x) deriva da un cambiamento del valore della variabile indipendente x. Quando l'incremento dato alla x è molto piccolo, dx, si ha per l'incremento della y (x) (all'infuori di infinitesimi di ordine superiore, trascurabili) il differenziale dy. Parimenti, considerando cambiamenti molto piccoli nella forma della funzione, avremo che la variazione y (x) − y0 (x) sarà anch'essa infinitesima e di natura analoga al differenziale dy, in quanto rappresenta un incremento infinitesimo della y0 (x); ma risulterà da esso ben distinta. Per tale variazione Lagrange propose (1755) la notazione, divenuta poi classica, δy, simile a quella dy del differenziale; e in base all'analogia fra il δy e il dy, istituì per la variazione tutto un calcolo analogo a quello valido per i differenziali, e per mezzo di esso applicò ai nuovi problemi i metodi già noti nel calcolo differenziale per le questioni di massimo e minimo delle funzioni di una o più variabili numeriche.
Corrispondentemente alla variazione δy della funzione y0 (x), l'integrale I [y0 (x)] subisce una variazione I [y (x)] − I [y0 (x)], la quale si decompone nelle sue diverse parti dei varî ordini infinitesimali, in modo conforme alla decomposizione dell'incremento portato a una funzione di una variabile f (x) da un incremento dx dato alla x. Le varie parti di questo incremento della f (x) sono date, a meno di coefficienti numerici, dai differenziali successivi df, d2f, . . .; e, analogamente, le varie parti di I [y (x)] − I [y0 (x)], liberate da fattori numerici e perfettamente corrispondenti ai differenziali indicati, vengono chiamate variazione prima, seconda, . . . dell'integrale I e rappresentate coi simboli δI, δ2I, . . .. E come per la ricerca dei massimi e minimi della funzione f (x) si pone uguale a zero il differenziale df, così per trovare i massimi e minimi dell'integrale I, Lagrange mostrò doversi porre δI = 0. Questa condizione si traduce in quella di Eulero, vale a dire porta che la funzione y0 (x) deve soddisfare all'equazione differenziale di Eulero relativa all'integrale considerato. La teoria di Lagrange venne poi perfezionata, per quanto riguarda la variazione seconda δ2I, da A.-M. Legendre (1786) e da C. G. J. Jacobi (1837). E così si giunse ad altre due condizioni che devono essere soddisfatte dalla funzione y0 (x) che dà il minimo e che sono chiamate la condizione di Legendre e la condizione di Jacobi. Queste condizioni furono dedotte entrambe dal fatto che, per il minimo voluto, è necessario che la y0 (x) renda δ2I sempre ≥ 0.
Le condizioni così ottenute sono necessarie per il minimo, non sufficienti. Intorno al 1870, C. Weierstrass osservò che, contrariamente a quanto aveva creduto Lagrange, i problemi del calcolo delle variazioni non possono essere trattati completamente come se fossero dei problemi di minimo o massimo del calcolo differenziale; e che l'analogia fra i metodi di risoluzione, fino allora ritenuta completa, viene a cessare quando si vuol passare dalle condizioni necessarie a quelle sufficienti. Mentre nei problemi di minimo delle funzioni di una o più variabili numeriche l'annullamento del differenziale primo e il segno positivo del differenziale secondo della funzione assicurano l'esistenza della soluzione, nel calcolo delle variazioni, invece, l'annullamento della variazione prima e il segno positivo della variazione seconda non assicurano affatto l'esistenza del minimo. Qui le cose si presentano più complesse, perché più complessa è la natura dell'elemento da cui dipende l'integrale che si vuol rendere minimo. Weierstrass trovò che, per il minimo, oltre alle condizioni di Eulero, Legendre e Jacobi, ne deve essere verificata una quarta, che fu poi detta la condizione di Weierstrass; poi, basandosi sul concetto di campo di estremali, da lui stesso introdotto (e di cui diremo più innanzi), stabilì le condizioni sufficienti. Al Weierstrass si deve pure di aver considerato per la prima volta gl'integrali in forma parametrica (v. più oltre), i quali sono particolarmente importanti per le applicazioni del calcolo delle variazioni alla geometria e alla meccanica.
Contemporaneamente al Weierstrass, ma con procedimento del tutto diverso, G. Darboux (1889) trovò le condizioni sufficienti per il minimo nel problema delle geodetiche, come pure in altri problemi relativi a questioni di meccanica, fondandosi su un sistema speciale di coordinate curvilinee; e il suo metodo fu poi esteso da A. Kneser (1900) a tutti gli integrali I, posti in forma parametrica. Un altro metodo per stabilire le condizioni sufficienti per il minimo fu indicato da E. E. Levi (1911), il quale si è in un certo senso riavvicinato ai procedimenti di Lagrange.
Gli sviluppi del calcolo delle variazioni, che abbiamo rapidamente indicati, non si sono limitati al più semplice problema, quello dell'integrale I [y (x)], ma si sono rivolti anche ad altre questioni più complesse, quali il problema isoperimetrico, quello dell'integrale I dipendente da più funzioni y1 (x), y2 (x), . . ., oppure dipendente, oltre che dalle y (x) e y′ (x), anche dalle derivate seconda, terza, . . .; quello degli integrali multipli, quello di Lagrange, quello di Mayer, dei quali si dirà più innanzi. Si è venuta così formando una vasta teoria, che è oggi conosciuta sotto il nome di teoria classica del calcolo delle variazioni. In essa tutte le questioni trattate conducono a risolvere delle equazioni differenziali. Esistono però altre classi di problemi analitici che rientrano fra quelli del calcolo delle variazioni. Fin dal 1884, V. Volterra esaminò dei problemi di calcolo delle variazioni, imposti dalla fisica-matematica, che portano a risolvere non delle equazioni differenziali, ma delle equazioni integrali oppure integro-differenziali; e da siffatte questioni fu condotto a fondare il Calcolo funzionale (v. funzionali). Ma se il calcolo delle variazioni ha dato origine al calcolo funzionale, l'introduzione dei concetti generali di questo calcolo in quello delle variazioni ha prodotto in quest'ultimo un completo rinnovamento. D'altronde gli stessi problemi considerati nella teoria classica del calcolo delle variazioni hanno imposto, per varie ragioni, la ricerca di nuovi metodi. In primo luogo, la teoria classica, richiedendo la determinazione di funzioni soddisfacenti alle equazioni differenziali di Eulero ed a certe condizioni ai limiti, urta subito contro una grave difficoltà, che la teoria delle equazioni differenziali, nella maggior parte dei casi, non le consente di superare. Per questa ragione alcuni importanti problemi, come quelli che prendono il nome da Dirichlet e da Plateau, non hanno potuto trovare la loro soluzione per le vie del metodo classico del calcolo delle variazioni. Ma anche quando questa difficoltà fosse superata, altre se ne dovrebbero affrontare con poche probabilità di successo. E infine vi è da tener conto che la teoria classica dà in generale soltanto risultati riguardanti i minimi o massimi relativi (v. massimi e minimi) e non quelli assoluti; e, in tutti i casi, prende in considerazione solamente classi particolari di funzioni, appunto per essere tale teoria troppo strettamente legata alla considerazione delle equazioni di Eulero.
La necessità di nuovi procedimenti ha condotto ai cosiddetti metodi diretti, i quali furono inizialmente applicati al problema di Dirichlet, considerato dal punto di vista del calcolo delle variazioni. Esso consiste nel dimostrare che, fra tutte le funzioni continue V (x, y) che assumono valori dati sul contorno C di un campo piano D, e per le quali ha senso l'integrale
ne esiste una che rende minimo questo integrale. L'importanza grande di questo problema (sia nell'analisi matematica, sia nella fisica matematica) deriva dal fatto che esso è equivalente a questo altro: dimostrare l'esistenza di una funzione V (x, y) continua in tutto il campo D, che assuma sul contorno C del campo valori assegnati e che nell'interno del campo verifichi l'equazione differenziale (di Laplace)
L'iniziatore dei metodi diretti fu C. Arzelà (1897), subito seguito da D. Hilbert, B. Levi, G. Fubini, H. Lebesgue, S. Zaremba e altri. Tuttavia in questo nuovo indirizzo si poté ottenere un metodo veramente generale solo quando ci si accorse (L. Tonelli, 1911) che la riuscita dei procedimenti impiegati era dovuta alla semicontinuità dell'integrale studiato. Il concetto di semicontinuità, già introdotto da R. Baire per le funzioni di una o più variabili numeriche (v. funzione), trasportato da L. Tonelli nel calcolo delle variazioni, vi si è dimostrato di notevolissima importanza; e il Tonelli, considerando i problemi variazionali come questioni della teoria dei funzionali, sviluppò un nuovo metodo generale di calcolo delle variazioni fondato precisamente sul concetto di semicontinuità.
Con questo metodo si possono trattare tutti i problemi del calcolo delle variazioni (L. Tonelli, S. Cinquini, B. Manià), il quale, per questa via, risulta svincolato dalla teoria delle equazioni differenziali, a cui, per contro, porta notevoli contributi, con la dimostrazione di importanti teoremi di esistenza.
Così, fra l'altro, molte equazioni differenziali e numerosi problemi di meccanica ordinaria e di meccanica celeste ricevono nuove soluzioni.
Alla fine di questa rapida esposizione dello sviluppo storico del calcolo delle variazioni, va aggiunto che recentemente (1935) C. Carathéodory, riaccostandosi al metodo classico e riprendendo un'idea che fu già di Eulero, ha esposto un nuovo metodo che poggia essenzialmente sui legami esistenti fra il calcolo delle variazioni e la teoria delle equazioni alle derivate parziali del primo ordine.
Il più semplice problema in forma ordinaria.
I. Generalità. - Supporremo, per semplicità, che la funzione f (x, y, y′) sia reale, finita e continua, insieme con le derivate parziali dei primi due ordini, per tutti gli x (reali) di un intervallo (a, b) e per tutti i valori reali e finiti di y e y′. Avvertiamo subito che, nel calcolo delle variazioni, le derivate parziali fx′, fy′, fy′′, fxy″, . . . della f (x, y, y′) si usa indicarle semplicemente con fx, fy, fy′, fxy, . . .. Chiameremo S-80??? la classe di tutte le funzioni y (x) definite sull'intervallo (a, b) assolutamente continue (v. funzione), tali che in a e b assumano tutte due valori dati pa, pb, e che, inoltre, la funzione della x, f (x, y (x), y′ (x)) risulti integrabile (nel senso del Lebesgue) in (a, b). Riferito il piano x, y a un sistema di assi cartesiani ortogonali, diremo C la curva di tale piano di equazione y = y (x), a ≤ x ≤ b. L'insieme di tutte le curve C corrispondenti a tutte le funzioni y (x) di S-80??? sarà indicato con la stessa lettera S-80???.
Considerate due funzioni y0 (x) e y (x), o le due curve corrispondenti C0 e C, diremo che y (x) e C appartengono all'intorno (ρ) rispettivamente della y0 (x) e della C0, se su tutto (a, b) è sempre ∣ y (x) − y0 (x) ∣ ≤ ρ.
L'integrale
ha un valore finito per ogni y (x) o curva C di S-80???, e viene indicato con I [y (x)] o con I [C]. Esso risulta un funzionale della y (x) o della C.
L'integrale I dicesi:
regolare positivo (negativo) se è sempre fy′y′ (x, y, y′) > 0 (〈 0);
quasi-regolare positivo (negativo) se è sempre fy′y′ (x, y, y′) ≥ 0 (≤ 0);
quasi-regolare normale, se è quasi-regolare e se, di più, la fy′ (x, y, y′), come funzione della sola y′ è sempre crescente oppure sempre decrescente;
quasi-regolare seminormale, se è quasi regolare e se, di più, in nessun punto (x, y) la fy′y′ (x, y, y′) è nulla per tutti i valori di y′.
2. La semicontinuità. - I [C] dicesi semicontinuo inferiormente (superiormente) sulla curva C0 di S-80??? se, preso un numero ε positivo, ad arbitrio, è possibile determinare un numero ρ > 0 in modo che risulti
per tutte le curve C di S-80??? che appartengono all'intorno (ρ) della C0. Se ciò avviene per tutte le curve C0 di S-80???, si dice senz'altro che I [C] è semicontinuo inferiormente (superiormente) in S-80???. Quando su una curva C0 (o su tutte le curve di S-80???) si verificano contemporanamente le due semicontinuità, si dice che I [C] è continuo sulla C0 (o in S-80???). Per la semicontinuità inferiore (superiore) di I [C] è necessario e sufficiente che l'integrale sia quasi regolare positivo (negativo); e per la sua continuità è necessario e sufficiente che la f (x, y, y′) abbia la forma M (x, y) + y′ N(x, y) (L. Tonelli). Affinché I [C] sia semicontinuo inferiormente (superiormente) su una data curva C0 (y = y0 (x)) di S-80??? è necessario (L. Tonelli) che sia, in quasi tutto l'intervallo (a, b) - vale a dire per tutti gli x di (a, b) eccettuati al più quelli che possono rinchiudersi in una successione d'intervalli di lunghezza complessiva comunque piccola - fy′y′ (x, y0 (x), y0′ (x)) ≥ 0 (≤ 0), ed anche E (x, y0 (x); y0′ (x), y′) ≥ 0 (≤ 0), per tutti gli y′, dove è
La E (x, y; y′, ç′) è chiamata la funzione di Weierstrass. Modificando leggermente la condizione espressa dall'ultima disuguaglianza scritta, si ottiene una condizione sufficiente per la semicontinuità di I [C] sulla C0.
3. Estremi ed estremanti. - Se, qualunque sia la curva C di S-80???, I [C] risulta sempre ≥ I [C0] (oppure sempre ≤ I [C0]), si dice che I [C0] è un minimo (massimo) assoluto dell'integrale I in S-80???, e la curva C0 e la funzione corrispondente y0 (x) si chiamano curva e funzione minimanti (massimanti) assolute. Se quanto ora si è detto si verifica soltanto per le curve C di S-80??? che appartengono a un certo intorno (ρ) della C0, I [C0] è un minimo (massimo) relativo e la C0 e la corrispondente y0 (x) sono curva e funzione minimanti (massimanti) relative. Tanto i minimi quanto i massimi si chiamano anche estremi; le curve e le funzioni minimanti o massimanti si dicono anche estremanti.
4. Esistenza dell'estremo assoluto. - Il procedimento che si segue per la dimostrazione dell'esistenza del minimo assoluto (e analogamente dicasi per quella del massimo assoluto) è basato sulla considerazione delle successioni minimizzanti, vale a dire, di successioni C1, C2, . . . ., Cn, . . ., di curve della classe S-80???, tali che, per n → ∞, I [Cn] tenda al limite inferiore dei valori di I [C] per tutte le C di S-80???. Se si riesce a provare che fra le curve di S-80??? ve n'è una C0 con la proprietà che ad ogni suo intorno (ρ), comunque piccolo, appartengano sempre infinite curve di una successione minimizzante, e se l'integrale I [C] è semicontinuo inferiormente, allora si conclude che C0 è una minimante assoluta per I [C] in S-80???. Sono noti varî teoremi che stabiliscono l'esistenza del minimo assoluto di I [C]. Il più semplice dà tale esistenza supponendo che I [C] sia quasi regolare positivo e che, di più, risulti sempre f (x, y, y′) ≥ μ ∣y′∣α + ν, con α, μ, ν costanti tali che α > 1, μ > 0 (L. Tonelli). Sono noti anche teoremi di esistenza dell'estremo assoluto per classi di curve più generali della S-80???.
Stabilita l'esistenza di una curva estremante assoluta, se ne studiano le proprietà analitiche. A questo scopo, osservando che un'estremante assoluta è anche una estremante relativa, si cercano le condizioni necessarie per gli estremi relativi.
5. La condizione di Eulero. - La determinazione delle condizioni necessarie per un estremo relativo si compie con un metodo, dovuto a Eulero e Lagrange, il quale consiste nel dare alla funzione estremante y0 (x) una variazione di forma particolare, facendola dipendere da un parametro t. Con ciò il valore dell'integrale I [C] corrispondente a questa variazione viene a risultare una funzione della variabile numerica t, e l'applicazione dei procedimenti del calcolo differenziale per la ricerca degli estremi ordinarî fornisce le condizioni necessarie cercate. La forma della variazione che meglio si presta per raggiungere questo scopo, è data da tω (x), dove ω (x) è una funzione continua con la sua prima derivata (o, più generalmente, a rapporto incrementale limitato) su tutto (a, b) e tale che ω (a) = ω (b). Posto y (x) = y0 (x) + tω (x), il calcolo differenziale insegna che, se y0 (x) è un'estremante per I, la derivata prima di I [y(x)] rispetto a t, calcolata per t = 0, deve essere nulla, mentre la derivata seconda, pure per t = 0, deve essere ≥ 0 se si tratta di un minimo, ≤ 0 se di un massimo. Queste derivate, all'infuori di coefficienti numerici, sono date da
e cioè dalla variazione prima e dalla variazione seconda di I; e qui ω e ω′ non sono altro che le variazioni δy e δy′ della y0 (x) e della y0′ (x), nella loro forma generale. La validità delle espressioni scritte per δI e δ2I è subordinata all'ammissione di qualche ipotesi supplementare, del resto di carattere molto largo. Operando opportunamente sulla formula che dà δI, la condizione δI = 0, che deve essere verificata dalla funzione estremante y0 (x), si trasforma nella
che deve valere per tutti gli x di (a, b). Se la y0 (x) ammette sempre, finita e continua, la derivata y0′ (x), quest'equazione prende la forma
che è l'equazione differenziale di Eulero. Se poi esiste anche la y0″ (x), la (b) si può scrivere
che è un'equazione differenziale del 2° ordine.
Le curve C della classe S-80??? che soddisfano alla (a) si dicono (con L. Tonelli) estremaloidi relative alla f (x, y, y′); quelle per le quali esiste finita e continua la derivata y′ (x) e che verificano la (b) si chiamano (con A. Kneser) estremali relative alla f (x, y, y′). Si conoscono condizioni riguardanti la f (x, y, y′) che permettono di affermare che ogni funzione y (x) di S-80??? estremante per I [y] soddisfa alla (a), oppure alla (b), oppure alla (c). Queste condizioni, insieme con quelle che assicurano l'esistenza in S-80??? di almeno un'estremante, dànno dei teoremi per l'esistenza di un'estremaloide o di un estremale che unisce i punti dati (a, pa) e (b, pb).
6. Le condizioni di Legendre e di Waerstrass. - Dall'osservazione, che, su ogni curva minimante, l'integrale I deve necessariamente essere semicontinuo inferiormente, segue, che se y0 (x) è funzione minimante, deve risultare in quasi tutto (a, b), fy′y′ (x, y0 (x), y0′ (x)) ≥ 0 e anche E (x, y0 (x); y0′ (x), y′) ≥ 0, per tutti gli y′. Se poi la derivata y0′ (x) esiste sempre ed è continua, le disuguaglianze scritte devono valere in tutto (a, b). In quest'ultimo caso (e con qualche maggiore restrizione) le due disuguaglianze furono date rispettivamente da A.-M. Legendre e da C. Weierstrass, i quali le stabilirono senza metterne in rilievo la dipendenza dalla semicontinuità di I.
7. La condizione di Jacobi. - La considerazione della variazione seconda δ2 I e la disuguaglianza δ2 I > 0, che deve essere soddisfatta da una curva minimante, condussero, in un primo tempo, Legendre alla condizione di cui abbiamo già detto, e più tardi permisero a C. G. J. Jacobi di giungere, superando gravi difficoltà, alla condizione che porta il suo nome. Jacobi, dopo aver trasformata un'equazione differenziale considerata da Legendre nell'equazione differenziale lineare (detta equazione di Jacobi)
dove è
pose la variazione seconda di I sotto la forma
e di qui dedusse, attraverso a uno studio approfondito dell'equazione differenziale precedente, la sua condizione; la quale si esprime dicendo che, se la y0 (x) (supposta continua con y0′ (x) e y0″ (x) e tale che risulti sempre fy′y′ (x, y0 (x), y0′ (x)) > 0 ) è una funzione minimante, ogni soluzione dell'equazione di Jacobi che si annulli per x = a deve essere diversa da zero per ogni x maggiore di a e minore di b. Tutte le soluzioni dell'equazione di Jacobi non identicamente nulle e che assumono il valore 0 in a, si annullano negli stessi punti, e il primo valore a′, maggiore di a, in cui esse sono nulle si dice valore coniugato di a. La condizione di Jacobi consiste perciò nella disuguaglianza a′ ≥ a. A questa condizione lo stesso Jacobi ha dato anche un'elegante forma geometrica. Si consideri il fascio delle curve estremali uscenti dal punto (a, pa) dell'estremale minimante C0 e si chiami fuoco coniugato del punto (a, pa) il primo punto di C0 che segue (a, pa), in cui l'inviluppo delle curve estremali indicate tocca la C0; allora la condizione di Jacobi si enuncia dicendo che sulla C0 il fuoco coniugato del punto (a, pa) non può precedere il punto (b, pb).
8. Estremi forti ed estremi deboli. - Insieme con gli estremi relativi definiti al n. 3, i quali diconsi forti, si possono considerare anche gli estremi relativi deboli. Si hanno questi nuovi estremi quando, per un ρ > 0, l'integrale I [C0] risulta non maggiore, nel caso del minimo, o non minore, nel caso del massimo, del valore I [C] corrispondente a una qualsiasi curva C di S-80???, la quale verifichi in tutto (a, b) le due disuguaglianze ∣ y (x) − y0 (x) ∣ ≤ ρ, ∣ y′ (x) − y0′ (x) ∣ ≤ ρ. Orbene, il procedimento che abbiamo indicato nel n. 5 e che serve a determinare le condizioni necessarie per l'estremo (quella di Weierstrass esclusa), mentre può dare anche le condizioni sufficienti per l'estremo relativo debole, non permette di giungere (come ha mostrato C. Weierstrass) alle condizioni sufficienti per l'estremo relativo forte, le quali richiedono l'intervento di considerazioni di altro genere.
9. Campo di estremali e formula di Weierstrass. - Il concetto fondamentale, che è alla base del metodo ideato da Weierstrass per determinare le condizioni che assicurano l'estremo relativo forte, è quello di campo di estremali, generalizzato poi da H. A. Schwarz (1885). Un campo di estremali consiste, in sostanza, in una regione del piano x, y, ricoperta interamente, ma senza duplicazioni, da una famiglia di estremali dipendenti da un parametro. Se la condizione di Jacobi è verificata, sulla curva minimante C0, nella forma più restrittiva data dalla disuguaglianza a′ > a, la C0 può essere circondata da un campo di estremali, in modo che la C0 faccia parte essa stessa della famiglia di estremali che ricopre il campo; e per ogni curva C della classe S-80??? che appartenga a questo campo, Weierstrass (1819) dimostrò la formula
nella quale p (x, y) rappresenta il coefficiente angolare dell'estremale passante per il punto (x, y) e appartenente alla famiglia che genera il campo di estremali.
10. Teorema d'indipendenza di Beltrami-Hilbert. - E. Beltrami (1868) e D. Hilbert (1900) dimostrarono che, per tutte le curve C, della classe S-80???, che appartengono al campo di estremali circondante la C0, l'integrale
ha sempre lo stesso valore. Di qui segue immediatamente la formula di Weierstrass data nel n. 9.
11. Condizìoni sufficienti per il minimo relativo forte. - Queste condizioni furono indicate per la prima volta da C. Weierstrass come conseguenza della sua formula (n. 9). Esse consistono in ciò: che la C0 sia una estremale con le derivate y0′ (x) e y0″ (x) continue; che sia sempre, in tutto (a, b), fy′y′ (x, y0 (x), y0′ (x)) ≥ 0; che valga per la C0 la condizione di Jacobi nella forma più restrittiva a′ > a; che sia E (x, y; p (x, y), y′) ≥ 0 in tutti i punti (x, y) di un intorno della C0 e per tutti i valori finiti di y′. L'ultima di queste condizioni è sicuramente verificata se l'ìntegrale I è regolare positivo o anche soltanto quasi-regolare positivo. Altri procedmienti per giungere alle condizioni sufficienti per l'estremo relativo forte furono indicati da G. Darboux e A. Kneser, da E.E. Levi, da L. Tonelli, e da C. Carathéodory.
12. La condizione di trasversalità. - Fino ad ora ci siamo occupati della ricerca del minimo e del massimo nella classe S-80??? di tutte le curve C, soddisfacenti alle indicate condizioni analitiche e aventi tutti gli stessi punti estremi A ⊄ (a, pa) e B ⊄ (b, pb). Si presentano però delle questioni di minimo o massimo relative a classi di curve C per le quali uno solo dei punti estremi è comune a tutte le curve, mentre l'altro può variare su una data linea L. Per fissare le idee, supponiamo variabile il primo estremo e consideriamo la classe S-80???1 di tutte le curve C, analoghe per le loro proprietà analitiche a quelle della classe S-80???, ed aventi tutte il secondo estremo B nel punto fisso (b, pb) mentre il primo estremo A è soltanto soggetto a restare sulla linea L. Una curva C0 che sia estremante per l'integrale I [C] nella classe S-80???1 dovrà soddisfare a tutte le condizioni necessarie per l'estremo date relativamente alla classe S-80???; ma dovrà in più verificare anche altre condizioni. Lo studio della variazione prima δI conduce, in questo caso, alla condizione di Eulero e anche alla condizione di trasversalità, che deve essere verificata nel primo punto A0 della curva estremante C0. Indicando con ç′ il coefficiente angolare della tangente in A0 alla linea L (la tangente essendo orientata nel verso delle ascisse crescenti, quando essa non risulti parallela all'asse delle y) ed essendo y0′ (a) quello della tangente in A0 ⊄ (a, y0 (a)) alla C0, la condizione di trasversalità è espressa dall'uguaglianza
se ç′ è finito, e dalla fy′ (a, y0 (a), y0′ (a)) = 0, se ç′ è infinito. Quando questa condizione è verificata si dice che la C0 è trasversale alla L nel punto A0 (A. Kneser, 1900). Per certi tipi semplici di integrali I, la trasversalità si identifica con l'ortogonalità.
Lo studio della variazione seconda δ2 I conduce nel caso attuale ad una condizione più restrittiva di quella di Jacobi, che è dovuta ad A. Kneser.
Si possono considerare anche i massimi e minimi dell'integraie I [C] relativamente alla classe S-80???2 di tutte le curve C, analoghe per le loro proprietà analitiche a quelle della classe S-80???, e aventi il primo estremo A comunque situato su una data linea L1, e il secondo B pure comunque situato su un'altra linea L2. Una curva C0 estremante deve, in questo caso, verificare la condizione di trasversalità tanto nel suo primo estremo A0 quanto nel secondo estremo B0, la trasversalità essendo in A0 relativa alla linea L1, e in B0 alla L2. Lo studio della variazione seconda dà qui una condizione più restrittiva di quella di Jacobi e di Kneser: essa è dovuta a G. A. Bliss (1904).
13. Soluzioni discontinue. - Sono date da quelle curve estremanti che risultano composte di un numero finito di archi a tangente variabile in modo continuo e che presentano dei punti angolosi nel passaggio dall'uno all'altro di questi archi. In tali soluzioni non si hanno dunque delle discontinuità per le coordinate x e y del punto mobile sulla curva; si hanno invece delle discontinuità per la derivata y′ (x). Di queste soluzioni si occupò per primo I. Todhunter (1871), il quale trattò moltissimi esempî senza però giungere a teoremi generali. Una teoria in forma definitiva fu invece svolta da C. Carathéodory (1904). Ogni soluzione discontinua è un'estremaloide, e in ogni suo punto angoloso (ù, ç) valgono le seguenti uguaglianze, date da C. Weierstrass e da G. Erdmann (1877):
dove ç1′ e ç2′ rappresentano i coefficienti angolari delle tangenti nel punto (ù, ç) ai due archi della soluzione che concorrono in questo punto.
Il più semplice problema in forma parametrica.
14. Gl'integrali I [C], per i quali abbiamo esposto la teoria degli estremi, dipendono da curve C che, essendo rappresentate analiticamente da una equazione y = y (x), necessariamente soddisfano alla condizione di essere incontrate in un solo punto al più da ogni parallela all'asse delle y. Vi sono peraltro dei problemi di calcolo delle variazioni, imposti anche dalla geometria e dalla meccanica, che si riferiscono a integrali dipendenti da curve non soddisfacenti alla condizione accennata, condizione che, in particolare, non è mai verificata quando si tratta di curve chiuse. È pertanto necessario di studiare in modo sistematico, come per primo fece C. Weierstrass (intorno al 1865), anche le questioni di massimo e minimo per integrali analoghi a I [C], ma dipendenti da curve piane rappresentate analiticamente in forma parametrica, cioè da un sistema di due equazioni x = x (t), y = y (t), dove il parametro t varia in un certo intervallo (t0, t1). Gl'integrali che così si prendono a considerare hanno la forma
con F (x, y, x′, y′), funzione che viene supposta (reale) finita e continua, insieme con le sue derivate parziali dei primi due ordini, per tutti i punti (x, y) di un dato campo A del piano x, y e per tutte le coppie (x′, y′) di numeri (reali) non ambedue nulli. Inoltre la F (x, y, x′, y′) è supposta positivamente omogenea di grado 1 rispetto alle x′, y′. Ciò significa che, per ogni k > 0 e per tutte le coppie (x′, y′) indicate, vale l'uguaglianza
Quest'ultima condizione assicura che il valore di .~ [C] è indipendente dalla rappresentazione analitica x = x (t), y = y (t) adottata per la curva C, e dipende esclusivamente dalla C. Ciò vale naturalmente quando, come appunto si fa, si considerino soltanto curve C continue e di lunghezza linita, e rappresentazioni analitiche della curva con x (t) e y (t) funzioni assolutamente continue. Fra le rappresentazioni analitiche ammesse, ha particolare importanza quella in cui il parametro t è la lunghezza dell'arco della curva che va dal primo estremo al punto corrente sulla curva stessa.
Dalla relazione (α) si deduce un'importante funzione, eonsiderata da C. Weierstrass e comunemente indicata con F1 (x, y, x′, y′), che risulta definita dalle uguaglianze
Questa funzione serve a caratterizzare varî tipi di integrali J [C]. E, precisamente, J [C] si dice: regolare positivo (negativo) se, per tutti i punti (x, y) del campo A e per tutte le coppie (x′, y′) indicate, è sempre F1 > 0 (〈 0); quasi-regolare positivo (negativo) se è sempre F1 ≥ 0 (≤ 0); quasiregolare normale, se è quasi regolare e se, di più, per ogni punto (x, y) fissato, i valori di ϑ che annullano la F2 (x, y, cos ϑ, sen ϑ) non riempiono mai nessun intervallo; quasi-regolare seminormale, se è quasi regolare e se in nessun punto (x, y) la F1 (x, y, cos ϑ, sen ϑ) si annulla per tutti i valori di ϑ. Specialmente nelle questioni relative all'esistenza dell'estremo assoluto, ha molta importanza anche il segno della funzione F (x, y, x′, y′); e l'integrale J [C] si dice definito positivo (negativo) se è sempre F > 0 (〈 0); semidefinito positivo (negativo) se è sempre F ≥ 0 (≤ 0).
Per gl'integrali J [C] si svolge tutta una teoria analoga a quella che abbiamo rapidamente riassunta per l'integrale I [C]. Qui ci limiteremo a rilevare che, nel caso attuale, la condizione di Eulero si esprime mediante le equazioni delle estremaloidi
le quali, quando la curva estremante abbia sempre tangente che varii in modo continuo, diventano le equazioni delle estremali
Queste due equazioni differenziali non sono fra loro indipendenti. Nell'ipotesi che le equazioni x = x (t), y = y (t) della curva estremante siano tali da ammettere sempre finite anche le derivate seconde x″ (t), y″ (t), C. Weierstrass mostrò che le due equazioni delle estremali sono equivalenti all'unica equazione differenziale del 2° ordine
Altri problemi.
15. Generalizzazioni degl'integrali I [C] e J [C]. - Invece di considerare un integrale dipendente come I [y (x)] da una sola funzione incognita y (x), si può studiare un integrale dipendente da più funzioni y1 (x), y2 (x), . . ., yn (x):
Quelle funzioni y1 (x), . . ., yn (x) che dànno un estremo di In in condizioni analoghe a quelle considerate per il caso di I [C], devono soddisfare (sotto opportune ipotesi) al sistema delle equazioni differenziali di Eulero:
Un esempio d'integrale In è dato dall'azione hamiltoniana
per la quale v. hamilton: Principio di Hamilton. Anche per altri principî della dinamica e dell'ottica, che si riconnettono al calcolo delle variazioni, v.: azione minima; dinamica, n. 21; fermat; variazionali principî.
Si possono anche prendere in considerazione degli integrali della forma
dove la funzione f dipende dalla x, dalla y (x) e dalle sue prime m derivate.
Per questi integrali l'equazione differenziale di Eulero si scrive
I due tipi di integrali qui indicati rientrano poi in quello più generale dato da
e per tutti questi integrali si hanno anchie le corrispondenti forme parametriche.
16. Integrali multipli. - Abbiamo già accennato a un'importante questione, quella del problema di Dirichlet, che conduce alla ricerca dell'estremo di un integrale doppio. La teoria degli estremi per gl'integrali multipli non è ancora giunta all'alto grado di perfezione conseguito da quella relativa agl'integrali semplici. Tuttavia anche in essa si sono già ottenuti notevoli risultati. Per una funzione z (x, y) estremante un integrale doppio della forma
vale, sotto opportune ipotesi, la condizione espressa dall'equazione a derivate parziali del 2° ordine
dove è p = zc, q = zy. Questa condizione, dovuta a Lagrangge (1760), corrisponde a quella di Eulero, data per gl'integrali semplici.
17. Problemi isoperimetrici. - Il primo problema di questo tipo fu considerato, come s'è già detto, da Giacomo Bernoulli (1697) e si riferisce alla proprietà di massimo del cerchio, proprietà ben conosciuta dai geometri greci (v. isoperimetri). Esso può essere così formulato: fra tutte le curve piane, chiuse, di data lunghezza, trovare quella che racchiude la massima area. I problemi isoperimetrici si possono studiare sia nella forma ordinaria sia in quella parametrica. Nella forma ordinaria, l'enunciato generale del tipo più semplice di questo problema è il seguente: fra tutte le funzioni y (x) definite nell'intervallo (a, b), soddisfacenti a opportune condizioni di continuità e derivabilità, tali che y (a) = pa, y (b) = pb, e per le quali l'integrale
assume un dato valore, trovare quella che rende minimo o massimo l'altro integrale
Secondo la regola isoperimetrica di Eulero (1738), se y (x) è una funzione estremante, avente sempre derivata prima continua, esistono due numeri h e k, non ambedue nulli, e tali che la y (x) soddisfi all'equazione differenziale
18. I problemi di Lagrange e di Mayer. - Una questione di calcolo delle variazioni che non rientra in nessuno dei tipi sino ad ora da noi considerati è quello della brachistocrona in un mezzo resistente, che Eulero studiò per primo (1744); supposto che un punto mobile in un mezzo resistente debba passare da una posizione A a un'altra B, si deve determinare il cammino secondo il quale, partendo da A con una data velocità, il passaggio avviene nel minor tempo possibile. Si ha qui una questione che appartiene al tipo dei problemi di Lagrange, i quali si possono presentare sia nella forma ordinaria sia in quella parametrica. Nella forma ordinaria si enunciano così: dato l'integrale
determinare le n funzioni y1 (x), . . ., yn (x) che lo rendono minimo o massimo fra tutte quelle che soddisfano a certe condizioni ai limiti e alle equazioni
Sotto ipotesi che vanno ben precisate, vale per simili problemi la regola dei moltiplicatori di Lagrange, trovata in casi particolari da Eulero (1744) e in generale da Lagrange (1806): indicate con λ1, . . ., λp, altrettante funzioni della x, si formi l'espressione
allora, se le y1, . . ., yp risolvono il problema enunciato, esse insieme ad opportune funzioni verificano il sistema di equazioni differenziali
Le funzioni λ1, . . ., λp, sono chiamate i moltiplicatori.
Molto affine a quello di Lagrange è il problema di MaVer (1878), che, nella forma ordinaria, può essere così presentato: determinare in un intervallo (a, b) le funzioni y1 (x), . . ., yn (x), in modo che soddisfino alle equazioni differenziali (E) e a certe condizioni ai limiti, e che una di esse abbia, per x = b, il più grande (o più piccolo) valore possibile. Sotto opportune ipotesi, vale anche qui la regola dei moltiplicatori (A. Mayer, 1895): se le funzioni y1, . . ., yn risolvono il problema, devono esistere p funzioni della x, λ1, λ2, . . ., λp, non tutte identicamente nulle nell'intervallo (a, b), verificanti, insieme con le y1, . . ., yn, il sistema di equazioni differenziali
Bibl.: L. Eulero, Methodus inveniendi lineas curvas maximi minimive proprietate gaudentes, ecc., Losanna-Ginevra 1744; id., Institutionum calculi integralis volumen tertium, cum appendice de calculo variationum, Pietroburgo 1770; G. L. Lagrange, Théorie des fonctions analytiques, Parigi 1797; id., Leçons sur le calcul des fonctions, ivi 1806; I. Todhunter, A history of the progress of the calculus of Variations during the nineteenth century, Cambridge 1861; id., Researches in the calculus of Variations, Londra 1871; E. Pascal, Calcolo delle variazioni, Milano 1897; id., Die Variationsrechnung, Lipsia 1899; A. Kneser, Lehrbuch der Variationsrechnung, 2ª ed., Brunswick 1935; H. Hancock, Lectures on the Calculus of Variations, Cincinnati 1904; O. Bolza, Vorlesungen über Variationsrechnung, Lipsia 1909; J. Hadamard, Leçons sur le Calcul des Variations, Parigi 1910; L. Tonelli, Fondamenti di calcolo delle variazioni, voll. 2, Bologna 1921-23; G. Vivanti, Elementi di calcolo delle variazioni, Messina 1923; G. A. Bliss, Calculus of Variations, Chicago 1925; C. Weierstrass, Werke, VII: Vorlesungen über Variationsrechnung, Lipsia 1927; M. Morse, The Calculus of Variations in the large, New York 1934; C. Carathéodory, Variationsrechnung und partielle Differentialgleichungen erster Ordnung, Lipsia 1935; M. Lecat, Bibliographie du Calcul des Variations, Parigi 1913-16; A. Kneser, E. Zermelo, H. Hahn, M. Lecat, Calcul des Variations, in Encyclopédie des Sciences Mathématiques VI, t. 2°, Parigi 1913-16.