ottimizzazione non smooth
Teoria e metodi dell’ottimizzazione che utilizzano ipotesi più deboli di quella classica di differenziabilità (secondo Fréchet). La ricerca di una definizione più debole di quella data dal matematico francese, con la conseguente possibilità di individuare una classe funzionale più ampia, ha accompagnato tutto il Novecento, ma l’ottimizzazione non smooth si è sviluppata in modo decisivo a partire dagli anni Sessanta, inizialmente con le funzioni convesse (o concave) e poi con quelle lipschitziane. Per una funzione convessa reale di n variabili reali, viene chiamato subgradiente nel punto x ogni vettore y tale che f(z)≥(x)+y ∙z per ogni z. La definizione generalizza una caratterizzazione delle funzioni convesse differenziabili (in cui il vettore y è unico e coincide con il gradiente): come il gradiente definisce l’iperpiano tangente all’epigrafico di f nel punto (x,f(x)), così in generale un sub gradiente y definisce un iperpiano di supporto allo stesso insieme. L’insieme di tutti i subgradienti viene detto subdifferenziale. Si dimostra che y appartiene al subdifferenziale di f nel punto x se e solo se risulta f′(x,d)≥y∙d per ogni d (dove f′(x,d) indica la derivata di f nel punto x e nella direzione d). Ogni funzione convessa (superiormente limitata nell’intorno di un punto) è localmente lipschitziana, sod- disfa cioè la condizione ∣f(x)−f(y)∣≤k∣∣x−y ∣∣ per ogni x e y (con k positivo). Per le funzioni lipschitziane, viene chiamato gradiente generalizzato l’insieme dei vettori y tali che f0(x,d)≥y∙d per ogni direzione d. La derivata f0 (che in questa definizione sostituisce f′(x,d)) è chiamata derivata di Clarke ed è definita come il limite superiore di [f(z+td)−f(z)]/t per z tendente a x e t tendente a 0+.