L’a. chimica si occupa dei metodi che permettono di determinare la composizione chimica di un campione. Genericamente ha il significato di scissione in elementi più piccoli e loro esame, in contrapposizione alla sintesi che è un assemblaggio di più elementi in una unità più grande. Viene solitamente suddivisa in a. qualitativa, che fornisce le informazioni che riguardano le specie atomiche, molecolari o i gruppi funzionali presenti in un campione, e a. quantitativa che fornisce invece le informazioni numeriche sulle quantità relative di uno o più componenti (definito analita e inteso come la sostanza di interesse nella determinazione analitica).
Dal punto di vista operativo, i metodi analitici possono essere classificati in metodi classici e metodi strumentali; tale classificazione si basa innanzitutto su ragioni storiche, in quanto i metodi classici hanno preceduto quelli strumentali di circa un secolo.
Metodi classici. - Fanno ricorso quasi esclusivamente a reazioni chimiche e per la loro realizzazione si utilizza la normale attrezzatura di laboratorio. Sebbene molti di questi metodi risalgano agli albori della chimica, vengono tuttora utilizzati in molti laboratori per a. di routine, anche se è abbastanza generalizzata la tendenza di una crescente diminuzione del loro utilizzo.
Nel caso di a. qualitativa, i componenti sono trattati con reagenti con lo scopo di ottenere dei prodotti riconoscibili dal colore, dal loro stato fisico, dal punto di ebollizione o di fusione, dall’odore o dalle attività ottiche. Le reazioni applicate si distinguono come reazioni per via umida o per via secca. Le prime, generalmente effettuate in soluzione acquosa, portano alla formazione di un precipitato, al cambiamento del colore o allo sviluppo di gas, un cambiamento, cioè, percepibile dai sensi. A puro titolo esemplificativo, si pensi all’a. qualitativa di un gas per verificare la presenza di anidride carbonica. È sufficiente far gorgogliare il gas in esame in una soluzione di acqua di bario (contenente cioè cloruro di bario) e verificarne l’intorbidimento per la formazione di carbonato di bario, insolubile in acqua. L’a. qualitativa con metodi classici non consente solo di verificare la presenza di un determinato elemento, ma anche di definire il suo stato di valenza. Tutte le prove qualitative sono, in una certa misura, anche quantitative, forniscono cioè un’indicazione riguardo alla quantità del costituente cercato; nell’esempio precedente la quantità di carbonato di calcio che precipita è direttamente proporzionale alla quantità di anidride carbonica fatta gorgogliare nella soluzione di acqua di bario; in accordo con il fatto che ogni molecola di anidride carbonica produce una molecola di carbonato di bario.
Indicazioni approssimative sulle quantità dei costituenti presenti possono essere di grande aiuto nella scelta dei metodi da usare per la loro determinazione quantitativa, solitamente effettuata con metodi gravimetrici o per titolazione. Nel primo caso il prodotto della reazione (derivante dall’analita) viene isolato sotto forma di un precipitato insolubile che viene poi separato mediante filtrazione, lavato e pesato, dopo essiccazione. La massa dell’analita può essere facilmente determinata se si conosce la reazione intercorsa. Nel secondo caso (a. volumetriche) si misura il volume di un composto standard che reagisce completamente con l’analita. Dal volume di titolante consumato si risale (attraverso un semplice calcolo stechiometrico) alla quantità di analita in soluzione.
Sempre tra i metodi classici, vanno poi menzionati quelli per via secca, solitamente impiegati come saggi preliminari. Essi consistono nell’esaminare una sostanza rispetto alla sua capacità di colorare una fiamma, alla fusibilità o alla volatilità. Per es., i sali di sodio colorano la fiamma non luminosa di un gas in giallo monocromatico, mentre i composti contenente potassio in violetto.
Metodi strumentali. - Già all’inizio degli anni 1930, i chimici cominciarono a sfruttare, per risolvere problemi analitici, fenomeni diversi da quelli precedentemente illustrati. La misura di talune proprietà fisiche dell’analita, come la conducibilità, il potenziale elettrodico, l’assorbimento o l’emissione di luce, il rapporto massa/carica e la fluorescenza, fu utilizzata per l’a. di composti inorganici, organici e biochimici. In aggiunta a ciò, le tecniche cromatografiche ad alta efficienza cominciarono a sostituirsi alla distillazione, all’estrazione e alla precipitazione per separare i componenti di miscele complesse, prima della loro determinazione qualitativa o quantitativa. Questi metodi più moderni per la separazione e la determinazione di specie chimiche vengono raggruppati sotto il termine di metodi strumentali di analisi. Uno strumento per l’a. chimica trasforma il segnale analitico (radiazioni, proprietà termiche, potenziale o cariche elettriche) in una forma rilevabile e comprensibile all’operatore umano. Gli strumenti per l’a. chimica sono generalmente costituiti da quattro componenti essenziali: a) un generatore di segnale che riflette la presenza di un analita e solitamente è proporzionale alla sua concentrazione (semplice se composto solamente da uno ione generato dall’analita stesso o molto complesso come per le a. all’infrarosso); b) un trasduttore di ingresso (in genere chiamato rivelatore) che solitamente converte il segnale analitico in un segnale elettrico; c) un elaboratore di segnale che modifica il segnale in uscita dal rivelatore (per es. lo amplifica o lo filtra o lo integra) al fine di renderlo compatibile con il dispositivo di lettura; d) un dispositivo di lettura che serve a rendere il segnale comprensibile all’osservatore umano. I metodi strumentali si distinguono tra quelli che si fondano sulla misurazione di proprietà chimico-fisiche e quelli che si basano su tecniche di separazione.
Metodi elettrochimici. - Possono essere genericamente definiti come metodi di misura della risposta elettrica di un sistema o di un campione chimico e tra i più significativi occorre ricordare: la potenziometria, la voltammetria, l’elettrogravimetria, la polarografia, la coulombometria e la conduttimetria. Il sistema sperimentale è costituito essenzialmente da un elettrolita (un sistema capace di condurre corrente), da un circuito esterno o di misura (capace di applicare e misurare segnali elettrici) e dagli elettrodi (servono da comunicazione tra il sistema di misura e l’elettrolita). Uno dei vantaggi principali di questo tipo di apparecchiature, oltre al loro costo contenuto, è quello di fornire risultati specifici per una particolare forma chimica di un elemento; è possibile, infatti, determinare la concentrazione di ciascuna specie presente in una miscela di Fe2+ e Fe3+, al contrario di quello che accade con altri metodi strumentali che fornirebbero unicamente la quantità totale di ferro presente. Un’altra peculiarità dei metodi elettrochimici è che essi rispondono all’attività di una specie chimica piuttosto che alla sua concentrazione. Ciò è di grande interesse quando di una specie in soluzione non serve la concentrazione totale, ma solo la quantità disponibile per determinate reazioni.
Metodi spettroscopici. - Si basano sulla misura e sullo studio di uno spettro. In origine uno spettro indicava la gamma di colori che si osserva quando la luce bianca viene dispersa per mezzo di un prisma, ora però il termine è riferito alle variazioni di energia che interessano gli atomi e le molecole e che sono dovute all’emissione, assorbimento o diffusione di radiazioni o particelle elettromagnetiche. Tutti i metodi spettroscopici hanno in comune l’interazione delle radiazioni elettromagnetiche con gli stati quantici di energia della materia. I primi strumenti spettroscopici furono sviluppati per essere utilizzati nella regione del visibile e per questo furono chiamati ottici. Ora questo termine è meno specifico e viene utilizzato anche per gli strumenti che operano nella regione dell’infrarosso e dell’ultravioletto. Nel campo dell’ultravioletto e del visibile, i sistemi impiegati studiano la transizione elettronica nelle molecole e negli atomi e hanno una diffusa applicazione nella determinazione qualitativa, ma soprattutto quantitativa delle specie molecolari. Questo metodo è ancora molto utilizzato nelle a. cliniche. Una particolare applicazione della spettroscopia nella regione del UV/Vis è la spettroscopia fotoacustica che permette di ottenere spettri di assorbimento di sostanze solide o liquidi torbidi (con i metodi ordinari, che necessitano di soluzioni limpide, ciò è impensabile a causa della diffusione o riflessione della luce). La spettroscopia atomica in fiamma (assorbimento atomico) e la spettroscopia di emissione al plasma (ICP, Inductive Coupled Plasma) sono tecniche usate principalmente nell’a. degli elementi metallici in svariate matrici: acqua, siero, solventi organici. Gli spettri atomici, nella regione del visibile e dell’ultravioletto, si ottengono convertendo i componenti del campione in atomi gassosi o in ioni elementari, mediante un adeguato trattamento termico (atomizzazione). Nel primo caso (assorbimento atomico) l’atomizzazione si ottiene spruzzando il campione nebulizzato su una fiamma acetilenica (temperatura 1700-3200 °C), mentre nel secondo caso (ICP) il fenomeno si realizza median;te una sorgente al plasma (temperatura 4000-6000 °C). Questa tecnica permette a. qualitative e quantitative e soprattutto la possibilità di determinare concentrazioni infinitesime di elementi inorganici. Per questa sua peculiarità, essa viene utilizzata nell’a. ambientale per il riconoscimento di inquinanti inorganici nelle acque. La spettroscopia all’infrarosso viene principalmente impiegata per l’identificazione di gruppi funzionali, in particolare di composti organici che, nella regione del medio infrarosso, generano spettri complessi con impronta digitale caratteristica e distinguibile da ogni altro composto. Grazie a questa caratteristica è stato possibile creare banche dati (anche su supporto elettronico) che contengono oltre 100.000 spettri delle sostanze più disparate. Software dedicati consentono il confronto tra la sostanza in esame e gli spettri della banca dati e indicano la probabilità che il composto incognito sia uno di quelli presenti nella biblioteca. La spettroscopia Raman presenta diverse analogie con quella all’infrarosso; tutte e due infatti operano nella regione del medio infrarosso e anche nella tecnica Raman il fenomeno che si osserva deriva da transizioni vibrazionali quantizzate, analoghe a quelle associate all’assorbimento infrarosso. Gli spettri Raman sono ottenuti irradiando il campione con una potente sorgente laser di radiazione monocromatica visibile o infrarossa. Un vantaggio importante della spettrometria Raman (rispetto a quella infrarossa) è rappresentato dall’assenza di interferenza dovuta all’acqua e pertanto, con questa tecnica, è possibile eseguire spettri di soluzioni acquose. La spettroscopia a raggi X, come la spettroscopia ottica, si basa su misure di emissione, assorbimento, diffusione e difrazione di radiazioni elettromagnetiche ed è in competizione, come strumento per a. elementare, con la spettroscopia del visibile, con la differenza che in questo caso l’energia applicata è molto più alta e ciò genera transizioni degli elettroni dei gusci più interni, piuttosto che degli elettroni di valenza. Con questa tecnica è possibile ottenere informazioni utili sulla composizione e struttura della materia, per es. si può eseguire l’a. quantitativa di una miscela di terre rare o la determinazione di una struttura cristallina. La tecnica è frequentemente impiegata nel campo della metallurgia e mineralogia, ma è applicata anche per la caratterizzazione di materie plastiche. La risonanza magnetica nucleare (NMR) viene usata per studiare la risonanza del protone (vengono cioè coinvolti i nuclei degli atomi) ed è basata sulla misura dell’assorbimento di radiazioni elettromagnetiche nella regione delle radiofrequenze. Viene usata principalmente per definire la struttura e l’identificazione quantitativa di specie organiche, ma in alcuni casi è impiegata per particolari specie inorganiche come fluoro, fosforo, boro e altri elementi che possiedono un momento magnetico molecolare. La spettrometria di massa si realizza convertendo i componenti da analizzare in ioni gassosi di elevata mobilità e separandoli poi in base al loro rapporto massa/carica. È molto utilizzata in quanto permette di avere informazioni riguardanti: la composizione qualitativa e quantitativa di analiti organici e inorganici presenti in una miscela multicomponenti, la struttura di molte specie molecolari complesse e i rapporti isotopici degli atomi nel campione. Mentre i principi su cui si basa uno spettrometro di massa sono relativamente semplici, molto complesso è il dispositivo elettronico e meccanico degli strumenti ad alta risoluzione e, di conseguenza, il loro costo in termini di acquisto e funzionamento. Nella applicazione di tecniche analitiche, la separazione dell’analita da altri composti interferenti è sovente un passaggio importante e in alcuni casi essenziale.
Cromatografia. - È il mezzo più diffuso per realizzare separazioni analitiche. Questo termine indica tutti quei metodi attraverso i quali è possibile separare fisicamente due o più componenti di una miscela, distribuendoli tra due fasi, una stazionaria e una mobile. La classificazione dei metodi cromatografici dipende dal tipo di fase mobile e stazionaria utilizzate. Si possono distinguere la cromatografia liquida (LC), dove la fase fluente è un liquido, la gascromatografia (GC), dove la fase fluente è un gas, e la cromatografia con fluidi supercritici (SFC), dove la fase fluente sono gas e fluidi in fase supercritica. L’oculata scelta delle fasi stazionarie e delle fasi mobili è alla base della riuscita separazione anche di miscele complesse. Si pensi, per es., che attraverso tecniche gascromatografiche è possibile separare gli innumerevoli composti organici contenuti in un petrolio grezzo. A seguito dello sviluppo delle tecniche cromatografiche, sono stati studiati e messi a punto numerosi rivelatori che hanno il compito di definire un segnale elettrico proporzionale alla concentrazione dell’analita che viene, di volta in volta, fluito dalla colonna cromatografia. In particolare per la gascromatografia sono stati sviluppati rilevatori a ionizzazione di fiamma (FID), a conducibilità termica (TCD), a cattura di elettroni (ECD) particolarmente idonei per l’a. di composti organici alogenati, mentre per la cromatografia liquida i rilevatori più utilizzati sono quelli ad assorbanza UV, a fluorescenza, a indice di rifrazione ed elettrochimici.
È da sottolineare, infine, l’esistenza di apparecchiature che contemplano l’impiego congiunto di due dei sistemi descritti. A titolo esemplificativo possiamo ricordare l’accoppiamento di un sistema cromatografico, che ha la funzione di separare una miscela di composti, con uno spettrometro di massa a scansione rapida. Tale tecnica viene impiegata, con ottimi risultati, per la determinazione qualitativa e quantitativa dei composti presenti in sistemi naturali e biologici (è stato per es. possibile caratterizzare i componenti responsabili dell’aroma e del sapore nei cibi e identificare un gran numero di inquinanti in matrici acquose).
A. economica del diritto (in ingl. Law and Economics). Scuola di pensiero normativa e positiva la cui nascita può essere datata agli inizi degli anni 1960 negli USA con i lavori di R. Coase e G. Calabresi. Analizza gli esiti giuridici dell’interazione degli agenti attraverso la tecnica e la valutazione tipiche dell’economista. Particolare interesse è rivolto al concetto di ‘efficienza’ del fatto giuridico, secondo i canoni tradizionali della microeconomia. Attraverso la comparazione dei diversi esiti economici che la norma giuridica comporta, si individuano le modalità con cui la norma giuridica deve essere indirizzata e regolamentata in modo da garantire il massimo vantaggio alle parti.
L’a. economica del diritto è quindi composta da due elementi essenziali: l’a. positiva e quella normativa. Alla prima è demandato l’onere di esaminare gli effetti delle norme giuridiche sugli agenti e di studiare le conseguenze di una differente stesura della norma stessa, alla ricerca della migliore configurazione, di quella cioè che assicura la massima efficienza economica e sociale. Alla seconda è invece demandata la fase di implementazione della norma, sempre alla ricerca del migliore modus operandi.
Il diritto non viene quindi visto con una concezione statica ma come insieme di vincoli e incentivi posti all’operare del singolo, che devono essere continuamente modificati e adattati per permettere all’agente di operare sempre nella massima libertà di scelta e con piena salvaguardia dei suoi e altrui diritti. Da ciò nasce il concetto di ‘efficienza’, tipico dell’a. paretiana della microeconomia. Secondo quest’ultima, gli agenti stabiliscono un contratto implicito derivante da una transazione, come la semplice operazione di scambio, la cui valutazione, in termini di utilità individuale (riflessa nel prezzo di mercato), è soddisfacente per entrambi. In questa valutazione rientrano anche tutte le alternative possibili, tra cui anche la possibilità di azione sleale, cioè di non mantenere fede agli impegni assunti. In questo senso, l’a. economica del diritto deve individuare anche le sanzioni necessarie affinché si eviti la ‘tentazione a barare’ (moral hazard) e rendere quindi il contratto, e la norma che lo regola, dotato di autonoma applicazione (cosiddetta enforceability della norma). Da questo punto di vista, l’arricchimento della teoria economica da parte della teoria dei giochi ha contribuito notevolmente all’a. economica del diritto; la scelta razionale degli agenti dipende infatti da una combinazione di incentivi a fare e sanzioni a non fare che deve risultare ottima per le parti.
Questa visione marcatamente individualistica e fortemente identificata nel meccanismo di mercato concorrenziale, è tipica di quella che viene riconosciuta come scuola di Chicago alla quale si riconducono i contributi di Coase. Tuttavia è proprio su questa presunta centralità dell’azione individuale che si distacca la scuola di Yale con i contributi di Calabresi. In questo approccio si mette in discussione la base individualistica dell’a. economica del diritto in considerazione degli effetti sociali che le interazioni tra individui generano. Riscoprendo quindi il ruolo economico delle esternalità, l’a. viene riportata sul terreno delle politiche pubbliche, cioè di quell’insieme di norme e regole che guidano gli interessi collettivi.
Esemplificativa è la differenza di impostazione sulla responsabilità per danni: nell’approccio di Chicago essa ricade solo sulle parti mentre in quello di Yale ricade sulla società. In quest’ultimo sorge la necessità di un ‘agente esterno’ che sia conscio degli effetti esterni generati dall’interazione individuale e ne regoli la distribuzione sociale. Lo Stato quindi interviene regolando opportunamente gli incentivi e le sanzioni per raggiungere un fine collettivo e non più individuale. Stando a contributi più recenti, ancora oggi si identificano due filoni principali. Il primo, fortemente formalizzato e quindi molto influenzato dal pensiero economico, si raccoglie intorno alle principali riviste internazionali, edite a Chicago (Journal of Legal Studies, fondato da Richard Posner, e il Journal of Law & Economics, di cui Coase fu direttore). Il secondo filone di studi, più istituzionalista, raccoglie i contributi di O. Williamson, gli studi di N. Komesar e l’approccio della comparative law and economics di R. Cooter, T. Ulen e H. Hansmann.
A. costi-benefici Tecnica di valutazione dei costi e dei benefici sociali complessivi che derivano da un’attività economica intrapresa da un’azienda privata, dal governo o da un ente pubblico. Si applica soprattutto per stimare i costi e i benefici sociali che si attendono dalla realizzazione di grandi progetti e opere pubbliche, e in generale per valutare comparativamente programmi di spesa pubblica. Nella valutazione di progetti pubblici, i costi e i benefici sociali debbono includere i costi e benefici ‘esterni’, cioè anche quelli che ricadono su soggetti che non sono direttamente coinvolti nella realizzazione dell’opera, mentre nel settore privato i costi e benefici rilevanti per valutare la convenienza di un progetto sono solo quelli ‘interni’, che riguardano il soggetto economico (impresa o persona) che decide e realizza l’attività. Gli effetti esterni (positivi o negativi) sono detti esternalità (➔). I benefici sono rappresentati dagli incrementi di reddito o dalle economie di costo, che l’attività progettata potrà portare alla collettività; ma anche dall’utilità aggiuntiva che può derivare da beni intangibili o dall’eliminazione di danni ed effetti nocivi, a seguito della realizzazione del progetto.
L’a. costi-benefici si avvale di diversi metodi per risolvere il difficile problema di tradurre in quantità misurabili in moneta i costi e i benefici intangibili o altri aspetti qualitativi della valutazione di convenienza. Nel calcolo, la grandezza che rappresenta i costi è ottenuta generalmente attualizzando il valore dell’ammontare totale delle risorse utilizzate, nel corso del tempo, per la realizzazione del progetto. Tali costi includono il costo del capitale e il costo di mantenimento dell’opera progettata, ma anche l’eventuale perdita di benefici o l’aggravio di costo trasferiti su altri enti. Costi e benefici di un progetto sono comparati con quelli che risulterebbero in caso di azioni alternative o in caso d’inazione, valutando anche i costi-opportunità (➔ costo) dovuti alla rinuncia a opzioni alternative e pertanto valutando, oltre al danno eventualmente emergente a seguito della scelta, anche il lucro cessante per la rinuncia a benefici che altrimenti si sarebbero ottenuti con opzioni diverse. Anche le grandezze che rappresentano i benefici debbono essere ricondotte a valori attuali e sorge quindi un delicato problema di stima del coefficiente di sconto da applicare.
L’a. costi-benefici è utilizzata dagli studiosi di finanza pubblica e dalle autorità di politica economica per confrontare in termini quantitativi le azioni alternative, che è possibile intraprendere per il raggiungimento di un determinato obiettivo di politica economica. Nelle economie contemporanee ha vasta applicazione anche per la valutazione di progetti d’investimento e programmi di spesa nei paesi in via di sviluppo da parte di governi e agenzie internazionali, che li finanziano con finalità d’aiuto allo sviluppo. L’a. costi-benefici trova applicazione anche nella programmazione pluriennale dei bilanci pubblici.
In genere, risoluzione di un complesso negli elementi semplici che lo compongono. Nella logica aristotelica l’a. sta a indicare il procedimento mediante il quale si scompone il ragionamento nelle proposizioni costituenti e queste a loro volta nei termini.
Nella logica del Seicento l’a., intesa dapprima come metodo d’insegnamento, in contrapposto a sintesi, diviene successivamente, da Cartesio in poi, metodo di dimostrazione. La Logica di Port Royal attribuendo all’a. o ‘metodo d’invenzione’, nel solco delle dottrine cartesiane, una prevalenza sulla sintesi o ‘metodo di composizione’ anticipa le posizioni di Leibniz e di Newton.
Nella filosofia contemporanea l’a. viene prevalentemente intesa come l’unico metodo che, in contrapposizione ad arbitrarie estrapolazioni metafisiche, consente il raggiungimento di risultati validi, fornendo possibilità di verifica del metodo impiegato ed eliminando la necessità di ricorrere a ipotesi non controllabili. Questa concezione dell’a. è tipica soprattutto delle correnti dell’empirismo logico, dove essa diviene a. del linguaggio come strumento di chiarificazione dei termini usati, impedendo l’insorgere di equivocità e pseudo-problemi metafisici.
A. armonica Procedimento che consente di determinare le componenti sinusoidali (armoniche) di una grandezza variabile.
A. spettrale Il riconoscimento, effettuato mediante uno spettrometro o uno spettrografo, delle radiazioni monocromatiche che costituiscono una data radiazione (luminosa, radioelettrica, X).
A. grammaticale Identificazione del valore grammaticale delle parole, ossia della classe o parte del discorso cui una parola appartiene, ed eventualmente delle forme da esse assunte per effetto della flessione. A. logica Scomposizione del periodo nelle proposizioni che lo compongono, o di una proposizione nei suoi elementi, per riconoscere la funzione sintattica che ciascun elemento ha nella frase.
L’a. matematica (detta anche a. infinitesimale, o senz’altro a.) è quella parte della matematica i cui metodi e sviluppi sono fondati sull’operazione di passaggio al limite (➔ limite); essa si suddivide in due branche principali: l’a. (o calcolo) differenziale (➔ derivata; differenziale) e il calcolo integrale (➔ integrale), fondati rispettivamente sull’operazione di derivazione e di integrazione. In senso etimologico, l’a. matematica si fonda sulla decomposizione di figure geometriche, di funzioni, di grandezze fisiche ecc., in elementi infinitamente piccoli (infinitesimi). Un tal modo di procedere ha dato origine a diversi altri rami della matematica che vanno però considerati come capitoli autonomi dell’a. o addirittura indipendenti da essa, come per es. la teoria delle equazioni differenziali ordinarie e la teoria delle equazioni alle derivate parziali, il calcolo delle variazioni, la teoria delle funzioni, la geometria differenziale ecc.
In una lettera a Eratostene, scoperta nel 1906 da I.L. Heiberg, Archimede espone un suo metodo (da lui detto ‘meccanico’) per pervenire al calcolo di aree e volumi. Il metodo archimedeo ha carattere infinitesimale (decomposizione di un solido nelle sue infinite sezioni piane ecc.), ma era considerato dal suo inventore come un metodo euristico, da utilizzarsi cioè unicamente per pervenire al risultato, non già per dimostrare il risultato stesso. Le origini dell’a. infinitesimale moderna si possono far risalire al 17° secolo. Bonaventura Cavalieri (1598-1647) pubblica nel 1635 la sua Geometria indivisibilium, dove i solidi sono immaginati decomposti in infinite sezioni piane. Il germe di questa concezione era già stato espresso da G. Keplero nel dimostrare che i volumi di un cilindro e del parallelepipedo circoscritto stanno tra di loro come le basi. Un altro allievo di Galilei, E. Torricelli, in un libro edito nel 1641, introduce l’operazione di derivazione quale inversa dell’integrazione (il teorema di Torricelli-Barrow lega i due grandi rami dell’a., il calcolo differenziale e quello integrale). Infine un allievo di Cavalieri, P. Mengoli, nella sua Geometria speciosa (1659), introduce il concetto di limite e per mezzo di esso perviene a una prima definizione rigorosa dell’integrale definito, sostanzialmente identica a quella che verrà data, un secolo e mezzo dopo, da A.-L. Cauchy (integrale di Mengoli-Cauchy). All’incirca nello stesso periodo, il procedimento infinitesimale scaturisce da altri due problemi: quello della determinazione della velocità istantanea di un mobile e quello della determinazione della tangente a una curva in un suo punto; problemi che aprono la via al calcolo differenziale. E. Torricelli, P. Fermat, R. Descartes, I. Barrow (il maestro di Newton), B. Pascal e altri studiarono i primi problemi relativi alla tangente a una curva, considerandola come posizione limite della corda, e misero in luce l’opportunità di identificare l’elemento di curva (arco infinitesimo) con l’elemento di retta (segmento infinitesimo di tangente). G.W. Leibniz, in Nova methodus pro maximis et minimis, itemque tangentibus (1684), espone poi, concludendo questo periodo di ricerca, un metodo generale per trovare i massimi e i minimi e per tracciare le tangenti alle curve. Leibniz introduce il differenziale come incremento infinitesimo e definisce la derivata (velocità istantanea di variazione) come rapporto tra il differenziale della funzione e il differenziale della variabile indipendente (cioè tra l’incremento infinite;simo dell’ordinata e l’incremento infini;tesimo dell’ascissa del punto mobile sulla curva). La notazione differenziale leibniziana dy/dx, è tuttora usata. Tre anni dopo Leibniz e in modo da lui del tutto indipendente, I. Newton, nei suoi celebri Philosophiae naturalis principia mathematica (1687), introduce anch’egli il concetto di derivata, partendo da una concezione più legata alla meccanica che non alla geometria. Sia Newton sia Leibniz, nel calcolo effettivo delle derivate, applicano il principio che una quantità infinitesima, sommata a una quantità finita, si può trascurare. E di questo principio non danno giustificazione rigorosa. Di fronte al rigore logico tradizionale, la matematica veniva scossa da una vera crisi dei suoi ‘fondamenti’. L’identificazione di rettilineo e curvilineo; il fatto che si pervenisse a risultati esatti trascurando quantità non attualmente nulle, ma solo tendenti allo zero; in una parola, l’introduzione dell’infinitesimo e dell’infinito destò in molti matematici non poche perplessità. Altri invece furono conquistati ai procedimenti infinitesimali dai successi che essi facevano ottenere, successi a cui non si riusciva a giungere per altre vie: e svilupparono l’a. senza preoccuparsi dell’apparente contraddittorietà dei suoi principi. Così tra la fine del 17° e il principio del 19° sec. furono affrontati vittoriosamente i più svariati problemi geometrici e meccanici: ricordiamo a questo proposito il nome di G.-F.-A. de l’Hôpital (1704) che diede un teorema per ricondurre il calcolo del rapporto tra due funzioni a quello tra le rispettive derivate; di G. Bernoulli (1748), che pose il problema delle geodetiche e risolse quello della brachistocrona, dando anche inizio al calcolo delle variazioni; di B. Taylor (1731), che diede il nome a uno sviluppo in serie di una funzione, in cui compaiono le derivate della funzione stessa; di L. Eulero (1783) che studiò gli integrali multipli, alcuni tipi di equazioni differenziali, facendo applicazioni del calcolo infinitesimale allo studio delle proprietà differenziali delle superfici; di G.L. Lagrange (1813) che introdusse il simbolo f′(x) per la derivata della funzione f(x) e al quale si deve il moderno procedimento di calcolo delle derivate.
La critica dei principi dell’a. matematica e l’introduzione di procedimenti rigorosi si realizzano attraverso l’opera chiarificatrice di Cauchy, che dà le definizioni dei concetti di infinitesimo, infinito, continuità, convergenza, basate sull’operazione di passaggio al limite, e quella di P.G.L. Dirichlet, a cui si deve (1829) la definizione generale di funzione di variabile reale, non più come espressione di calcolo, ma come corrispondenza univoca arbitraria, per cui a ogni valore x di un certo intervallo della variabile corrisponde un valore y della funzione. Il lavoro di sistemazione rigorosa dell’a. continua nella seconda metà del secolo a opera di matematici di prim’ordine, fra i quali ci limitiamo a ricordare K.T.W. Weierstrass. Partendo dalla definizione di funzione data da Dirichlet viene costruita la teoria delle funzioni di variabile reale, nella quale si fondono intimamente i due indirizzi critico e costruttivo. Tra le questioni sviluppate dalla teoria ricordiamo: l’estensione del concetto di integrale (B. Riemann, H. Lebesgue, T.J. Stieltjes) a classi sempre più vaste di funzioni definite in insiemi di punti sempre più generali, strettamente legata alla teoria della misura degli insiemi di punti; lo studio, ripreso dalle fondamenta, delle equazioni differenziali, sia ordinarie sia alle derivate parziali (questioni di esistenza e unicità delle soluzioni, concetto di integrale generale ecc.), anche nei loro rapporti con la fisica matematica. L’idea di A.N. Kolmogorov, di applicare tecniche di teoria della misura allo studio delle equazioni di Hamilton della meccanica classica, ha condotto a una vera e propria rivoluzione in questo campo, con profonde ripercussioni su tutta la teoria qualitativa delle equazioni differenziali ordinarie, avendo evidenziato una transizione continua dall’ordine al caos. Partendo da un altro ordine di problemi si è sviluppata la teoria delle funzioni di variabile complessa secondo due diversi indirizzi dovuti rispettivamente a Cauchy e B. Riemann, e a Weierstrass; essa ha condotto successivamente allo studio di classi speciali di funzioni (le funzioni trascendenti intere, le funzioni ellittiche e abeliane e più in generale quelle automorfe) in tutte le loro implicazioni con la geometria algebrica e la topologia (N.H. Abel, C.G. Jacobi, F. Klein ecc.).
L’esigenza di rendere coerente e rigoroso il metodo degli infinitesimi e degli infiniti dell’a. ha portato (1966) a una profonda revisione concettuale, l’a. non standard, di cui A. Robinson è considerato uno dei principali artefici e nella quale si riguardano gli infinitesimi come elementi ideali, analogamente a quanto si fa per i punti all’infinito nel piano proiettivo. La caratteristica tendenza alla generalizzazione nella matematica moderna è bene esemplificata nel passaggio dall’a. infinitesimale all’a. funzionale; questa sostituisce al concetto di funzione inteso come legame tra due numeri variabili, quello di funzionale inteso come legame tra due funzioni variabili in opportuni insiemi. Il calcolo delle variazioni (già fondato a opera di Bernoulli, Eulero, Lagrange) appare allora come un capitolo dell’a. funzionale, corrispondente nell’a. ordinaria al capitolo sui massimi e minimi; e il campo delle equazioni differenziali si amplia in quello delle equazioni integro-differenziali (V. Volterra, E.I. Fredholm, L. Fantappiè). L’estensione infinito-dimensionale del calcolo differenziale classico conduce all’introduzione degli spazi astratti (spazi metrici, vettoriali, topologici, normati ecc.). Con essi s’impone un principio concettuale nuovo dell’a., e cioè che ogni problema o classe di problemi ha uno spazio funzio;nale naturalmente associato.
Lo studio degli spazi astratti, dovuto principalmente a S. Banach, L. Schwartz, L. Fantappiè, e soprattutto la teoria delle equazio;ni integrali si sono rivelati lo strumento decisivo per la formalizzazione della teoria quantistica. Lo sviluppo di quest’ultima ha indotto un poderoso sviluppo dell’a. funzionale, motivando la nascita di interi nuovi settori di questa, come la teoria spettrale, la teoria delle rappresentazioni dei gruppi, la teoria delle algebre di operatori, nei quali decisivo è risultato il contributo di J. von Neumann. Dagli studi di matematica applicata di A.D. Gardner, W.H. Kruskal e altri emerge una connessione tra una classe di equazioni non lineari importanti per la fisica matematica (equazione di Klein-Gordon, di Korteweg-de Vries ecc.) e sistemi hamiltoniani a infinite dimensioni, che si sviluppa in legami sorprendenti tra l’a. e la geometria algebrica. Lo sviluppo della geometria differenziale rafforza i legami tra essa e l’a. nella doppia direzione dell’uso di tecniche analitiche nella risoluzione di problemi geometrici e di una rilettura geometrica di risultati analitici. Con l’opera di H.M. Morse sui problemi globali del calcolo delle variazioni si è consolidato definitivamente l’uso dei metodi topologici nell’a.; tali metodi hanno ricevuto ulteriore impulso dalla dimostrazione, di M.F. Atiyah e I.M. Singer, dell’invarianza topologica dell’indice (analitico) di un’ampia classe di operatori ellittici su una varietà (teoria dell’indice). Il progetto originario di Volterra, dell’estensione del calcolo classico agli spazi di funzioni, che si era realizzato piuttosto rapidamente per quanto riguarda l’aspetto del calcolo differenziale, aveva trovato però un ostacolo molto serio nella parte riguardante il calcolo integrale, a causa dell’assenza, negli spazi funzionali, di una misura naturale che giocasse il ruolo della misura di Lebesgue nel calcolo finito dimensionale. Il primo esempio non banale di una tale misura è dovuto a N. Wiener e la misura che attualmente porta il suo nome è il primo e più famoso esempio di integrale funzionale. Ben presto, con l’estensione, da parte di K. Ito, delle idee di Wiener al nuovo calcolo integrale, si aggiunge un nuovo capitolo del calcolo differenziale, cioè il calcolo differenziale stocastico. Già accennati nei lavori di Wiener, i legami tra probabilità e teoria classica del potenziale si sviluppano soprattutto per opera di J.L. Doob, W. Feller e G.A. Hunt, dando luogo a un fecondo interscambio tra probabilità e a. che nei primi anni 1970 ha subito un notevole impulso a opera di F. Malliavin. Negli anni 1990 gli argomenti dell’a. matematica classica più studiati sono stati quelli riguardanti l’a. funzionale e, in particolare, la teoria spettrale, la teoria delle algebre di operatori e lo studio di classi sempre più vaste di equazioni differenziali. Molto importante è stato inoltre lo sviluppo del calcolo (➔) simbolico, cioè lo studio di algoritmi per il calcolo approssimato delle operazioni tipiche dell’a. matematica classica attraverso l’uso degli elaboratori elettronici.
Settore dell’a. matematica che ha avuto un vasto sviluppo dalla fine degli anni 1980, per l’uso che se ne è fatto nei metodi di indagine delle varie discipline tecniche e scientifiche. Originata dallo studio delle funzioni analitiche (➔ analitico), ha dato in seguito notevole impulso a due aree ampiamente sviluppate: l’a. armonica e l’a. conforme. La trasformata veloce di Fourier (➔ FFT), strumento essenziale in a. armonica, ha consentito mediante elaborazioni numeriche il calcolo di sempre più numerosi e complessi integrali di Fourier. Inoltre, l’uso di famiglie di wavelet (➔) ha permesso, negli anni 1990, una più efficace decomposizione e compressione di segnali (per es. nella trasmissione dei dati).
L’ a. conforme si occupa dello studio delle applicazioni conformi (➔ rappresentazione) e delle applicazioni quasi conformi, quelle cioè che differiscono da un’applicazione conforme per una quantità limitata. Uno dei problemi fondamentali affrontato nell’ambito dell’ a. armonica è quello costituito dalla classificazione di tutti i domini del piano conformi al disco unitario. Lo studio degli spazi funzionali costruiti sul disco e le applicazioni nello studio dei sistemi dinamici hanno portato alla definizione di grandezze invarianti come, per es., la lunghezza estremale, allo sviluppo di funzioni negli spazi di Banach e ad altri sviluppi nella teoria di Teichmüller.
Area di ricerca dell’a. matematica che ha conosciuto negli anni 1990 un fiorente sviluppo, anche per le sue applicazioni ad altre discipline scientifiche. Si divide, a sua volta, in due aree: lo studio degli operatori non lineari, in cui sia mantenuta però la struttura lineare dello spazio su cui gli operatori agiscono, e lo studio delle applicazioni definite su varietà differenziabili. Queste due aree sono dette, rispettivamente, a. non lineare classica e a. sulle varietà. Tra i problemi tipici dell’a. non lineare classica vi è, per es., lo studio delle biforcazioni (➔ biforcazioni, teoria delle) e delle equazioni differenziali non lineari, connesso allo studio della turbolenza nella meccanica dei fluidi. Uno dei risultati tipici di a. sulle varietà, invece, è il teorema di Atiyah-Singer, che lega la geometria delle varietà differenziabili alle proprietà degli operatori ellittici definiti su di esse.
L’a. musicale è quella disciplina che mira a individuare gli elementi costituivi di una composizione (di una parte di essa o di un gruppo di composizioni), oppure in senso più ampio di un’esperienza musicale. Codificata scientificamente nella seconda metà dell’Ottocento da H. Riemann e originariamente destinata soprattutto alla didattica della composizione, nel corso del Novecento si è gradualmente collocata nel contesto delle discipline musicologiche, avvalendosi però anche dell’apporto di altre materie, dalla psicologia alla linguistica, dalla semiotica all’informatica, e articolandosi in una molteplicità di metodi e di approcci. L’ a. ermeneutica (H. Kretzchmar, A. Schering, D. Cooke) intende la musica come una serie di simboli e la associa a caratteri e sentimenti, onde per es. l’ascenden;te è positivo e il discendente è negativo; il diatonico tranquillo e il cromatico inquieto. L’ a. morfologica punta all’individuazione della forma del brano analizzato e al rilievo della sua identificazione con modelli morfologici codificati a livello teorico. A fondamento dell’ a. fraseologica sta il riconoscimento di un’unità di base della musica, detta motivo, che è elemento dinamico, contraddistinto da una fase di espansione e una di estinzione (Riemann). L’ a. armonico-storica definisce i vari stadi di evoluzione della scrittura armonica (J. Chailley). L’ a. stilistica identifica le peculiarità di una composizione, di un repertorio o di un’epoca attraverso confronti tra parametri che prendono forma di tabulati e di quadri statistici; ha inteso indagare anche le cosiddette opere o figure minori (G. Adler, K. Jeppesen, J. La Rue). L’ a. energetica (E. Kurth) considera l’intero flusso sonoro della musica, i suoni nel loro insieme, per poi passare ai particolari in un secondo momento. L’ a. gestaltica, secondo la quale la forma non è data dalla somma delle parti, ma dall’espansione di un’idea germinale originaria, individua la forma di un’opera senza procedere a una sua astratta segmentazione. L’ a. fenomenologica (da H. Schenker) individua la struttura essenziale della musica nell’Ursatz, linea melodica originaria (Urlinie) che scende di grado verso la nota fondamentale della triade, accompagnata da un movimento del basso dalla tonica alla dominante e di nuovo alla tonica. L’ a. semiologica (J.J. Nattiez) individua nella musica tre fasi successive ma inestricabili: la prima riguarda quanto precede la composizione (l’autore, l’ambiente, le sollecitazioni); la seconda la composizione stessa; la terza quanto segue (la fortuna, l’interpretazione ecc.). L’ a. quantitativa (da W. Werke a G. Conyus) si basa sulle statistiche, contando note, valori, ritmi ecc. L’ a. grammaticale (M. Baroni, R. Dalmonte e C. Jacoboni) riprende la statistica e, attraverso strumenti informatici, ricerca le costanti e gli scarti delle armonie e delle melodie. L’ a. informatica ritiene la musica un tipo di sintassi basato sulle probabilità di occorrenza di ogni elemento rispetto all’elemento precedente; l’indice di una composizione manifesta l’informazione totale in essa contenuta calcolata in base alle previsioni confermate o disattese. L’ a. insiemistica fa riferimento alla nozione matematica di insieme e alle relazioni che sussitono tra insiemi quali equivalenza, intersezione, complementazione ecc.
Tratto comune a tutti i suddetti metodi appare essere quello costituito da due operazioni complementari sempre presenti nel lavoro dell’analista: la verifica della ricorrenza dell’identico e la graduazione delle differenze, dalla variazione semplice al contrasto.
In pedagogia sperimentale per a. dell’insegnamento si intende un nuovo settore di studio e di intervento applicativo essenzialmente interessato alla formazione pedagogica degli insegnanti, che si serve per lo più di procedure di osservazione, diretta e indiretta (attraverso la videoregistrazione), di situazioni scolastiche reali e ha portato all’elaborazione e alla verifica sperimentale di un gran numero di schemi e sistemi di a., notevolmente diversificati nelle impostazioni teoriche e nelle tecniche applicative.
Si parla anche di a. dell’interazione che va distinta dall’a. dell’insegnamento e si riferisce a una metodologia specifica, introdotta nella ricerca sull’insegnamento da N.A. Flanders e caratterizzata da una considerazione congiunta dei comportamenti dell’insegnante e degli allievi in classe (nella loro interazione) per evidenziare la sequenza prevalente dell’interazione didattica dell’insegnante con la classe.
In psicanalisi, designa diversi procedimenti: l’a. dei sogni e delle associazioni libere per l’interpretazione dinamica dell’inconscio (➔ sogno); l’a didattica, necessaria per formare uno psicanalista, di cui tende a controllare e a sviluppare le attitudini attraverso l’accettazione cosciente dei fattori dinamici dell’inconscio; l’a. di controllo, una forma di terapia, controllata da uno psicanalista esperto, cui ci si sottopone all’inizio dell’esercizio professionale.
Nell’ingegneria informatica, fase progettuale dello sviluppo di una soluzione, all’interno della quale si effettuano le valutazioni relative alla fattibilità dell’intervento e alla traduzione dei requisiti in specifiche tecniche. Può essere svolta a diversi livelli di dettaglio e può, di volta in volta, porre l’enfasi su particolari aspetti di interesse: si parla infatti di a. costi-benefici per la valutazione della fattibilità economica della soluzione, di a. dei requisiti per la traduzione dei requisiti utente in specifiche funzionali, di a. funzionale per la traduzione delle specifiche funzionali in ordini di lavoro tecnici.