Ricerca archeologica. L'indagine sul campo
di Giovanni Azzena
Una lunga tradizione, culturale prima ancora che scientifica, può spiegare il legame profondo tra la ricognizione archeologica e la rappresentazione grafica dei dati risultanti. Tale tradizione vede l'inizio, nel segno della rivoluzione della critica storica dell'Umanesimo, di un approccio filologico ai monumenti antichi, supportato dall'uso integrato di fonti letterarie ed epigrafiche, della toponomastica e, soprattutto, dell'osservazione diretta del monumento; di questo si considerano, come elementi finalmente significativi, forma e struttura e si decreta così l'origine dell'irrinunciabile esigenza di una loro, possibilmente fedele, riproduzione. Per puntualizzare il momento di avvio delle ricerche di topografia antica si fa tradizionalmente riferimento al contributo profondamente innovativo apportato dal primo Umanesimo fiorentino agli studi dell'archeologia di Roma. Studiosi come Poggio Bracciolini (1380- 1459) e Flavio Biondo (1392-1463) non solo concorsero in maniera determinante all'impostazione di un sistema articolato e critico di approccio alle antichità, ma cominciarono ad imporre l'uso dell'osservazione diretta nella prassi della ricostruzione storica e dell'attribuzione topografica di etimologie e toponimi derivati dalla lettura degli autori antichi. Questa pratica venne estesa anche al di fuori dell'Urbe, come testimoniato in primo luogo dall'Italia illustrata (1453) di Biondo, che segue a soli sette anni la sua Roma instaurata, ma anche dai resoconti, con relative valutazioni critiche, di numerosi e ripetuti sopralluoghi nei siti, specie del Lazio, allora raggiungibili, contenuti in epistolari e memorie di Bracciolini e di Biondo, ma anche di L.B. Alberti, di P.P. Rucellai, dell'Acciaioli, di Lorenzo il Magnifico e di Pio II, senza ovviamente tralasciare ciò che rimane dell'opera di Ciriaco d'Ancona. Dal 1465 i problemi di topografia romana divennero materia di insegnamento presso l'Università di Roma, dove Pomponio Leto contribuì alla diffusione e al consolidamento delle nuove tendenze. Di queste appaiono testimonianze dirette la misurazione dei monumenti di Roma, impostata in maniera sistematica da L.B. Alberti (1404-1472), nonché una cospicua serie di rilievi architettonici, con il corollario inevitabile del sopralluogo finalizzato, iniziata con Brunelleschi e Donatello e proseguita, tra la fine del XV e il XVI secolo avanzato, da disegni, studi, planimetrie e vedute della bottega del Ghirlandaio, di Michelangelo, di Raffaello, del Peruzzi, dei Sangallo, del Palladio e del Vasari, per ricordare i più noti. Se non è possibile attribuire a questo periodo anche l'origine di un tipo di cartografia "archeologica", se ne possono quantomeno riconoscere i prodromi teorici, inseriti nella pulsione alla sistematizzazione, peculiare della ricerca umanistica. Nell'anticipazione di quell'assunto metodologico che porterà a valutare, insieme a forma, struttura e funzione del monumento, anche il contesto che lo conteneva, risulta ad esempio di chiara matrice umanistica il progetto di redazione di una pianta di Roma antica, il cui mancato compimento ‒ per la morte precoce, nel 1520, di Raffaello che ne doveva essere il curatore ‒ suscitò tanto rammarico nel mondo scientifico di allora. Nel 1547, nella cartografia di Eufrosino della Volpaia, i resti archeologici cominciano ad essere precisamente indicati, anche se ancora senza dichiarata intenzionalità, ma come semplici componenti fisiche del paesaggio. Nel 1551, nella veduta perfettamente zenitale della pianta di Roma di L. Bufalini, si attua infine la fusione dei due concetti: da un lato la ricostruzione erudita, quasi sempre fuorviante anche se ‒ o proprio perché ‒ basata sulle ipotesi dei più accreditati studiosi di antichità del momento (con una evidente preferenza per le lezioni di B. Marliani), dall'altro una tersa riproduzione topografica dell'esistente. La cura nella definizione del particolare, nei casi in cui l'esistente sia anche un lacerto del passato, e una evidente ricerca di differenziazione nella resa stilistica confermano implicitamente l'intenzionalità e la sistematicità di questo tipo di documentazione, che a buon diritto potrebbe definirsi la prima carta archeologica. Il metodo umanistico si diffonde rapidamente in Europa: l'opera di Flavio Biondo fa scuola in Germania, dove ne seguono l'esempio, seppure in opere incomplete e solo parzialmente soddisfacenti, l'Irenico (1518) e J. Turmair (1541); in Svizzera, G. Stumpf ed E. Tschudi; in Francia, la Cosmographie universelle di A. Thévet; in Spagna, una Ispania illustrata di J. Vassée del 1515, replicata nel 1603 nell'opera dall'identico titolo di Juan Margarit da Girona. Occorre distinguere chiaramente, da questo momento in avanti, almeno tre distinti filoni di studi: il primo, soltanto filologico, approfondirà l'uso delle fonti antiche soprattutto in riferimento alla ricerca di corrispondenze tra citazioni toponomastiche letterarie e luoghi reali; il secondo, che è quello che qui interessa maggiormente, continuerà a perseguire l'indirizzo autoptico e di documentazione diretta, finalizzato alla formazione di un apparato storico-critico non mediato; l'ultimo legherà un'ampia produzione letteraria e documentaria al lungo evolversi delle motivazioni culturali e sentimentali del viaggio di formazione. Determinante dal punto di vista dell'impostazione metodologica fu l'opera di Ph. Clüver (Cluverius, 1580-1623), il quale, percorrendo a piedi tutta l'Italia insieme a L. Holste (Holstenius, 1596-1661), operò per una codifica definitiva della pratica dell'autopsia, integrata dall'uso di fonti storiche ed epigrafiche, ma soprattutto completata dall'osservazione delle condizioni ambientali. In particolare nella sua Italia antiqua, pubblicata postuma nel 1624, oltre a gettare di fatto le fondamenta della moderna geografia storica, egli anticipò le finalità dell'odierna Landscape Archaeology, intesa non tanto come contestualizzazione topografica degli elementi antichi, ma come ricostruzione delle morfologie comprensoriali del passato. Nel passaggio tra XVII e XVIII secolo è già possibile individuare alcune tendenze di ricerca dalle quali prenderanno le mosse filoni che arrivano fino ad oggi. In primo luogo iniziano a farsi strada, tra le finalità dell'analisi diretta sul terreno, anche le esigenze della tutela. Già nel 1722 W. Stukeley e la Society of Roman Knights, della quale egli era socio fondatore, si proponevano la preservazione dall'incuria e dai danni della guerra di tutti i monumenti di età romana della Gran Bretagna. Per perseguire con più accuratezza questo fine venne implicitamente estesa la categoria di "monumento" (forse anche a causa dell'impatto decisamente inferiore delle rovine romane sul paesaggio inglese, rispetto a quello italiano e mediterraneo in genere) alle evidenze più "povere" della cultura materiale. Si utilizzò inoltre l'osservazione sistematica delle tracce (i crop marks), che permisero di ipotizzare la presenza di resti antichi sepolti sulla base delle differenze di crescita della vegetazione. Solo qualche anno più tardi, in Francia, F. Le Royer de la Sauvagèr, ingegnere e capitano del genio, archeologo dilettante e grande innovatore, per primo individuò nelle aree di frammenti sparsi sulla superficie dei campi (le briqueteries) possibili indicatori di resti sepolti. Egli è certamente una figura centrale nella storia della disciplina: la rigorosa attenzione al rilevamento topografico, l'uso di documentazione preventiva per la pianificazione di sondaggi di scavo mirati (durante i quali ebbe cura di segnalare anche gli indicatori negativi), la puntuale esegesi della tecnica edilizia e delle funzioni originarie delle strutture indagate, l'approccio pragmatico e la prudenza critica, sono elementi che costituiscono vette di avanzamento metodologico che rimarranno a lungo isolate. Ma soprattutto è da considerare che, per sua stessa ammissione, fine ultimo della documentazione e motivo dell'accuratezza della stessa era la tutela di ciò che egli andava documentando. Di queste concezioni di avanguardia, che segneranno, ma forse non abbastanza nel profondo, il futuro della ricerca sul terreno, fu interprete e teorizzatore A.-Ch. Quatremère de Quincy che tra il 1789 e il 1796 fece della salvaguardia degli insiemi contestuali di provenienza, del più pregiato come del più umile documento dell'antichità, il cavallo di battaglia della sua strenua opposizione alla pratica del saccheggio sistematico delle opere d'arte da parte dei governi nazionali. Il formarsi dell'idea di "carta archeologica" nel senso moderno dell'espressione fu comunque molto lento. Non c'è dubbio che il progressivo arricchimento dei vari approcci finora esaminati condusse, in pieno XIX secolo, a un vasto inquadramento sistematico-disciplinare, che peraltro investì settori scientifici e problematiche a spettro ben più ampio. Per quanto riguarda lo specifico, occorre rimarcare che la grande stagione dell'atlantistica storica, come quella della cartografia archeologica di dettaglio, è preparata dall'accresciuta disponibilità delle mappe di riferimento, nonché trainata, come accade anche oggi, dal progredire della tecnica e delle tecnologie cartografiche. Durante il XVIII secolo si compirono passi fondamentali in questo senso: è appena il caso di ricordare la cosiddetta Carta del Cassini, cominciata da C.F. Cassini (1714- 1784) e portata a compimento dal figlio Jacques-Dominique (1747-1845), che con 182 fogli in scala 1:90.000 circa copriva tutta la Francia, in grazia di quei metodi di misurazione geodetica e di rilevamento sul terreno che sono poi alla base della cartografia moderna. Rilevamenti accurati per la formazione di una cartografia nazionale si eseguirono anche in Austria, Svizzera, Russia; la Carta della Gran Bretagna in scala 1:63.360 venne edita dal Trigonometrical Survey (in seguito Ordnance Survey) a partire dal 1801. In Piemonte si usava dal 1623 la cosiddetta Carta di Madama Reale in scala 1:190.000; per il Veneto è nota, limitatamente al territorio padovano, la carta di A. Rizzi Zannoni (1:20.000), mentre dal 1788 si lavorava per la Carta del Regno Lombardo-Veneto in scala 1:86.400 (pubblicata solo nel 1833). È del 1827 la Carta della Toscana di G. Inghirami, in scala 1:200.000, mentre già nel 1755 fu resa disponibile la Nuova carta geografica dello Stato Pontificio del Maire e del Boscovich. L'Italia meridionale ebbe dal 1769 un'accurata cartografia in scala 1:129.000 sulla quale lavorò lo stesso Rizzi Zannoni. Non fu portata a compimento la copertura della Sicilia, comunque intrapresa tra il 1729 e il 1731 da S. von Schmettau, mentre la Sardegna ebbe una sua carta, in scala 1:250.000, solo alla metà del XIX secolo, grazie all'atlante del generale A. La Marmora. Agli inizi del XIX secolo la ricchezza dei dati rilevati sul terreno e la grande varietà della loro tipologia sancirono l'esordio della tematizzazione cartografica a scala di sintesi (che si suole associare al Physikalischer Atlas pubblicato a cura di H. Berghaus dal 1839 al 1849), sulla quale immediatamente si innestò con esito fortunato il tematismo archeologico. È del 1853 il primo Atlante di geografia antica di W. Smith, al quale seguirono quasi senza soluzione di continuità il Murray's Handy Classical Map (1899-1905), l'opera non completa del Sieglin (dal 1893) e infine le Formae Orbis Antiqui di H. Kiepert (1818-1899). Nel 1881 lo stesso Kiepert, nel Discorso preliminare sulle fonti alle quali attingemmo che introduce la sua carta corografica e archeologica del Lazio, espose concisamente un problema che, già allora pressante, tenderà a divenire prioritario: il rapporto tra scala di riferimento, quantità e qualità degli elementi antichi presenti sul territorio e finalità del rilevamento. Dalla metà dell'Ottocento ai primi anni del Novecento si tentò di attuare l'ufficializzazione burocratica della produzione di cartografia archeologica con fini di tutela, il cui cammino sarà costellato da numerosi e non sempre riusciti tentativi di definizione metodologica delle connesse attività di ricognizione e riporto grafico. Datano al decennio 1837-46 le opere di A. Nibby e W. Gell, i quali, per la Carta del Latium Vetus, lavorarono anche insieme. Indubbiamente, secondo un metro attuale di giudizio, la loro cartografia risulta essere di estrema sintesi: una sintesi che però, come chiaramente espone Nibby, poteva contare sia sulla "triangolazione de luoghi, e la delineazione del suolo" sia sul fatto che "ambedue [scil. Nibby e Gell] poi separatamente perlustrammo le terre, onde poterne indicare i particolari", nonché sul "fardello delle ricerche storiche ed antiquarie". Negli stessi anni (la cartografia di base, due fogli alla scala 1:250.000, fu edita nel 1845, mentre la pubblicazione del Voyage en Sardaigne è del 1826-57 e quella degli Itinéraires del 1860) si evidenziano per straordinaria modernità di concezione il rilevamento cartografico della Sardegna e soprattutto l'apparato grafico e informativo di corredo storico- archeologico contenuto nell'opera del generale A. La Marmora. Sul versante opposto si colloca il lavoro di L. Canina (1849-52), nel quale la tendenza alla topografia storica di tipo "ricostruttivo" risalta ancora di più nel confronto con la carta di P. Rosa, pressoché contemporanea (1850-70). Sembra plausibile che il principale impulso alla creazione di un dettagliato piano conoscitivo dei monumenti antichi sul territorio sia in primo luogo frutto di quella temperie culturale che, come si è visto, si era così a lungo sedimentata. Non può essere per semplice coincidenza, ad esempio, se nel 1873 fu iniziata anche la ricognizione integrale della Danimarca, finalizzata alla creazione di una cartografia archeologica in scala di dettaglio (addirittura in riferimento alle mappe catastali) e di schede informative che andarono a formare il cosiddetto Parish Record; o se nel 1908 fu fondata la Royal Commission of the Historical Monuments of England, "to make an inventory of the historical monuments and constructions". Non c'è bisogno di ricordare, inoltre, che si parla del momento che vede la nascita dei grandi corpora, e non a caso corpora monumentorum sarà la definizione suggerita qualche decennio più tardi per la Carta Archeologica d'Italia da G. Lugli. Nel concreto, però, l'istituzione della Carta Archeologica d'Italia doveva fare parte del piano di accentramento del controllo del territorio che fece seguito alla proclamazione del Regno d'Italia; la creazione dell'Ufficio per la Carta Archeologica d'Italia, dopo molte resistenze, fu infine sancita da un regio decreto del 1889. Il lavoro di ricognizione, rilievo, documentazione e riporto su cartografia militare in scala 1:50.000 era a questa data comunque già avviato da tempo. A partire dal 1881 e fino al 1897, infatti, G.F. Gamurrini, A. Cozza e A. Pasqui (affiancati in seguito da R. Mengarelli) si adoperarono con grande impegno e tra non poche difficoltà affinché l'impresa potesse proseguire. La preziosa documentazione raccolta in quegli anni rimase tuttavia inedita e fu pubblicata soltanto nel 1972. Anche l'opera di Th. Ashby (1874-1931) è segnata dal ricorso ad un'attenta lettura del terreno, che si doveva basare su una ricognizione capillare e, almeno nelle intenzioni, integrale. I suoi lavori sulla Campagna Romana, come ovviamente quelli su Roma, sintetizzano gli assunti metodologici della comparazione filologica di fonti letterarie, epigrafiche e iconografiche, dell'interpretazione formale del monumento e dell'uso critico della documentazione archivistica. Egli attese ai lavori sulla Campagna Romana (la data della prima pubblicazione è il 1902) in anni concomitanti con l'iniziativa della Carta Archeologica e contemporaneamente a R. Lanciani (1847-1929), del quale si conservano, tuttora inediti, gli elaborati preparatori di una cartografia archeologica della Campagna in scala 1:25.000. Occorre, infine, ricordare il contributo fondamentale che l'indagine topografica e cartografica ricevette dal grande interesse per l'esplorazione scientifica di regioni fino ad allora poco conosciute, manifestatosi a cavallo dei secoli XIX e XX. In particolare, si segnalano le imprese di S. Hedin (1865- 1952) e M.A. Stein (1862-1943), che nel corso di numerose spedizioni realizzarono le prime cartografie scientificamente attendibili di regioni inesplorate dell'Asia. La ripresa delle attività di ricerca, subito dopo la prima guerra mondiale, vede concentrarsi nel decennio 1920-30 una serie di iniziative che contribuirono all'inquadramento definitivo dei tre grandi gruppi tipologici di documentazione cartografica dell'antico: quello atlantistico, cioè di pura sintesi storica; quello degli "indici cartografici" e infine quello delle carte archeologiche propriamente dette. Nel 1920 prendeva vita il progetto della Union Académique International (UAI) relativo alla redazione di un atlante dell'Impero romano in scala 1:1.000.000, al quale, l'anno dopo e su suggerimento di R. Lanciani, si attribuì il nome di Forma Romani Imperii. Nel 1928, durante il Congresso di Cambridge dell'Unione Geografica Internazionale, O.G.S. Crawford propose un'idea all'apparenza del tutto analoga, ma che ebbe più fortuna e vita assai lunga: la Tabula Imperii Romani. Crawford, dal 1920 primo ufficiale archeologo dell'Ordnance Survey, operava in una situazione ideale per godere del rilevante fermento scientifico e tecnico di quel periodo. È noto infatti che proprio in quel momento la lettura del territorio si andava avvantaggiando delle applicazioni della fotointerpretazione archeologica, il cui immediato successo fu sancito dalla diffusione delle levate fotografiche aeree ma soprattutto dalla concretezza dei primi risultati applicativi. Sul versante della cartografia di riferimento, in quegli anni era finalmente iniziata la produzione di una carta unitaria del mondo, la International Map of the World alla scala 1:1.000.000. Dunque l'esperienza diretta e la conoscenza dei supporti tecnici dovettero certamente contribuire alla brillante intuizione di Crawford, primo ad indicare come supporto ideale per un atlante del mondo antico una moderna cartografia operativa che, senza ulteriori impegni, assicurava precisione, completezza e soprattutto omogeneità della base di riferimento. Nel 1931, durante il Congresso Internazionale di Geografia a Parigi, vennero presentati i fogli provvisori della Tabula Imperii relativi ad Edimburgo, Roma, Porto e Madrid. Nella stessa occasione G. Lugli espresse perplessità sull'uso di un denominatore di scala così alto in zone dove la concentrazione di elementi archeologici risultasse superiore alla media europea (nel caso particolare si trattava della Campagna Romana); le ribadì nel 1932, prospettando la possibilità di redigere una bozza su riduzione al 500.000 per poi ritrasformarla, con opportune selezioni e generalizzazioni, nell'edizione definitiva della mappa in scala 1:1.000.000. Ritornò ancora sull'argomento nel 1963 con la proposta di "lenti di ingrandimento" a scala minore a corredo dei fogli ufficiali. Queste perplessità di tipo tecnico non furono i soli ostacoli nell'avanzamento del progetto: la completezza editoriale della Tabula, la cui effettiva ripresa data solo a questi ultimi anni, sarà fin dal principio minata dalla scarsa cooperazione internazionale, dato che l'omogeneità degli intenti scientifici di base non si è mai dimostrata un elemento di coagulo sufficiente per il superamento di interessi territoriali, politici, religiosi ed etnici di molto soverchianti la cultura storico-archeologica dei singoli Paesi. I ripetuti, inascoltati inviti alla cooperazione di Crawford ‒ che nel 1938 lasciò polemicamente la segreteria ‒ e dei suoi successori (tra i quali lo stesso Lugli e, dal 1967, J.B. Ward Perkins) non possono che essere interpretati come un chiaro sintomo di queste oggettive difficoltà. Nel 1922 Lugli pubblicò un fascicolo di saggio (Terracina e il Circeo) di un'impresa che, come indicato chiaramente nel frontespizio, voleva rappresentare il proseguimento della incompiuta Carta Archeologica d'Italia, alla quale, anche per sottolinearne la dipendenza dal più ampio progetto della Forma Romani Imperii, si preferì dare il titolo di Forma Italiae, giunta ora al trentottesimo volume. Nel 1926, durante il I Convegno Nazionale Etrusco, R. Bianchi Bandinelli e O. Marinelli presentarono l'Edizione Archeologica della Carta d'Italia (dell'IGM) in scala 1:100.000. Non vi sono equivoci circa il carattere dell'iniziativa: una carta basata sull'edito o su quanto noto presso gli archivi delle Soprintendenze, cioè redatta a tavolino, che rappresenta l'esordio dei sopra citati "indici cartografici"; l'impresa ebbe vita breve e scarsa fortuna. Nel 1970 ci fu un tentativo di rilanciare l'iniziativa da parte del Ministero della Pubblica Istruzione: al Convegno Internazionale sulla Cartographie archéologique et historique, tenutosi a Parigi in quell'anno, G. Alvisi presentò un nuovo progetto di carta archeologica ministeriale, sempre basato su cartografia IGM ma a scala 1:200.000, che si proponeva come strumento essenzialmente burocratico e al tal fine riduceva la simbologia a tre indicatori: elemento scavato, in corso di scavo, solo individuato. Sulla stessa linea della Carta Archeologica italiana e a soli quattro anni di distanza, nel 1931, iniziarono anche le pubblicazioni della Carte archéologique de la Gaule romaine (1:80.000) e della Carta arqueológica de España (senza base cartografica unitaria); è opportuno sottolineare che dal 1988 la Carte archéologique viene edita come semplice catalogo dei siti, senza base cartografica di riferimento. Gli anni dell'ultimo dopoguerra sono segnati dalla crescita di interesse per la ricognizione: si è attribuito, correttamente, al South Etruria Survey e al direttore dell'iniziativa, J.B. Ward Perkins, il merito della definitiva consacrazione della ricognizione tra i mezzi di studio scientificamente accettati in archeologia. Da questo momento non più soltanto i ruderi, ma anche e soprattutto i siti archeologici sfuggenti, quelli appena suggeriti dagli "indicatori di superficie", entrano a far parte a pieno diritto della documentazione storica, e con loro il vasto apparato metodologico che ne consente la corretta individuazione. È noto in questo senso il fondamentale contributo che proviene, a partire dagli anni Sessanta, dall'ampia discussione teorica su fini e metodi dell'archeologia, sollecitata dalla New Archaeology. Originato in questo periodo e pienamente inquadrato nella generale spinta verso la scientificizzazione delle cosiddette "scienze umane", si va progressivamente sistematizzando e diffondendo un insieme di regole riguardanti la ricognizione, l'identificazione e la raccolta dei resti antichi sul terreno. Questo modello, importato dalla culla applicativa dell'archeologia etno-antropologica nordamericana al contesto mediterraneo, si trova qui a dover affiancare le metodiche preesistenti, dando origine ad un dibattito diffuso, spesso irrigidito su pregiudiziali e non sempre indirizzato correttamente sul nucleo del problema. Nel caso della ricognizione, il nodo congiunturale poteva in realtà essere facilmente circoscrivibile all'oggetto fisico della ricerca: l'area di frammenti fittili sparsi ‒ intesa qui assiomaticamente come microfenomeno prodotto dalla cultura materiale, meglio rapportabile ai contesti di origine dei nuovi metodi ‒ si impone ora come oggetto centrale della ricerca; mentre il protagonista fino a quel momento incontrastato, il "rudere" del paesaggio con rovine, cioè il macrofenomeno strutturale, vi trova una collocazione quantomeno scomoda. Di questo disagio è emblematicamente significativo il recente conio della definizione di "siti particolari" o "eccezionali", ad indicare quelli che conservano elementi in alzato. Il dibattito, inizialmente imperniato sui fondamenti teorici delle varie discipline, si è andato nel tempo placando e quasi sempre in grazia di esperienze concrete su aspetti settoriali e applicativi, che hanno iniziato con il mostrare isole di sostanziale convergenza per manifestare infine con chiarezza la possibilità e la convenienza di una integrazione in luogo di una contrapposizione dei metodi. Se questo vale per le modalità di ricerca, dovrebbe funzionare a maggior ragione per la selezione e l'organizzazione delle informazioni, cioè per quanto attiene al campo della cartografia con fini archeologici. Negli ultimi tempi si è andata accentuando la divergenza tra monografie specialistiche, prodotte da lavori topografici basati su metodi di ricognizione e interpretazione sempre più sofisticati, e cosiddette "carte archeologiche", che presentano, in forma peraltro ineccepibile, soltanto materiale edito o proveniente dagli archivi, con un progressivo avvicinamento ai formalismi propri degli atlanti storici.
F. Castagnoli, Topografia di Roma antica, in Arias, Topografia, pp. 3- 74; G.A. Mansuelli, Natura e finalità delle discipline storico-geografiche, ibid., pp. 177-84 e pp. 283-306; Actes du Colloque International sur la cartographie archéologique et historique (Paris, 24-26 Janvier 1970), Tours 1972; L. Gambi, Una geografia per la storia, Torino 1973; F. Castagnoli, La Carta Archeologica d'Italia, in PP, 33 (1978), pp. 78-80; Cartes et figures de la Terre, Paris 1980; C. Palagiano - A. Asole - G. Arena, Cartografia e territorio nei secoli, Roma 1985; G. Barker, L'archeologia del paesaggio italiano: nuovi orientamenti e recenti esperienze, in AMediev, 13 (1986), pp. 7-30; C. De Seta, L'Italia nello specchio del "Grand Tour", in Storia d'Italia. Annali 5. Il paesaggio, Torino 1987, pp. 125-263; M. Pasquinucci - S. Menchelli (edd.), La cartografia archeologica: problemi e prospettive. Atti del Convegno (Pisa, 21-22 marzo 1988), Pisa 1989; P. Sommella - G. Azzena - M. Tascio, Informatica e topografia storica: cinque anni di esperienza su un secolo di tradizione, in ACalc, 1 (1990), pp. 211-36; G. Barker - J. Lloyd (edd.), Roman Landscapes. Archaeological Survey in the Mediterranean Region, Rome 1991; M. Bernardi (ed.), Archeologia del Paesaggio, Firenze 1992; C.U. Larsen (ed.), Sites and Monuments. National Archaeological Records, Copenhagen 1992; R.J.A. Talbert, Mapping the Classical World: Major Atlases and Map Series 1872- 1990, in JRS, 5 (1992), pp. 5-38; F. Castagnoli, Topografia antica. Un metodo di studio, I-II, Roma 1993; G. Pucci, Il passato prossimo, Roma 1993; A. Schnapp, La découverte du passé, Paris 1993; La cartografia dei beni storici, archeologici e paesistici nelle grandi aree urbane: dal censimento alla tutela. Atti del Convegno (Roma, 26-28 aprile 1990), Roma 1994; F. Cambi - N. Terrenato, Introduzione all'archeologia dei paesaggi, Roma 1994; G. Lock - Z. Stančič (edd.), Archaeology and Geographical Information Systems, London 1995; G. Azzena - M. Tascio, Il Sistema Informativo Territoriale per la carta archeologica d'Italia, in M.L. Marchi - G. Sabbatini, Venusia: IGM 187 I NO/NE (Forma Italiae, 37), Firenze 1996, pp. 281-97; A. Gottarelli (ed.), Sistemi informativi e reti geografiche in archeologia: GIS - Internet, Firenze 1997; A.M. Jaia, Metodologie di catalogazione dei beni archeologici. Rudiae. Carta archeologica, Lecce - Bari 1997; L'archeologia di superficie: teorie e metodi a confronto. Atti della tavola rotonda (Padova, 27 aprile 1995), Padova (c.s.); Carta Archeologica e pianificazione territoriale: un problema politico e metodologico. Atti dell'incontro di studio (Roma, 10-12 marzo 1997), Roma (c.s.); Archeologia senza scavo. Nuovi metodi d'indagine per la conoscenza del territorio antico. XXVIII Settimana di Studi Aquileiesi (Aquileia, 25-28 aprile 1997), Aquileia (c.s.); Geografi, viaggiatori, militari nel Maghreb: alle origini dell'archeologia del Nord Africa. L'Africa Romana XIII. Atti del Convegno internazionale (Djerba, 10-13 dicembre 1998) (c.s.).
di Nicola Terrenato
Dal momento in cui le aree di manufatti nei campi coltivati vengono prese in considerazione appare subito chiaro che questo genere di siti rappresenta la grandissima maggioranza dei resti archeologici sul paesaggio, tanto da far definire i siti di altro tipo come "eccezionali". Anche se ovviamente meno ricchi singolarmente di resti, i siti ordinari progressivamente vengono a trovarsi al centro dell'attenzione proprio per la loro presenza diffusa ovunque: per il loro tramite appare infatti possibile ricostruire interi paesaggi umani, piuttosto che singoli siti monumentali. Lo scopo della ricognizione sistematica è precisamente quello di attuare una copertura omogenea del territorio in esame, in modo da recuperare la totalità dei siti presenti, o comunque un campione rappresentativo e bilanciato di essi. Per raggiungere questo obiettivo negli ultimi anni si sono andate definendo diverse metodologie, talvolta in conflitto, reale o apparente, fra loro. La tensione principale si è avuta fra le esigenze di tutela e quelle della conoscenza scientifica, che sembravano richiedere procedure diverse. Il dibattito fra chi sosteneva la necessità di recuperare un repertorio completo e chi preferiva un campione rappresentativo ha dominato la discussione metodologica. In realtà negli ultimi anni, con il maturare dei metodi di ricognizione sistematica, il problema è stato visto in una luce diversa: infatti, solo una frazione dei resti che esistevano in antico è sopravvissuta fino ad oggi e solo una frazione ancora minore è accessibile alla ricognizione di superficie. Le distribuzioni di siti ottenute per mezzo della ricognizione sono pertanto comunque incomplete. Il problema diventa allora quello di fare in modo, da un lato, che tali distribuzioni rappresentino un campione bilanciato di quanto era originariamente presente e, dall'altro, di avere precise informazioni sulla qualità della raccolta per indirizzare adeguatamente il lavoro di tutela. Alla luce di queste considerazioni, qualunque esposizione dei metodi della ricognizione archeologica deve necessariamente prendere le mosse da alcune questioni fondamentali di impostazione del progetto, che possono essere raggruppate sotto tre capi: intensità, visibilità e campionatura. L'intensità misura la quantità di energia impiegata e il conseguente grado di dettaglio raggiunto nel lavoro sul campo. Formalizzata dall'archeologia processuale, essa ha un ruolo considerevole nel determinare i risultati della ricognizione: è stato infatti dimostrato che la densità di siti rinvenuti è direttamente proporzionale all'intensità applicata. Quest'ultima viene misurata in base al tempo impiegato a ricognire un'unità di superficie o in base alla distanza che gli operatori tengono sul campo. Nel complesso, l'intensità delle ricognizioni è aumentata col procedere della metodologia, anche se confronti fra progetti diversi hanno mostrato una grande variabilità nell'intensità applicata. Poiché, come si è già detto, la densità media di siti rinvenuti è proporzionale all'intensità applicata, ne consegue che per mettere a confronto risultati di progetti diversi è necessario avere un'idea dell'intensità di ciascuno di essi: altrimenti si rischia ad esempio di ritenere spopolata una zona che è stata semplicemente ricognita in modo più blando. Inoltre, se aumentando l'intensità aumenta la quantità di tracce rinvenute, ne consegue che qualunque distribuzione di siti rinvenuti corre il rischio di essere consistentemente incompleta. Ciò appare particolarmente evidente nel caso delle ricognizioni ripetute: esperimenti di replica della copertura (che in pratica producono un aumento dell'intensità) in condizioni diverse hanno sempre portato ad un maggior numero di siti rinvenuti. Oltre alla inerente incompletezza delle distribuzioni archeologiche, esperimenti di questo genere dimostrano anche la presenza di un elemento di casualità nella composizione del campione: infatti, se in ricognizioni ripetute della stessa zona in tempi diversi si rinvengono distribuzioni diverse, significa che ci sono elementi stocastici (e quindi non modellabili o controbilanciabili) che influenzano la composizione e la grandezza della frazione di siti trovati in ciascuna iterazione della copertura. In termini più ampi, un aspetto di grande importanza per un'appropriata interpretazione dei risultati della ricognizione è quello relativo alla visibilità dei resti archeologici. Si tratta di una questione che si è venuta chiarendo solo negli ultimi anni: a lungo, infatti, la ricognizione si è basata sull'implicito presupposto che la distribuzione rinvenuta rispecchiasse fedelmente il paesaggio antico. In realtà una serie di esperimenti ha recentemente confermato che numerosi fattori possono mascherare le tracce archeologiche. Fra i principali vanno ricordati: vegetazione e colture, che impediscono di vedere la superficie e che rappresentano un fattore in continua evoluzione nel tempo; fenomeni geopedologici di erosione e di accumulo, che nel primo caso possono del tutto cancellare un sito e nel secondo lo possono coprire sotto metri di accumulo alluvionale; cave, edifici e centri abitati successivi, bonifiche per colmata, livellamenti e in genere tutte le trasformazioni recenti del paesaggio. In altre parole, fra l'osservatore e le tracce sul terreno si frappone un complesso filtro, le cui caratteristiche spaziali devono essere accuratamente studiate, se non si vuole che le carte di distribuzione dei siti rinvenuti risultino fortemente fuorvianti. Per questo motivo, in molte ricerche viene rilevata la visibilità dell'intero paesaggio ricognito, in genere in base a scale ordinali applicate empiricamente. In altri casi, le condizioni del terreno vengono descritte distinguendo fra i vari fattori; si è comunque potuto rilevare che le zone a massima visibilità possono avere una densità media di siti fino a dieci volte superiore a quella delle zone a scarsa visibilità. In conclusione, sia i fattori legati all'intensità che quelli legati alla visibilità contribuiscono a rendere incomplete le distribuzioni rinvenute tramite la ricognizione archeologica. Questa acquisizione non ha però comportato un relativismo paralizzante in ambito interpretativo, ma ha piuttosto enfatizzato la necessità di avere una stima realistica della qualità del recupero, vale a dire di ciò che i rinvenimenti rappresentano rispetto al paesaggio antico nella sua interezza. Su questa base è infatti possibile giungere a ricostruzioni affidabili, che possono in vario modo integrare le lacune della documentazione poiché ne conoscono la natura e l'estensione. Le zone non visibili o ricognite ad intensità molto blanda sono infatti equivalenti alla frazione scartata di un progetto per campionatura: zone su cui non si è informati e che è necessario stimare sulla base dei dati noti. Questo genere di considerazioni ha condotto a superare quasi completamente la polemica sulla campionatura sviluppatasi negli anni Settanta e Ottanta. Le distribuzioni rinvenute per mezzo della ricognizione sono infatti comunque incomplete: è quindi essenziale conoscere precisamente le proprietà della copertura effettuata. Le procedure formali di campionatura sono state introdotte negli anni Settanta del Novecento, sulla spinta dell'archeologia processuale. Esse consistono nel selezionare per la ricognizione solo alcune zone, in modo che esse siano rappresentative dell'intero contesto in esame. Questo equivale a sovrapporre un altro livello di frazionamento rispetto a quello imposto dai fattori di visibilità, che però ha per definizione caratteristiche note, stabilite dal ricercatore. Si distinguono così tre tipi di campionatura: quella arbitraria, in cui le zone da coprire vengono scelte senza fare ricorso ad alcun criterio esplicito (o sono intrinseche alla natura della documentazione); quella ragionata, in cui i campioni vengono selezionati dal ricercatore con criteri e procedure omogenei ed espliciti; quella casuale, infine, in cui almeno alcuni passaggi nella scelta dei campioni sono lasciati al caso, in modo da evitare che i pregiudizi del ricercatore finiscano per influire sui risultati. Nelle prime due procedure esiste infatti il rischio che la scelta soggettiva dei campioni riduca la loro rappresentatività, introducendo una deformazione (detta tecnicamente bias). Le frazioni campionate più frequentemente adottate variano in genere fra il 5 e il 30%. Per quanto riguarda la forma e le dimensioni dei campioni vi sono strategie diverse: campioni più piccoli e frequenti portano ad una stima più precisa della popolazione totale, mentre unità più grandi offrono le migliori possibilità per la ricostruzione di tracce lineari e di rapporti fra siti. I campioni sono in genere quadrati o transetti con dimensioni fra gli 0,5 e i 2-3 km; forme non geometriche sono state adottate in alcuni progetti per adattarsi a situazioni ambientali particolari. I campioni, inoltre, possono essere disposti ad intervalli regolari o casuali. Alcune campionature si basano su una stratificazione del territorio: esso viene suddiviso in subunità in base a criteri ambientali o culturali e i campioni vengono scelti in modo che ciascuno strato sia adeguatamente rappresentato. Campionatura, visibilità e intensità sono dunque tre questioni generali strettamente connesse fra loro, che rendono oggi l'impostazione di un progetto di ricognizione molto più complessa di una volta. Un altro aspetto che ha avuto grande sviluppo in anni recenti è quello delle procedure sul campo e della documentazione dei resti rinvenuti. Qui ai metodi tradizionali di analisi dei resti in elevato, di cavità, di tracce lineari e di altri elementi derivati da foto aeree o da immagini da satellite, di materiali reimpiegati o di toponimi si sono aggiunte procedure sistematiche per la documentazione delle aree di manufatti nei campi coltivati, il tipo di sito di gran lunga più frequente. L'adozione dell'agricoltura meccanizzata ha infatti comportato un generale rivolgimento dei suoli, che a sua volta ha portato alla luce una quantità enorme di manufatti. Un gran numero di siti è quindi caratterizzato da una concentrazione di materiali che circolano nella zona arata. Questi ultimi vengono rimescolati ad ogni ciclo di lavori agricoli, ma anche sminuzzati e dispersi, riducendo progressivamente la leggibilità del sito. Negli ultimi decenni, forse in parallelo con il degradarsi dell'evidenza sul campo, si è andata affinando una serie di studi sulla dinamica dei materiali nella zona arata. Ci si è ad esempio resi conto che in ripetizioni della ricognizione di un sito in anni diversi, esso tende a presentarsi con distribuzioni molto diverse, o addirittura talvolta a scomparire del tutto. In linea generale, si è rilevato che la densità dei manufatti tende a diminuire, mentre le dimensioni del sito tendono ad aumentare in seguito ad arature ripetute. Altri fattori vanno poi tenuti in considerazione, come i fenomeni di erosione e di accumulo, o ancora la vegetazione, le condizioni di luce, le precipitazioni, il risalto di colore dei manufatti rispetto al terreno e la stessa esperienza dei singoli ricognitori. Tali elementi riducono l'effettiva comparabilità delle densità rilevate sulla superficie: queste ultime, infatti, non rappresentano un riflesso diretto dei resti sottostanti, ma sono filtrate da agenti extra-archeologici che possono ad esempio rendere molto simili all'apparenza un sito considerevole, ma lungamente rimescolato e coperto dalla vegetazione, e una chiazza di materiali sporadici arati per la prima volta, lavati da recenti piogge e con colori che staccano rispetto allo sfondo. Tutto ciò assume un'importanza particolare al momento di stabilire la definizione di sito. Originariamente, infatti, il sito viene visto come l'unità elementare di documentazione dei resti archeologici di superficie e definito semplicemente su basi empiriche. In ambito processuale si è però presto sentita l'esigenza di adottare criteri quantitativi per delimitare l'estensione dei siti. A questo scopo sono state definite soglie di densità dei materiali di superficie al di sopra delle quali si avrebbe un sito. La stessa varietà dei valori impiegati (ad es., cinque manufatti per m² nel South-West Archaeology Group, o quattro per 25 m² nel Neothermal Dalmatia Project) indica chiaramente il fortissimo rischio di ottenere in questo modo un risultato del tutto arbitrario. Il sito è stato allora definito in forma relativa, cioè in termini di densità che si differenziano rispetto alla media locale (ADABS: Abnormal Density Above Background Scatter). È chiaro a questo punto che la distribuzione di materiali di superficie su un paesaggio viene vista come un continuum a densità variabile, in cui i siti rappresentano picchi anomali rispetto alla norma. In questo modo è possibile tenere conto di potenziali fattori di bias, integrando anche considerazioni di approvvigionamento della ceramica e di derivazione dai depositi archeologici. I lavori agricoli intaccano infatti nella maggior parte dei casi la parte superiore della stratificazione, che contiene solo una determinata parte del contesto complessivo dei manufatti presenti. Questo progressivo raffinarsi del concetto di sito ha obbligato a prendere in considerazione anche i materiali di superficie che non fanno parte di un sito. Dagli anni Ottanta è invalsa la prassi di raccogliere e documentare anche tali reperti (che una volta sarebbero stati definiti come sporadici). Essi sono in genere interpretati come tracce di frequentazione o di coltivazione: in particolare, infatti, con la concimatura finiscono per essere sparsi nei campi manufatti finiti nel letame. Si giunge così alla distinzione fra sito e non sito (off-site), il che comporta l'ulteriore necessità di avere una soglia quantitativa per discriminare fra i due, con i problemi già esposti sopra. Una soluzione radicale a questa difficoltà è rappresentata dall'abbandono del sito come strumento di analisi dei resti archeologici. In questo tipo di ricognizioni (dette "ricognizioni senza siti", siteless surveys), la distribuzione dei manufatti sull'intero paesaggio viene rilevata per mezzo di misure di densità, senza distinguere al momento della raccolta fra siti e non siti. Verrebbe in questo modo eliminata ogni soggettività dalla ricognizione. In realtà, anche con una documentazione precisa dei resti di superficie, l'incidenza dei fattori di disturbo rimane difficile da valutare e controbilanciare: si rischia di avere un'immagine oggettiva di un fenomeno che riflette il popolamento antico solo in forma distorta. Per queste ragioni, sono stati sollevati dubbi sull'effettiva utilità di queste procedure, che comportano un dispendio di tempo e di risorse molto maggiore rispetto alla ricognizione tradizionale. D'altronde è anche vero che l'approccio empirico alla questione non consente di verificare il metodo adottato e obbliga ad accettare incondizionatamente le impressioni del ricognitore. Il dibattito su questo problema è tuttora in corso. Le varie posizioni metodologiche per quanto riguarda il concetto di sito comportano naturalmente strategie di documentazione molto diverse. La tecnica di base è simile: i ricognitori si dispongono a distanze regolari e percorrono il campo per file parallele raccogliendo i reperti visibili. Nelle ricognizioni che adottano una definizione empirica, tuttavia, i siti vengono identificati sulla base dell'esperienza dei ricercatori e documentati con raccolte particolari e compilazione di schede. Qualora ci si basi invece su misure di densità, si procede con accorgimenti particolari: il territorio va infatti suddiviso in unità, per ciascuna delle quali viene registrata la densità di manufatti a parità di condizioni di raccolta. Tali unità possono essere quadrati, rettangoli, interi campi o strisce percorse dal singolo ricognitore. In casi estremi, specie per le ricognizioni senza siti, può essere registrata la posizione di ciascun reperto raccolto. Uno dei vantaggi dell'intensificazione delle procedure di raccolta è che si possono ottenere utili informazioni sulla distribuzione dei manufatti all'interno dei siti, che possono metterne in evidenza articolazioni interne. Queste osservazioni (definite complessivamente "analisi infrasito") possono anche essere fatte sulla base di quadrettature di siti già noti, in ricerche a bassa intensità. Vengono in genere preferite concentrazioni con molto materiale diagnostico ed un alto grado di leggibilità, cioè non troppo danneggiate dai lavori agricoli. Confrontando le densità rilevate in zone diverse dello stesso sito, è così possibile identificare ad esempio aree funzionali o occupate durante un dato periodo. Altri metodi di indagine infrasito possono contribuire allo studio dell'articolazione interna dei siti. Oltre alla foto aerea, vanno ricordate soprattutto le indagini geofisiche e geochimiche. La documentazione delle tracce archeologiche rinvenute si appoggia principalmente a cartografie e a schede. Le prime costituiscono lo strumento principe della topografia archeologica e possono risolvere il problema della localizzazione dei siti in vario modo. Nelle carte topografiche propriamente dette i siti sono posizionati con la massima precisione possibile, un'operazione di recente resa più agevole dal posizionamento satellitare (GPS). Nel caso delle aree di manufatti, i cui confini stessi sono di ardua delimitazione, possono anche essere impiegate localizzazioni effettuate con misure meno accurate rispetto a punti noti su carte a denominatore basso (fra 2000 e 10.000). Nelle ricognizioni basate sulla densità di manufatti il problema è diverso: tutte le unità di raccolta devono infatti essere cartografate con una precisione sufficiente a consentire confronti derivati dal calcolo delle superfici effettivamente ricognite. Oltre al riporto cartografico, per ogni sito viene compilata una scheda che contiene tutte le informazioni ritenute necessarie alla ricerca. Originariamente di formati molto diversi, l'apparato di schede per la ricognizione è stato recentemente unificato in Italia a cura dell'Istituto Centrale per il Catalogo e la Documentazione. Una scheda riporta i dati ambientali del paesaggio circostante, mentre una serie di altre è relativa ai resti archeologici presenti, presi gerarchicamente in considerazione dagli insiemi più ampi (Complessi Archeologici) a quelli più piccoli (Monumenti Archeologici). La documentazione può infine essere completata con rilievi, schizzi misurati e fotografie di eventuali resti visibili. Oltre alle informazioni puntuali concernenti i singoli siti, si è andata di recente diffondendo una serie di osservazioni che riguardano l'intero paesaggio o parti di esso. In particolare, le condizioni ambientali vengono analizzate sia per meglio comprendere le relazioni fra uomo e paesaggio, sia per valutare l'impatto delle dinamiche ambientali sul rinvenimento dei siti. Le carte di visibilità, ad esempio, riportano campo per campo le condizioni incontrate al momento della ricognizione, in modo da poterne poi valutare l'effetto sulla distribuzione rinvenuta. Vengono adottate scale assolute di visibilità, o codici che descrivono la situazione effettiva (arato, stoppie, ecc.). Altra documentazione riguarda la geopedologia: anche se esistono carte già redatte da specialisti in questo campo, c'è una serie di osservazioni di dettaglio che può fare solo l'archeologo al momento della ricognizione. Ad esempio, interventi di cava, discarica, bonifica e simili, cruciali per la valutazione dei risultati, sono raramente compresi nella cartografia esistente. Ulteriori osservazioni utili possono essere fatte per quanto riguarda l'uso del suolo, la fertilità attuale, la vegetazione e in particolare i boschi. Un campo infine che si è andato sviluppando di recente, particolarmente in ambito anglosassone, è quello dei rilevamenti etnologici. Con questo approccio, specie nelle regioni meno trasformate dall'industrializzazione, è possibile ottenere dati preziosi sui modi di produzione tradizionali o sulle strutture sociali e culturali. Tutti i dati raccolti con le procedure fin qui esaminate concorrono alla formazione di ipotesi, ricostruzioni e interpretazioni concernenti lo sviluppo del territorio sottoposto a ricognizione. Per facilitare questo lavoro esiste ormai una gamma molto vasta di strumenti di elaborazione, dagli approcci tradizionali ed empirici fino alle procedure quantitative e informatiche più sofisticate. Lo strumento interpretativo più semplice, e al tempo stesso più diffuso, è senza dubbio la stessa carta archeologica, che consente una visione complessiva delle presenze di tutte le fasi ed è specialmente utile per gli aspetti di lunga durata del territorio. Un altro aiuto fondamentale per l'interpretazione dei resti rinvenuti è rappresentato dalle carte di fase: esse contengono solo i siti occupati durante un dato periodo di tempo e sono quindi basate sulla cronologia dei materiali rinvenuti in ciascun sito. Difficoltà possono essere create da periodi caratterizzati solo da scarsissimi materiali diagnostici, da siti che hanno restituito poco materiale o con breve durata di occupazione e da molti altri fattori. Le carte di fase sono spesso associate all'assegnazione dei siti a tipi insediativi, che vi compaiono con simboli diversi. Le tipologie possono essere basate su criteri svariati e accade spesso che progetti diversi adottino classificazioni assolutamente incompatibili fra loro. L'evoluzione del popolamento può comunque essere chiaramente seguita osservando la successione delle carte di fase, in cui le differenze fra siti risaltano anche ad un'analisi intuitiva. Recentemente però si tende ad inserire nelle carte di fase anche informazioni relative alle modalità di raccolta dei dati: ad esempio, la campionatura effettuata o la visibilità incontrata. Questo da un lato rende le carte più veritiere, evitando ad esempio che una zona senza siti perché non ricognita o non visibile venga considerata disabitata, dall'altro ne rende la lettura meno immediata. Nel complesso si può osservare che il progresso e l'intensificazione dei metodi sul campo aumentano la necessità di metodi formali e quantitativi di analisi. Un semplice approccio da questo punto di vista è costituito dalle statistiche riassuntive, che sono particolarmente utili e appropriate per l'analisi di grandi quantità di siti. Il totale dei siti rinvenuti e la loro densità per km² sono ad esempio un utile indicatore del potenziale archeologico di un'area per fini di tutela. Disaggregando questi valori per fase viene seguita l'evoluzione nel tempo del popolamento di una regione. Sono state in questo modo ricavate vere e proprie curve demografiche, in genere tenendo conto anche del totale della superficie occupata dai siti stessi. Stime dei valori assoluti di popolazione sono però molto rischiose, data l'incompletezza delle distribuzioni recuperate e l'alta variabilità delle densità di popolazione per ettaro edificato. Dati utili sulla continuità di vita possono essere invece ottenuti confrontando tra fasi contigue la frazione di siti di nuova fondazione rispetto a quelli preesistenti. Anche il mutare delle proporzioni tra tipi diversi nel corso del tempo può costituire un elemento significativo, così come il confronto tra aree diverse, sempre che la frazione di siti recuperati sia simile. Vengono talvolta impiegati test statistici di significatività per valutare la rilevanza delle differenze osservate. Un altro insieme di metodi di analisi dei dati riguarda i rapporti fra l'occupazione umana e l'ambiente naturale. Una serie di osservazioni in questo senso è stata stimolata dalle formulazioni processuali che assegnano un ruolo fondamentale al legame ecologico fra uomo e ambiente. A livello informale, tendenze e configurazioni possono essere individuate anche solo confrontando la distribuzione dei siti con la cartografia geopedologica o idrologica esistente, come la preferenza dei siti neolitici per i suoli leggeri o di quelli medievali per le posizioni difendibili. Per formalizzare queste osservazioni sono state spesso impiegate stratificazioni ambientali: suddividendo il territorio in unità con caratteristiche analoghe in termini, ad esempio, di geologia, fertilità dei suoli o quantità di precipitazioni, è possibile calcolare la densità di siti in ciascuna di esse. Articolando ulteriormente l'analisi per fasi e tipi di sito si possono ottenere dati molto rilevanti per la ricostruzione delle preferenze degli abitanti, giungendo quindi a comprendere la logica insediativa e produttiva in paesaggi umani di vario genere. Questo metodo ha però il limite di prendere in considerazione solo il punto preciso in cui si trova il sito. Di qui la necessità di analizzare anche la zona circostante, come nelle analisi del bacino di approvvigionamento (site catchment analysis), in cui viene valutata per ogni sito la produttività dei terreni che si trovano in un raggio di 3-5 km intorno ad esso. La predominanza di suoli arabili o adatti al pascolo nelle vicinanze di un sito costituisce certamente un'indicazione importante per ricostruirne la sussistenza. Variazioni di queste priorità nel tempo possono riflettere importanti cambiamenti storici. Anche il confronto fra le dimensioni dei siti (presumibilmente proporzionali alla loro popolazione) e il loro bacino di approvvigionamento ha mostrato spesso una stretta correlazione fra i due valori. Un approccio diverso è costituito dalle analisi complessive della capacità di sostentamento (carrying capacity) di una determinata regione. Confrontando queste stime con i dati demografici disponibili è possibile, senza entrare nel dettaglio della sussistenza dei singoli siti, avere un'idea della pressione sulle risorse disponibili. Analisi ambientali globali del paesaggio sono anche essenziali per l'interpretazione del popolamento di habitat particolari, come quelli paludosi o desertici. Altre tecniche in questo campo si sono sviluppate a seguito dell'introduzione della cartografia numerica: disporre infatti di modelli digitali del terreno (DTM), di carte geopedologiche informatizzate e così via, consente una serie di osservazioni sulla posizione geografica dei siti, impraticabile prima dell'introduzione di questi strumenti. Essi possono infatti calcolare automaticamente la collocazione di ogni sito rispetto alla morfologia, alle pendenze, all'idrologia o all'esposizione, mettendo in luce il ruolo di ciascun fattore nel determinare la configurazione dell'insediamento umano. Su questa base vengono elaborati complessi modelli che ricostruiscono le logiche locazionali per tipo di sito e periodo, in alcuni lavori di stampo processuale addirittura a scopo predittivo: si tenta in questo modo di congetturare il popolamento in zone non campionate o non visibili. Un campo ancora più ampio e articolato di elaborazione dei dati di ricognizione è rappresentato dai rapporti intercorrenti fra siti, che comprende analisi delle configurazioni, delle gerarchie, ecc. La stessa carta di fase tipologizzata consente molte osservazioni sui legami di tipo molto diverso che possono esistere fra siti della stessa regione. Uno dei metodi formali più semplici e diffusi è quello dei "poligoni di Thyssen", in cui a ciascuno dei siti presi in considerazione viene attribuita quella parte di paesaggio che si trova più vicino ad esso che a qualunque degli altri punti. Oltre ad offrire un modello teorico delle zone di appartenenza, i poligoni di Thyssen consentono di confrontare l'estensione dei territori ipoteticamente attribuiti ai centri, che devono però essere completamente noti e omogenei. Un altro metodo piuttosto diffuso è rappresentato dall'analisi del vicino primo (nearest neighbour analysis), che misura il grado di aggregazione di una distribuzione di punti. Per ognuno di questi viene calcolata la sua distanza dal punto più vicino; la media di queste distanze viene poi confrontata con la media che ci si potrebbe attendere se la distribuzione fosse casuale, ottenendo una misura che va da -1, nel caso di siti disposti a distanze regolari, fino a 1 per distribuzioni molto aggregate. Metodi come il k-means clustering e altri tipi di analisi di cluster consentono di individuare le singole aggregazioni presenti nella distribuzione osservata. Un altro gruppo di tecniche prende in considerazione i caratteri specifici dei siti, piuttosto che vederli come punti indifferenziati. Gli "anelli di von Thünen", ad esempio, propongono un modello teorico di rapporto fra un centro principale e il suo hinterland, basato sul principio che si abbia una progressiva diminuzione nell'intensità della produzione man mano che ci si allontana dal centro. I siti rurali impegnati in produzioni che comportano alti costi di spostamento tenderanno quindi a situarsi nei pressi del mercato regionale. Un modello più complesso è offerto dalla teoria dei luoghi centrali proposta da W. Christaller, in cui viene studiata la disposizione dei singoli siti rurali intorno ad una rete gerarchica di centri maggiori, detti appunto "luoghi centrali". Il modello consente di generare configurazioni ottimali per la circolazione delle merci sulla base di due parametri: il numero di livelli gerarchici e il numero di siti dipendenti dal sito immediatamente superiore. Vere e proprie analisi dei rapporti fra siti atte a rivelare i sistemi politici connessi si hanno ad esempio con l'analisi di rango e di dimensioni (rank size). In essa i siti vengono ordinati per dimensioni e confrontati con un modello teorico in cui ogni sito tende ad avere dimensioni pari a quelle della capitale divise per il posto (o rango) che il sito occupa nell'elenco. Questa tendenza viene generalmente espressa con una retta su un grafico semilogaritmico. Se la curva osservata si trova al di sotto della retta, si ha una distribuzione "concava", che dovrebbe corrispondere ad una società cosiddetta "giovane", in cui si è appena installata una nuova entità statale, contraddistinta dal primato della capitale rispetto al resto del paesaggio. Una curva vicina alla retta ideale, invece, indicherebbe una società matura, mentre una curva convessa sarebbe prerogativa di una società in decadenza, in cui molti centri di dimensioni simili si contendono il primato. Si tratta quindi di un modello che consente di analizzare le fasi di sviluppo politico di un paesaggio. Un approccio simile caratterizza anche i metodi X-TENT e lo early state module. Uno dei pochi fra questi metodi ad essere stato creato da un archeologo, invece che derivato dalla geografia umana, si deve a V. Steponaitis. Tale metodo si basa sul rapporto che intercorre fra le dimensioni dei siti e la produttività del loro bacino di approvvigionamento, che, come si è visto, assume in genere il carattere di proporzionalità diretta. Osservando però le eccezioni a questa tendenza ideale, Steponaitis ha scoperto che esse sono molto scarse in società egualitarie, mentre in situazioni più complesse, come quelle del chiefdom, alcuni centri tendono ad avere dimensioni maggiori di quanto la loro zona di approvvigionamento dovrebbe consentire, poiché possono estrarre surplus dai siti subordinati. Quando i livelli gerarchici diventano tre o quattro si ha un meccanismo di tributi ancora più articolato, che caratterizzerebbe rispettivamente i chiefdoms complessi e le società statali. Anche in questo campo la tecnologia GIS ha reso possibili interessanti progressi: forse il più rilevante è rappresentato dagli studi di intervisibilità. In questi viene osservata per ogni sito la superficie di territorio visibile (e quindi controllabile) da esso, nonché la possibilità di contatto visivo diretto con gli altri siti circostanti. Tali valori tendono ad essere alti nel caso di siti di livello gerarchico elevato. Un ultimo gruppo di metodi formali di analisi della distribuzione si rivolge agli aspetti della circolazione di merci e della comunicazione fra siti. Il più elementare è ovviamente rappresentato dalle carte di distribuzione di tipi o classi di manufatti, che spesso contengono anche indicazioni sulle quantità assolute o in percentuale rinvenute per ogni sito. Un'aggiunta importante è anche rappresentata dai siti nulli, cioè quelli che non hanno restituito il tipo di manufatto in esame, pur essendo stati abitati nel periodo della sua produzione. Altre analisi indagano l'irraggiamento di una classe di manufatti dal loro luogo di produzione o di importazione; ci si attende in teoria che man mano che ci si allontana dal luogo di origine la penetrazione dei materiali diminuisca. Le deviazioni da questo modello sono particolarmente interessanti: se infatti un sito riceve più manufatti di quanto ci si potrebbe aspettare, data la sua distanza dal luogo di produzione, ciò può indicare che esso ha un ruolo particolare o privilegiato nella circolazione di quel tipo di merce e viceversa. Una profonda influenza su questo genere di fenomeni è esercitata dalla rete delle vie di comunicazione; oltre alle tradizionali ricostruzioni empiriche di sistemi stradali, centuriazioni e approdi, esistono metodi formali di analisi dei networks che consentono di simulare i meccanismi di circolazione di merci e informazioni in diversi tipi di configurazione delle vie di comunicazione. Notevole espansione hanno avuto infine i recenti studi che vengono detti di "fenomenologia del paesaggio". Spinti dalle recenti formulazioni postmoderne e postprocessuali, gli archeologi hanno tentato di aggiungere una dimensione soggettiva alla ricostruzione funzionale e produttiva che aveva predominato nei decenni precedenti. Gli uomini infatti, più che con il paesaggio stesso, interagiscono con la percezione che ne ricavano. Può quindi accadere che la configurazione dell'insediamento non sia la più logica e la più efficiente, ma sia piuttosto il risultato di una complessa mediazione fra le necessità materiali e l'aspirazione a vivere in uno spazio compatibile con le strutture mentali di una data cultura. Questa nuova via di indagine, che arricchisce la prospettiva dell'archeologo dei paesaggi, è di particolare interesse per l'archeologia dei periodi storici, in cui l'abbondanza della documentazione testuale e figurativa può utilmente contribuire alla ricostruzione delle complesse interazioni fra l'ambiente, l'insediamento e la cultura umana.
Oltre alla bibl. citata nel contributo precedente, cfr. L. Binford, A Consideration of Archaeological Research Design, in AmAnt, 29 (1964), pp. 425-45; G.A. Johnson, Aspects of Regional Analysis in Archaeology, in AnnRAnthr, 6 (1977), pp. 479-508; A.J. Ammerman - M. Feldman, Replicated Collection of Site Surfaces, in AmAnt, 43 (1978), pp. 734-40; J.F. Cherry - C.S. Gamble - S. Shennan, Sampling in Contemporary British Archaeology, Oxford 1978; S. Plog - F. Plog - W. Wait, Decision Making in Modern Surveys, in AMethTh, 1 (1978), pp. 383-421; A.J. Ammerman, Surveys and Archaeological Research, in AnnRAnthr, 10 (1981), pp. 63-88; R. Foley, Off-Site Archaeology and Human Adaptation in Eastern Africa, Oxford 1981; V. Steponaitis, Settlement Hierarchies and Political Complexity in Nonmarket Societies, in AmAnthr, 37 (1981), pp. 519-35; R. Paynter, Models of Spatial Inequality, New York 1982; A. De Guio, Archeologia di superficie e archeologia superficiale, in QuadAVen, 1 (1985), pp. 176-84; C. Haselgrove - M. Millett - I. Smith (edd.), Archaeology from the Ploughsoil, Sheffield 1985; S. Macready - H. Thompson (edd.), Archaeological Field Survey in Britain and Abroad, London 1985; S. Shennan, Experiments in the Collection and Analysis of Archaeological Survey Data: the East Hampshire Survey, Sheffield 1985; Th.W. Gallant, Background Noise and Site Definition: a Contribution on Site Methodology, in JFieldA, 13 (1986), pp. 403-18; G. Noyé, Structures de l'habitat et occupation du sol dans les pays méditerranéens, Rome - Madrid 1988; A. Clark, Seeing Beneath the Soil, London 1990; S.K. Fish - S.A. Kowalewski (edd.), The Archaeology of Regions, Washington (D.C.) 1990; J.F. Cherry - J.L. Davis - E. Mantzourani, Landscape Archaeology as Long-Term History, Los Angeles 1991; J. Schofield (ed.), Interpreting Artefact Scatters, Oxford 1991; Ch. Tilley, A Phenomenology of Landscape: Places, Paths and Monuments, Oxford 1994; G. Barker (ed.), The Archaeology of a Mediterranean Valley, London 1995; G. Lock - Z. Stančič (edd.), Archaeology and Geographical Information Systems: an European Perspective, London 1995; X. Carreté - S. Keay - M. Millett (edd.), The Ager Tarraconensis Survey, Ann Arbor 1996; N. Terrenato - A.J. Ammerman, Visibility and Site Recovery in the Cecina Valley Survey, Italy, in JFieldA, 23 (1996), pp. 91-109; N. Terrenato, The Visibility of Artefact Scatters and the Interpretation of Field Survey Results: towards the Analysis of Incomplete Distributions, in R. Francovich - H. Patterson (edd.), Methodological Issues in Mediterranean Landscape Archaeology: Artefact Studies, Oxford (c.s.).
di Fabio Piccarreta
Sotto il nome di telerilevamento (remote sensing) si comprendono i fondamenti fisici e le tecniche necessarie a raccogliere informazioni e dati sulla morfologia e sulle caratteristiche di elementi posti a distanza dalla stazione di osservazione, senza che vi sia contatto tra questa e l'oggetto dello studio. I fondamenti fisici sono costituiti dai fenomeni di propagazione, interazione ed emissione di onde elettromagnetiche o acustiche. Le onde elettromagnetiche utilizzate vanno dalle basse radiofrequenze alle frequenze ottiche, passando per le microonde e l'infrarosso; le onde acustiche maggiormente impiegate hanno frequenze da pochi Hz a diverse decine di kHz. Gli esperimenti sul telerilevamento sono stati avviati a partire dagli anni Sessanta e si potrebbero definire una ricerca sul modo di estendere le nostre facoltà di percezione a distanza, sulla linea che già la fotografia aveva cominciato da tempo a percorrere. Da questo punto di vista, possiamo considerare come precedenti del telerilevamento tutti i sistemi, anche remoti, connessi con il rilievo indiretto, sistemi che vanno dalla fotografia, sia nel campo del visibile sia nell'infrarosso, sino ad arrivare ai sondaggi ionosferici eseguiti mediante tecniche elettromagnetiche impulsive simili al radar. Questo tipo di tecnologie, che aveva già dimostrato di essere assai promettente, ha ricevuto un forte impulso e ha raggiunto una precisa connotazione grazie ai grandi progressi raggiunti nel campo dell'elettronica, con la realizzazione di strumenti di misura sufficientemente precisi e affidabili, basati su sensori sempre più perfezionati e sensibili gestiti da microprocessori dedicati. La possibilità effettiva di stabilire l'auspicata rete globale per i rilevamenti, condizione indispensabile per uscire dal ristretto campo del locale e garantire equilibrio e oggettività alla raccolta dei dati necessari alla conoscenza e alla gestione dell'ambiente che ci circonda, ha segnato un significativo passo in avanti attraverso il lancio di sempre più numerosi satelliti artificiali, muniti di appositi sensori per l'informazione a distanza.
Attualmente le tecniche di ripresa a distanza per il rilevamento, l'interpretazione e l'analisi dei dati utili per la lettura storica del territorio ‒ intesa come indagine sui tempi e sui modi dell'insediamento umano e sulle modificazioni da questo introdotte nell'ambiente, coniugate con le evoluzioni che l'ambiente stesso ha subito naturalmente nel corso del tempo ‒ occupano uno spazio non irrilevante nel campo degli studi di topografia archeologica. Tali tecniche si differenziano profondamente per le tecnologie impiegate nelle operazioni di ripresa e per il tipo delle immagini ottenute. Possiamo, per comodità di esposizione, suddividerle in due grandi categorie: rilevamenti tramite sistemi ottico-meccanici di tipo tradizionale (camere fotografiche da ripresa aerea) e rilevamenti tramite sistemi basati su sensori elettronici di differenti tipi (ad es., sensori FLIR per l'infrarosso remoto, sistemi per radar-rilevamento). La prima categoria gode ormai di una consolidata tradizione di studi e ha ottenuto notevoli risultati in molti campi, tra i quali l'archeologia, dove ha dato vita ad una materia specialistica con proprie connotazioni: l'aerotopografia archeologica. La seconda categoria è di più recente acquisizione e molto più diversificata sulla base delle tecnologie impiegate. Ha avuto grande sviluppo con l'avvento dei satelliti artificiali, intesi come strumenti da telerilevamento per l'osservazione e il controllo del nostro pianeta per uso civile e militare. Semplificando, si può dire che tali satelliti riprendono in forma digitale la superficie terrestre per strisce successive organizzate in aree ( pixel ) di alcuni metri quadrati, caratterizzate ciascuna da una determinata intensità spettrale in alcune bande assegnate. L'analisi dei pixel e l'elaborazione dei dati da essi rappresentati permettono di conoscere lo stato dei terreni rilevati ai fini orografici, idrografici e botanici. La crescente commercializzazione delle immagini prodotte da satelliti, da un lato ha avuto come conseguenza la liberalizzazione di documenti prima riservati all'uso militare e quindi la disponibilità di una grande quantità di immagini, dall'altro ha diversificato le possibili utilizzazioni per le esigenze di mercato; per questi motivi si è accelerata ulteriormente la corsa al conseguimento di definizioni sempre più elevate delle immagini, tanto che nel giro di pochi anni si è passati da pixel di 30 × 30 m a pixel circa dieci volte più piccoli, ed è prevedibile una riduzione a dimensioni significativamente minori nel prossimo futuro. Le attuali tecnologie di telerilevamento da satellite (satelliti Landsat, Spot, ecc.) hanno già permesso la realizzazione di cartografie con buone caratteristiche di precisione di aree molto vaste, anche a scale relativamente grandi (1:100.000, 1:50.000); inoltre, l'impiego di satelliti combinato con le tecniche di aerotriangolazione va progressivamente alleggerendo il peso delle operazioni di rilevamento geodetico appoggiato su stazioni a terra (sistema GPS). Ottimi risultati sono segnalati anche nel rilevamento cartografico dei fondali marini e dei sottosuoli desertici mediante sensori radar e sonar (satelliti Seasat, Radarsat, navicella Shuttle, sistemi Seabeam e Gloria). Per le applicazioni specifiche in campo archeologico le immagini satellitari presentano ancora problemi di definizione, che come abbiamo visto sono in via di progressivo superamento, e limiti di precisione non soddisfacenti per le cartografie di dettaglio necessarie in questo settore di studi. Ambedue questi inconvenienti risultano già ora molto attenuati, utilizzando riprese non satellitari da quote molto più basse, assimilabili alle immagini aeree digitalizzate utilizzate prevalentemente nella fotogrammetria digitale pura. È possibile ormai affermare che le riprese da sensori elettronici, per il momento soprattutto quelle non satellitari, una volta superati gli ultimi problemi dovuti ai vecchi livelli di definizione troppo bassi, saranno in grado nell'immediato di affiancarsi validamente alle fotografie aeree come fonti di dati utili per l'analisi e l'interpretazione storica del territorio e che è lecito attendersi da questi sistemi una copiosa messe di risultati. Particolarmente promettenti sembrano essere i settori relativi alle letture multispettrali delle immagini e le elaborazioni dei dati raccolti mediante rilevamenti radar e sonar. Altro campo interdisciplinare assai promettente, sia per l'estrazione dei dati sia per l'efficace trasmissione di questi ultimi, è quello delle elaborazioni informatiche di queste immagini elettroniche di tipo cartografico, ai fini dell'estrazione semiautomatica dei dati necessari alla costruzione di modelli digitali tridimensionali del terreno. Bisognerà invece probabilmente attendere ancora un po' di tempo perché altrettanti frutti possano essere ricavati dall'elaborazione delle immagini satellitari. Questo ritardo non dipende tanto da problemi creati dal basso livello di definizione (in quanto, come abbiamo visto, questo tipo d'immagine si avvia rapidamente a conseguire livelli di resa dei particolari almeno accettabili, anche se ancora non paragonabili a quelli delle riprese fotografiche) quanto dalla difficoltà di raggiungere i livelli di precisione geometrica necessari per una cartografia di dettaglio di buona qualità.
Questa tecnologia ha ormai una tradizione consolidata come sistema di rilevamento e di analisi a distanza di fenomeni naturali e antropici. Nata dalla curiosità dei primi sperimentatori del volo e della fotografia, si è rapidamente affermata per la grande quantità di risultati che ha permesso di raggiungere in ogni campo militare e civile; in quest'ultimo settore le applicazioni e i risultati conseguiti in campo archeologico sono stati particolarmente notevoli. In termini generali, qualunque fotografia ripresa dall'alto mediante l'uso di un mezzo aereo si può definire aerofotografia; immagini così ottenute danno la possibilità di abbracciare grandi porzioni di spazio, ma presentano qualche difficoltà per la lettura e l'interpretazione, dato l'inusuale punto di vista. A seconda delle modalità della ripresa, si possono distinguere aerofotografie oblique o prospettiche, prevalentemente ricercate a fini di documentazione per la maggiore immediatezza, e fotografie verticali o planimetriche di più difficile interpretazione, ma tradizionalmente preferite per le utilizzazioni più specialistiche come le applicazioni fotogrammetriche: tale diversificazione negli usi permane tuttora, nonostante i grandi progressi tecnologici compiuti nella costruzione dei restitutori fotogrammetrici. Le foto aeree oblique vengono riprese molto di frequente con fotocamere amatoriali. Meno frequentemente sono scattate da camere aerofotografiche talora comprese in sistemi di ripresa multicamera (ad es., Trimetrogon). Da qualche anno sono entrate in uso nella ricognizione militare camere in grado di fornire immagini panoramiche, su pellicola di medio formato (70 mm), con angolo di copertura intorno ai 180°, che presentano però distorsioni fortissime e, quindi, difficoltà di interpretazione e di lettura. Per le fotografie aeree verticali vengono richiesti in genere i requisiti fotogrammetrici, per cui nella maggior parte dei casi queste vengono riprese con camere da ripresa aerea e con il procedimento della strisciata aerofotografica: l'aereo scatta le fotografie a intervalli di tempo regolari, calcolati in modo da ottenere una serie concatenata di fotografie (strisciata) in cui ciascuna foto si sovrapponga del 60% circa alla precedente e alla successiva (ricoprimento longitudinale); se necessario l'aereo esegue una seconda strisciata, in modo tale che essa si sovrapponga alla precedente del 20÷30% circa (ricoprimento laterale) e così via. L'insieme delle serie fotografiche si definisce "blocco di strisciate". Le sovrapposizioni sono necessarie anche per avere la possibilità di eseguire la lettura tridimensionale delle fotografie. Usando due fotografie contigue (coppia stereoscopica), è infatti possibile riprodurre artificialmente la naturale percezione tridimensionale, eventualmente aiutandosi con strumenti detti "stereoscopi". La percezione stereoscopica naturale, generalmente, è possibile solo per scenari distanti al massimo 700 m circa, quella artificiale invece è praticamente quasi senza limiti e costituisce in effetti l'unico modo per avere grandissime viste di insieme tridimensionali. Con la lettura tridimensionale vengono inoltre a cadere molte delle difficoltà di interpretazione delle fotografie aeree verticali. La gran parte delle macchine aerofotografiche è costituita da apparecchi di grande formato (fino a 24 × 24 cm) che utilizzano obiettivi con focali comprese tra 127 e 2400 mm, con l'assoluta prevalenza delle focali intorno a 153 mm. Vengono tuttora preferite le pellicole b/n pancromatiche, per capacità di risoluzione e per motivi di costo, anche se si va progressivamente incrementando l'uso delle pellicole a colori semplici e all'infrarosso. Attualmente esiste una certa tendenza verso la riduzione dei formati, ma nell'uso civile, per ora, il formato 24 × 24 è il più utilizzato. Un progresso significativo potrebbe invece essere costituito dalla diffusione e dal perfezionamento dei sensori capaci di dare immagini elettroniche ad alta definizione. La soluzione dei problemi aerofotografici si basa, per le foto aeree verticali, sulla similitudine di due triangoli opposti al vertice (al cui schema è ben assimilabile la geometria della ripresa aerofotografica), da cui si evince che la scala della rappresentazione fotografica dipende dalla distanza focale e dalla quota relativa di volo. Sia df il lato della lastra fotografica, f la distanza focale dell'obiettivo della macchina fotografica, Q la quota relativa di volo, dt il corrispondente lato del terreno abbracciato: dalla proporzione df /dt = f /Q si ricava la formula per calcolare la scala della foto: Sf = df /dt = f /Q, che darà sempre un valore approssimato, in quanto le foto aeree planimetriche, anche se presentano deformazioni molto meno rilevanti di quelle oblique, possono essere assimilate ad uno schizzo più che ad una rappresentazione esatta del terreno. La metodologia in grado di eliminare distorsioni e deformazioni e derivare dalle foto rilievi cartografici si chiama fotogrammetria. Nacque alla metà del XIX secolo, divenendo operativa in poco più di cinquanta anni. Oggi tutte le carte topografiche sono realizzate mediante procedimenti fotogrammetrici. Gli strumenti di fotorestituzione sono gradualmente passati, a partire dagli anni Sessanta del Novecento, dai classici apparecchi analogici, ancora in parte validissimi, agli attuali sistemi analitici universali computerizzati, che permettono la produzione della cartografia chiamata analitica o numerica. In campo archeologico (studi di topografia archeologica) le fotografie aeree si sono rivelate talmente utili da portare alla codificazione di una fotointerpretazione archeologica specifica come branca specialistica della fotointerpretazione generica. Il materiale più valido ai fini archeologici è quello a grande scala (entro 1:12.000), ma per studi a vasto raggio si utilizzano anche foto a piccole scale (anche oltre 1: 25.000). Possiamo suddividere schematicamente le utilizzazioni archeologiche del documento aerofotografico in diverse categorie, con il criterio della crescente completezza della estrazione dei dati contenuti.
1) Documentazione e tutela del territorio: la foto viene adoperata per ottenere un panorama d'insieme (particolarmente adatte le foto oblique, che talvolta in campo archeologico vengono riprese con mezzi "di fortuna", quali aquiloni o piccoli palloni).
2) Sussidio alla carta topografica: con le aerofoto si possono aggirare i problemi causati dalla frequente mancanza di aggiornamento delle carte topografiche.
3) Individuazione di aree archeologiche e/o contributi per l'analisi di queste: attraverso una lettura analitica delle fotografie verticali, combinata con l'esame stereoscopico, l'archeologo può realizzare una preventiva ricognizione utile non solo ad acquisire i lineamenti generali plano-altimetrici del settore in esame, ma anche a ricavarne suggerimenti puntuali da utilizzare nella successiva ineliminabile ricognizione diretta. Talvolta nelle fotografie aeree compaiono elementi poco o per nulla visibili sul terreno: si parla di tracce archeologiche quando la loro natura si riveli attinente a questo campo di studi. Gli elementi archeologici segnalano variamente la loro presenza, influendo su alcuni elementi circostanti che reagiscono con modificazioni rilevabili fotograficamente (indici). Le tracce consistono in sfumature di colore o di tono, particolari andamenti del rilievo, aspetti del paesaggio. Gli elementi fisici che concorrono alla formazione di questi indici sono l'umidità, l'humus, la vegetazione, il rilievo; ad essi vanno aggiunti anche fatti di concetto (anomalie logiche). Per motivi pratici di esposizione è possibile raccogliere le tracce archeologiche in diversi gruppi, non dimenticando però che nella realtà le diverse categorie in genere interagiscono. Si distinguono diversi tipi di tracce, di seguito elencate. a) Tracce da umidità: si rilevano su terreno nudo (ad es., campi arati) e dipendono dalla presenza di anomalie idriche; strutture sepolte causano inaridimenti precoci (tracce di colore chiaro), elementi archeologici negativi, come fosse e fossati, causano ristagni di umidità (tracce scure); la comparsa o meno di questo tipo di traccia è strettamente legata allo spessore degli interri e alle condizioni meteorologiche, ambientali e stagionali. b) Tracce da vegetazione: alterazioni più o meno circoscritte nelle condizioni dell'humus e dell'umidità influiscono sul manto vegetale di un terreno, determinandone la maggiore o minore crescita, la diversa intensità di verde e di concentrazione delle piante. Avremo in genere tracce chiare per strutture sepolte, scure per elementi archeologici in negativo; anche in questo caso, per la comparsa di questi indici, giocano un ruolo essenziale lo spessore degli interri e le condizioni ambientali; si riscontra un ciclo marcatamente stagionale con prevalenza primaverile. c) Tracce da alterazione nella composizione del terreno: si rilevano sul suolo nudo sotto forma di aree con tonalità differente dal contesto. Dipendono dalla presenza nel suolo di materiali archeologici mobili che ne alterano il colore e le caratteristiche fisiche. d) Tracce da microrilievo: resti archeologici sepolti possono condizionare l'aspetto di un terreno, producendovi minimi rialzamenti e depressioni che ripetono lo schema dell'elemento che li determina, sia pure con forme estremamente attenuate; queste alterazioni minime e molto graduali sfuggono quasi sempre all'indagine diretta, ma foto aeree a luce radente e soprattutto l'esame stereoscopico permettono di notare questi tipi di indici, che sono tra quelli più frequentemente presenti e più ricchi di informazioni. e) Tracce da anomalia: tutte le tracce sono anomalie, ma qui si intende per anomalia il fenomeno per cui un qualsiasi elemento viene evidenziato dal fatto che "stona" nel contesto generale, in quanto risponde ad una logica differente; la morfologia del paesaggio costituisce la base di confronto per la lettura di questo tipo di traccia. f ) Tracce di sopravvivenza: in questa categoria si può inserire la comparsa di elementi archeologici che non sono giunti fino a noi per se stessi, ma per la sopravvivenza totale o parziale della loro funzione; a titolo di esempio, possiamo citare la persistenza dei limiti di una divisione agraria o la sopravvivenza integrale o parziale di un tracciato viario antico in una strada moderna; assai utile per la fotointerpretazione archeologica è la possibilità di disporre di materiale fotografico ripreso in tempi diversi e anche di fotografie molto vecchie, precedenti gli attuali fenomeni di urbanizzazione e agricoltura intensivi.
4) Esercizio della fotogrammetria in prima persona, o almeno sotto il proprio controllo: permette all'archeologo di giungere ad un tipo di cartografia dedicata, che consente un notevole grado di integrazione tra base cartografica e informazione archeologica. Tale cartografia, molto curata anche da un punto di vista altimetrico, richiede capacità di fotointerpretazione specifica e ricognizioni dirette frequenti. Le prime immagini dall'alto dedicate a soggetti archeologici furono riprese da palloni frenati. Tra queste ricordiamo le foto fatte eseguire da G. Boni intorno al 1899 per gli scavi del Foro Romano, quelle dell'Aeronautica Militare scattate su Fiumicino e Porto, quelle sugli scavi di Ostia Antica fatte fare da D. Vaglieri. In alcune di queste immagini comparvero oggetti in traccia. Durante il primo conflitto mondiale la foto aerea si affermò come strumento per la ricognizione militare e di conseguenza si puntualizzò il metodo della fotointerpretazione; della grande quantità di materiale fotografico ripreso a scopo bellico e della nascente fotointerpretazione si giovarono anche gli studi archeologici: nel 1915 venne fotografata Troia e negli stessi anni vennero rilevate numerose aree archeologiche in Macedonia (L. Rey), nella Palestina e nel Sinai (Th. Wiegand), in Mesopotamia (G.A. Beazley), in Siria (A. Poidebard). A Poidebard si debbono le basi per la fotointerpretazione archeologica e l'intuizione dell'importanza delle modalità della ripresa ai fini della comparsa e della resa di elementi archeologici. L'utilità del mezzo per le ricerche archeologiche in zone desertiche non aveva bisogno di ulteriori prove: la conferma della validità anche per terreni coltivati e popolati senza interruzione si ebbe nella ricognizione condotta a partire dal 1922 in Inghilterra (O.G.S. Crawford e G.W.G. Allen), che portò all'acquisizione, tra l'altro, del quadro topografico della colonizzazione romana in Gran Bretagna. Ricordiamo, ancora nel periodo tra le due guerre mondiali, la scoperta della centuriazione romana in Tunisia (Ch. Saumagne, 1929). In Italia si ebbero studi condotti con l'uso di foto aeree su Anzio, Ardea, Lavinio e Lanuvio, via Appia, Crotone (G. Lugli, 1938). Lo scoppio del secondo conflitto mondiale da un lato interruppe molte iniziative di studio, dall'altro lasciò a disposizione degli studiosi una quantità enorme di materiale fotografico, che incentivò il diffondersi di questo tipo di ricerche. Per il periodo dalla seconda guerra mondiale al 1960 circa si possono ricordare: le ricerche sul limes africano (J. Baradez, A. Caillemer e R. Chevallier, R.G. Goodchild, G. Faider- Feytmans), in Palestina (A. Reifenberg e A. Dothan), in Iran (F. Schmidt), in Perù (P. Kosok e M.M. Reiche); in Europa ricordiamo studi sul territorio svizzero (H.G. Bandi), in Belgio (J. Mertens), in Spagna (M.M. Almagro Basch), in Francia (J. Le Gall e M.M. Guy), in Inghilterra (J.K. St. Joseph e J.S.P. Bradford). In Italia si segnalano gli studi su Populonia (A. Minto), sulla Puglia e sulle necropoli di Cerveteri e Tarquinia (J.S.P. Bradford), gli studi di F. Castagnoli sui resti della centuriazione (con le divisioni agrarie di Luni, Lucca, Cosa, Cales, Alba Fucens, Nocera, Pompei, Nola, Alife, Aquino, Spello) e sull'urbanistica a pianta ortogonale (con la ricostruzione dei piani urbani dei principali centri antichi a pianta regolare), le ricerche di G. Schmiedt che, in collaborazione con F. Castagnoli e R. Chevallier, hanno fornito gli schemi ricostruttivi della planimetria della maggior parte dei centri greci della Sicilia e dell'Italia meridionale. Inoltre gli studi di D. Adamesteanu (al quale si deve anche la fondazione dell'Aerofototeca Archeologica) in Sicilia, le ricerche di J.B. Ward-Perkins e M.W. Frederiksen sui territori di Veio, della via Clodia, sull'Agro falisco, la scoperta di Spina ad opera di N. Alfieri e V. Valvassori, l'individuazione dei resti del Portus Iulius (L. Cocchiarella, B. Bucher), l'identificazione di Aefulae ad opera di L. Cozza. Dal 1960 in poi, al consueto interesse per l'interpretazione specifica del documento aerofotografico si affianca una notevole attenzione per le modalità e le tecniche delle riprese. In parallelo cresce l'interesse per le applicazioni di fotogrammetria per la costruzione di cartografie specifiche. Limitandoci al panorama europeo, si sono avuti studi su divisioni agrarie in Russia, ricerche per l'individuazione del patrimonio archeologico in Polonia, studi su colonie greche in Dalmazia; in Germania, ad opera di I. Scollar, si sono avute prospezioni sistematiche in Renania, ricerche sul limes in Belgio; in Inghilterra si è avuta una notevolissima attività ad opera del Committee for Aerial Photography dell'Università di Cambridge presieduto da J.K. St. Joseph, con risultati notevolissimi sia nell'ambito preistorico, protostorico e romano, sia per la ricostruzione del paesaggio agrario celtico e sassone. Ancora in Inghilterra, notevole è l'opera di D.R. Wilson per quanto riguarda la fotointerpretazione archeologica e la codificazione di modelli di lettura; intensa attività si registra anche in Francia, con studi topografici a vasto raggio e con vivo interesse per la presa aerofotografica finalizzata all'archeologia (R. Agache, J. Dassié) e per le applicazioni a livello informatico e ad alto contenuto tecnologico (R. Chevallier); in Italia abbiamo le ricerche e gli studi di G. Schmiedt dell'Istituto Geografico Militare di Firenze sull'insediamento umano in Italia, ricerche e studi di G. Alvisi del Laboratorio per la Fotointerpretazione e la Aerofotogrammetria del Ministero dei Beni Culturali, studi e ricerche dell'Istituto di Topografia antica dell'Università di Roma "La Sapienza", sia nell'ambito delle ricerche per la carta archeologica (Forma Italiae), sia nell'ambito di studi di fotogrammetria finalizzata all'archeologia (F. Piccarreta). Recentemente presso l'Università di Lecce è nato un laboratorio di topografia antica con una sezione di fotogrammetria finalizzata all'archeologia; da ultimo, presso il Centro di Documentazione della Regione Lazio si sta costituendo un settore di fotogrammetria dedicata.
Dalla fotografia aerea è nata, come abbiamo visto nel paragrafo precedente, la fotogrammetria quale tecnica per rendere più economiche e veloci le operazioni connesse con la rappresentazione esatta del terreno. La fotogrammetria a scopo cartografico, che si basa sull'elaborazione di immagini fotografiche riprese dall'aereo, è l'insieme delle teorie geometriche e dei procedimenti ottico-meccanici che studiano e risolvono il problema di eseguire il rilievo di un territorio di cui siano date prospettive (fotografie). Trattandosi di risalire alle dimensioni reali di un oggetto, partendo dalla sua proiezione, è necessario conoscere perfettamente quest'ultima. È bene ricordare che una fotografia aerea si differenzia da una prospettiva per la presenza di aberrazioni introdotte dall'obiettivo di ripresa, di deformazioni dovute al materiale sensibile (pellicola e carta da stampa) e allo scorrimento dell'immagine durante il tempo di esposizione; è bene anche puntualizzare che una foto aerea differisce da un rilievo, oltre che per i motivi appena detti, anche perché è generata da una prospettiva conica centrale, mentre il rilievo è costruito mediante una proiezione ortogonale: per questo motivo, ad esempio, nell'immagine aerofotografica sono presenti fenomeni come l'abbattimento radiale degli elevati. Inoltre, le immagini aeree presentano anche alterazioni nella scala di rappresentazione, introdotte dalle differenze altimetriche presenti nel terreno fotografato (deformazione di altezza); infine sono presenti deformazioni prospettiche dovute ad errori di inclinazione dell'asse ottico dell'obiettivo fotografico durante la ripresa. Semplificando, la fotogrammetria procede considerando le fotografie come prospettive geometriche aventi centro di vista nel centro ottico dell'obiettivo. Queste prospettive possono essere definite da due elementi: orientamento interno (determinato dalla posizione del punto principale della lastra fotografica e dalla distanza focale dell'obiettivo di ripresa) e orientamento esterno (determinato dalla posizione rispetto al "mondo" del centro di vista e dell'asse ottico nell'istante della ripresa e dall'orientamento della lastra nel suo piano). La determinazione dell'orientamento esterno si fa appoggiandosi a una triangolazione eseguita a terra, di cui su ogni foto appaiono almeno quattro vertici. Nei procedimenti fotogrammetrici si debbono determinare insieme gli orientamenti esterni della coppia stereoscopica (problema del doppio vertice di piramide); noti l'orientamento interno ed esterno di due foto dello stesso oggetto, si può ricostruire la parte di oggetto contenuta nella zona di sovrapposizione delle foto con il metodo del procedimento di "intersezione semplice in avanti". La soluzione dei problemi fotogrammetrici è in metodi ottico-meccanici per quanto riguarda la fotogrammetria analogica e in metodi di calcolo numerico per la fotogrammetria analitica. I primi esperimenti di utilizzazione di riprese fotografiche (terrestri) a scopo di compilazione cartografica furono condotti principalmente nel decennio 1850-60 ad opera di A. Laussedat, oggi considerato il padre della fotogrammetria. Nel 1899 vennero posti i fondamenti della fotogrammetria analitica da S. Finsterwalder; nel 1901 K. Pulfrich realizzò il primo strumento fotogrammetrico Zeiss; nel 1919 U. Nistri presentò il suo fotocartografo e nel 1925 E. Santoni realizzò lo stereocartografo. Nel 1961 la Ottico Meccanica Italiana di U. Nistri costruì il primo strumento di fotogrammetria analitica in collaborazione con la Bendix Corporation, utilizzando i brevetti dell'Helava. Mediante l'applicazione di questa tecnologia possiamo arrivare ad ottenere prodotti cartografici non generici, ma dedicati specificamente ad usi archeologici. I tipi fondamentali di restituzione fotogrammetrica sono:
1) Restituzione speditiva: viene eseguita con l'uso di strumenti semplici, come stereoscopio e barra di parallasse, o apparecchi che ne riassumono le funzioni; non è in grado di correggere tutte le deformazioni contenute nelle fotografie; è utile soprattutto per l'aggiornamento speditivo di cartografie già esistenti.
2) Restituzione analogica: corregge tutte le deformazioni contenute nelle immagini fotografiche, permettendo di raggiungere il massimo livello di precisione; si effettua con strumenti ottico-meccanici che rappresentano una tra le migliori realizzazioni mai raggiunte dalla meccanica di precisione. Si basa sull'analogia tra la situazione di ripresa e quella di restituzione e presenta la preziosa caratteristica di permettere il contatto diretto e continuo tra l'operatore e il prodotto cartografico nella sua interezza durante tutta la fase di realizzazione della carta.
3) Restituzione analitica: ha le medesime caratteristiche di precisione della categoria precedente; si realizza mediante un sistema il cui cuore è costituito da un calcolatore che estrae dati numerici dalle fotografie mediante una periferica detta "stereocomparatore"; la restituzione è rappresentata dalla memorizzazione di sequenze numeriche, in cui tutti i punti sono individuati mediante le coordinate fondamentali e che, attraverso un "tavolo intelligente", possono essere trasformate in prodotto grafico. Ha lo svantaggio di impedire il contatto diretto tra l'operatore e il prodotto cartografico, del quale sfugge purtroppo la vista d'insieme, in quanto il tracciamento è su video con la mediazione del calcolatore; ha il vantaggio di fornire una cartografia numerica realmente tridimensionale e di prestarsi direttamente ad ogni tipo di elaborazione informatica. Ricordiamo ancora come la fotogrammetria analogica oggi venga progressivamente sostituita dalla fotogrammetria analitica, per tre ordini di motivi: minore costo di costruzione degli strumenti (nel sistema analitico il computer assume i compiti precedentemente riservati alla assai più costosa strumentazione classica), maggiore velocità nella messa a punto del modello, possibilità di gestione informatica diretta del prodotto cartografico. Rimane da osservare come i sistemi analitici attuali stiano evolvendo, soprattutto per motivi di costo economico, verso il sistema "digitale puro", con l'eliminazione della periferica "stereocomparatore" che nel sistema analitico è rimasta in un certo senso l'ultimo retaggio della fotogrammetria analogica. Il sistema digitale puro deve fare i conti con la risoluzione ancora scarsa dell'immagine elettronica, ma il problema appare in avanzata via di risoluzione anche per le applicazioni di fotogrammetria aerea. Questa finalizzazione archeologica della fotogrammetria risulta particolarmente efficace quando questa tecnologia di creazione cartografica venga esercitata in prima persona dallo specialista in topografia archeologica, o almeno da un operatore sottoposto al suo diretto e continuo controllo. Infatti le carte archeologiche più comuni, realizzate inserendo in una carta topografica generica le informazioni specifiche (non a caso si parla di base cartografica e di sovrastampa archeologica), presentano una spiccata dicotomia tra le informazioni specifiche e la carta topografica di base, causata dalla diversa ottica con cui sono stati realizzati i due tipi di documento. Quindi le carte topografiche comunemente costruite risultano per noi eccessivamente generiche e indeterminate, presentando difetti non solo formali ma anche sostanziali (come la resa approssimativa del rilievo e la rarefazione dei punti di riferimento). A complicare le cose si è anche aperta una crisi nella capacità di lettura delle carte, determinata forse dallo squilibrio culturale prodotto dalla grande disponibilità di immagini sempre più esplicite, per cui il linguaggio cartografico tradizionale da alcuni anni a questa parte risulta sempre più ostico, producendo come conseguenza una sempre maggiore richiesta di carte tematiche. È indubbio che in quest'ultima categoria vadano comprese le nostre carte archeologiche, ma si deve osservare che il processo necessario per arrivare ad una carta topografica finalizzata e ad una carta tematica dedicate all'archeologia non può passare solo per la fase dell'elaborazione dei dati, ma deve comprendere anche la fase dell'acquisizione dei medesimi, perché l'elaborazione di un dato acquisito in modo non soddisfacente dà un prodotto ugualmente insufficiente. Con l'esercizio diretto della fotogrammetria si è in grado di intervenire personalmente sul modo e sulla qualità dell'acquisizione dei dati e questo permette spesso anche un massiccio recupero di informazioni che altrimenti andrebbero perdute. In pratica, una cartografia finalizzata deve permettere l'integrazione del dato archeologico con il suo contesto, non solo a livello puramente tecnico, facilitando la collocazione sulla carta del reperto archeologico, ma anche a livello interpretativo, permettendo di trarre dall'ambiente circostante la maggiore quantità possibile di elementi utili (ricordiamo il rapporto dialettico che intercorre a livello territoriale tra antico e moderno) ad una lettura storica del territorio. Non è ancora possibile codificare esaurientemente i criteri da seguire per produrre una perfetta cartografia dedicata. Perseguendo però il fine della rappresentazione sintetica della situazione antica, è possibile individuare alcuni criteri tecnici validi per migliorare l'integrazione tra base cartografica e informazione archeologica e l'efficacia della documentazione e della trasmissione dei dati. Al chiarimento di questa problematica non contribuisce la presenza contemporanea di carte analogiche, semianalitiche (analogiche digitalizzate) e analitiche, che si distinguono tra loro anche dal punto di vista delle informazioni contenute: basti pensare alla completa tridimensionalità di una carta analitica contro la sostanziale bidimensionalità di una carta analogica e il carattere ibrido di una semianalitica. In concreto, si può affermare che, se da un lato la cartografia archeologica rientra a pieno diritto nel novero delle carte tematiche, dall'altro lato questo tipo di tematismo teme ogni genere di astrazione eccessiva, poiché deve mantenere il quadro antico ricostruito strettamente aderente alla situazione territoriale attuale, in quanto deve ottemperare non solo a fini di riconoscimento e di studio, ma anche a compiti di inventario e di tutela. In sostanza, si tratta di un'elaborazione che interviene sulla rappresentazione cartografica dell'attuale, evidenziandone i lati per noi più importanti e attenuandone gli altri, esaltando quindi il naturale rapporto di interscambio che lega l'antico al moderno. In pratica, un intervento di questo tipo è possibile in modo completo solo ricorrendo alla realizzazione ex novo di carte specifiche. In definitiva, la carta archeologica sarà costituita da questa carta dedicata e annotata, dalla quale sarà possibile ricavare tutta una serie di tematismi secondari. Questa finalizzazione, a livello planimetrico, si realizza da un lato mediante un'accurata selezione degli oggetti secondo una scala di evidenza a noi congeniale, dall'altro inserendo anche elementi che in una cartografia usuale possono essere stati tralasciati (o perché si è ritenuto che fossero dotati di scarso significato o perché se ne è prevista una troppo breve durata temporale) e che invece, dal nostro punto di vista, possono risultare utilissimi come punti di riferimento per collocare elementi archeologici reperiti con la ricognizione diretta, o perché costituiscono indizi fossilizzati di una situazione antica quasi del tutto cancellata (ad es., brevi tratti di allineamenti residui di una divisione agraria antica o di antichi percorsi stradali, le tracce archeologiche in genere). Per quanto invece attiene al discorso altimetrico, la finalizzazione si concretizza nel cercare di rendere la morfologia del terreno nel modo più preciso possibile, attenuando il margine di approssimazione insito nel sistema di rilevamento e rappresentazione ad isoipse, con l'espediente di tracciare le curve di livello con estrema cura e con equidistanza molto ristretta, cercando di evitare in ogni modo semplificazioni pericolose, come interpolazioni di curve intermedie o rappresentazioni di scarpate dove le curve di livello siano molto ravvicinate. Con sistemi di rappresentazione altimetrica di questo tipo si possono anche raggiungere effetti di graficizzazione di tracce archeologiche dovute a microrilievo. Concludendo, la scelta che porta alla realizzazione di una cartografia finalizzata all'uso archeologico, può motivarsi nel modo seguente: possibilità di disporre di materiale cartografico sempre aggiornato, eliminazione della dicotomia presente nelle carte archeologiche convenzionali tra base cartografica e compilazione archeologica, con la conseguente integrazione tra il fatto archeologico e l'ambiente che lo contiene e il recupero di buona quantità di dati utili alla lettura storica del territorio. In sostanza, la fotogrammetria finalizzata va intesa come il momento conclusivo del processo conoscitivo che parte dalla lettura delle fotografie aeree e che, attraverso la fotointerpretazione archeologica integrata dalla ricognizione diretta, giunge alla comprensione del territorio, anche nei suoi aspetti di antropizzazione pregressa, e alla sua rappresentazione quanto più eloquente possibile nella trasmissione del dato.
Sul telerilevamento: F.T. Ulaby - R.K. Moore - A.K. Fung, Microwave Remote Sensing, London 1981-86; R.M. Colwell (ed.), Manual of Remote Sensing, Falls Church 1983; C. Elachi, Introduction to the Physics and Techniques of Remote Sensing, New York 1988; Land Satellite Information in the Next Decade, Vienna (Virginia) 1995.
Sul telerilevamento negli studi di topografia archeologica: D. Brothwell - E. Higgs (edd.), Science in Archaeology, London 1962; Systèmes experts et sciences humaines. Le cas de l'archéologie, Paris 1987; G. Gullini, s.v. Archeologia, in EI, V App., I, 1991, pp. 194-97.
Sulla fotografia aerea: J.S.P. Bradford, Ancient Landscapes, London 1957; R. Chevallier, Bibliographie des applications archéologiques de la photographie aérienne, in BAMaroc, Suppl. al vol. 2 (1957), pp. 5-67; F. Castagnoli, s.v. Esplorazione aerea, in EAA, III, 1960, pp. 456-58; R. Chevallier, Chronique d'archéologie aérienne, in BAMaroc, 4 (1960), pp. 601-15; G. Schmiedt, Atlante aerofotografico delle sedi umane in Italia, Firenze 1964-92; I. Scollar, Archäologie aus der Luft, Düsseldorf 1965; R. Chevallier, Bibliographie d'archéologie aérienne 1961-1964 et compléments pour les années antérieures, in RPhotoint, 1 (1966), pp. 43-62; J.K. St. Joseph, The Uses of Air Photography, London 1966; G. Schmiedt, s.v. Esplorazione Archeologica, in EAA, Suppl. 1970, pp. 315-21; R. Chevallier, La photographie aérienne, Paris 1971; Id., Archéologie aérienne, in Bulletin de la Société Française de la Photogrammétrie, 70, 2 (1978); J. Dassié, Manuel d'archéologie aérienne, Paris 1978; R. Chevallier, Les méthodes de prospection archéologique, in ANRW, II, 12, 1, 1982, pp. 50-143; D.R. Wilson, Air Photo Interpretation for Archaeologists, London 1982; F. Piccarreta, Manuale di fotografia aerea: uso archeologico, Roma 1987; G. Alvisi, La fotografia aerea nell'indagine archeologica, Roma 1989; Ead., s.v. Esplorazione archeologica, in EAA, II Suppl. 1971-1994, II, 1994, pp. 500-503.
Sulla fotogrammetria: Manual of Photogrammetry, Washington 1965; E. Amadesi, Fotointerpretazione e Aerofotogrammetria, Bologna 1977; F. Guidi, Fotogrammetria, fotointerpretazione, telerilevamento, Firenze 1978; La cartografia e i sistemi informativi per il governo del territorio, Milano 1985; G. Azzena, Tecnologie cartografiche avanzate applicate alla topografia antica, in Archeologia del paesaggio, Firenze 1992, pp. 747-65; F. Piccarreta, Fotogrammetria finalizzata all'archeologia, in Beni Archeologici. Conoscenza e tecnologie, Metodologie di catalogazione dei beni archeologici, 1, 2, Lecce - Bari 1997, pp. 51-70.
di Mauro Cucarzi
L'espressione, oggi sempre più comunemente usata, "metodi non invasivi per l'indagine del sottosuolo archeologico" equivale al tradizionale termine "prospezioni archeologiche", che comprende tutti i tipi di ricerche non distruttive aventi lo scopo di localizzare, individuare e definire un'area archeologica. Si tratta quindi di ricerche che includono la fotointerpretazione, la ricognizione sistematica di superficie, le prospezioni geofisiche, geochimiche, geomorfologiche e le perforazioni a carotaggio continuo (sondaggi meccanici). È bene notare che in molti Paesi il termine "prospezioni archeologiche" è diventato sinonimo di "prospezioni geofisiche", tanto che la rivista Prospezioni Archeologiche, edita a Roma dalla Fondazione Lerici dal 1969, ha raccolto contributi che trattano dei metodi geofisici applicati all'archeologia. La Francia e la Germania hanno seguito lo stesso esempio, così come la Gran Bretagna, dove l'Università di Bradford pubblica dal 1993 la rivista Archaeological Prospecting, che si occupa principalmente di metodi geofisici per l'archeologia. Negli Stati Uniti per le prospezioni geofisiche con scopi archeologici viene utilizzato il termine archaeogeophysics. Da un punto di vista terminologico, ferma restando l'accezione più vasta del termine "prospezioni archeologiche", con "esplorazioni geoarcheologiche" possiamo intendere quelle attività di prospezione che comprendono tutte le tecniche per nulla o assai poco distruttive (cioè non invasive), da utilizzarsi per localizzare e definire gli elementi archeologici sepolti. Qui sono trattate le metodologie che coinvolgono attività al suolo e non (ad esempio da piattaforme aeree, come la fotointerpretazione): si parlerà pertanto di prospezioni geofisiche e a sondaggi meccanici (perforazioni a carotaggio continuo). L'esplorazione geoarcheologica non sostituisce lo scavo archeologico, ma può indirizzarlo. Poiché lo scopo dello scavo archeologico non è solo quello di recuperare materiali o di riportare alla luce strutture antiche, ma anche e soprattutto quello della ricostruzione storica attraverso l'analisi delle funzioni e delle relazioni tra gli elementi sepolti, e dato che ogni scavo è intrinsecamente distruttivo, è di vitale importanza disporre di metodi che possano indirizzare lo scavo nei punti cruciali o in certi casi evitarlo. Inoltre è sempre pressante il problema della tutela, per cui è necessario controllare vaste aree prima di intervenire. Solo la conoscenza tempestiva può evitare la distruzione che gli interventi di sviluppo del territorio comportano: essa può permettere di realizzare le nuove opere nel pieno rispetto delle preesistenze. Le prospezioni archeologiche in generale e le esplorazioni geoarcheologiche in particolare, con le loro caratteristiche di rapidità e disturbo nullo o molto limitato del sottosuolo, conciliano le esigenze di conoscenza e di tutela con quelle di programmazione e di sviluppo, evitando, nei casi migliori, gli interventi a cantiere aperto, fonte di danni economici rilevanti e talvolta inadatti alla salvaguardia di quanto scoperto. Un principio fondamentale da tenere presente è che nelle prospezioni archeologiche non esiste un metodo ideale di esplorazione: solo l'apporto di più metodologie è in grado di dare i risultati migliori. Tale principio, in sé forse banale, è di fondamentale importanza, perché il pericolo che un metodo venga presentato come l'unica soluzione di un determinato problema è molto alto e molto frequente: sia per la consuetudine di chi opera con un determinato metodo, sia per la pubblicità di certe strumentazioni, sia infine per l'inesperienza o per la facilità d'impiego. Il fatto che qui si trattano sia le prospezioni geofisiche che le perforazioni a carotaggio continuo non è casuale: benché entrambe possano fornire autonomamente dati importanti sulla presenza di un'area archeologica, è solo l'interazione dei due metodi che dà i risultati più attendibili. Non solo, l'impiego congiunto dei più opportuni metodi geofisici può fornire informazioni areali anche molto dettagliate; tuttavia, per loro natura, tali metodi raramente portano a un'unica soluzione per una data situazione archeologica. È possibile ottenere più soluzioni di un determinato problema geofisico, ma molte di esse possono non avere un senso archeologico o geomorfologico. Nell'ambito dei metodi della prospezione geofisica, quelli comunemente impiegati per indagini archeologiche sono: il metodo geoelettrico, il metodo magnetico e quello georadar. I metodi invece utilizzati meno frequentemente sono: il metodo gravimetrico, il metodo sismico, mentre quello acustico è in via di sperimentazione.
La prospezione geofisica in generale studia le caratteristiche fisiche delle rocce e dei terreni. Si tratta di un'indagine non invasiva che assume una grande importanza quando è difficile e costoso il rilevamento diretto di un oggetto. Se sono i resti archeologici l'oggetto del rilevamento, è necessario definirli dal punto di vista geofisico. Si può quindi definire il resto archeologico come un'alterazione della stratificazione naturale dei terreni causata direttamente o indirettamente nel passato dalla presenza dell'uomo in una determinata area. Ora, se il resto archeologico è visto come una modificazione del terreno, valutare le differenze fisiche tra esso stesso e il terreno circostante, misurando determinate grandezze, significa correlare il resto archeologico con la sua risposta geofisica, comunemente chiamata "anomalia geofisica". Con questo termine s'intende la misura del contrasto, per una determinata caratteristica fisica, tra l'oggetto (in questo caso il resto archeologico) e il terreno in cui esso è immerso. Interpretazione dei dati - Interpretare un gruppo di dati significa trovare una spiegazione valida per essi. L'obiettivo è quello di elaborare un modello concettuale in relazione al quale i dati acquisiti si adattino logicamente meglio di altri già noti. Il modello quindi viene inteso come una struttura logica flessibile che interrela l'esperienza e la teoria. Grazie a questa flessibilità i risultati migliori saranno ottenuti attraverso una serie di operazioni logiche che consistono nella formulazione del modello come ipotesi di partenza, nell'elaborazione di un modello di lavoro e nella presentazione del modello risultante. Il modello iniziale, come ipotesi di partenza, viene costruito sulla base di tutte le conoscenze già acquisite. Il modello di lavoro è quello che via via si delinea sulla base dei dati raccolti. Il modello risultante terrà conto di tutte le conoscenze acquisite e sarà sottoposto ad una serie di controlli e di confutazioni in modo da mettere in crisi la sua veridicità. Tanto maggiori saranno i controlli e le confutazioni che il modello sarà in grado di superare, tanto più questo rappresenterà la situazione reale. Prima di entrare nel merito dei singoli metodi di ricerca e della metodologia interpretativa, è opportuno introdurre il concetto di "disturbo" o "rumore". La risposta geofisica di un corpo (anomalia) rappresenta generalmente l'insieme di più contributi che può essere sintetizzato come la somma di quello causato dalla presenza del corpo più quello prodotto dai disturbi ambientali a cui un determinato metodo d'indagine è sensibile (linee elettriche, servizi urbani, sorgenti di radiofrequenze, rocce vulcaniche, centrali elettriche, ecc.). Il rumore è l'insieme di tali disturbi non dovuti alla presenza dell'oggetto che si vuole rilevare. Per iniziare il processo interpretativo è necessario ottimizzare il rapporto tra il segnale (dovuto al corpo) e il rumore, cioè aumentare il livello relativo del primo rispetto al secondo. Si può raggiungere questo scopo utilizzando differenti opportuni algoritmi matematici di filtraggio dei dati (passabanda, eliminazione del trend, filtri di energia, ecc.). Interpretazione qualitativa - Nell'ambito delle esplorazioni geofisiche per l'archeologia, fino a non molti anni fa l'interpretazione dei dati geofisici era sostanzialmente di carattere qualitativo: ad una determinata anomalia o serie di anomalie geofisiche venivano associate eventuali strutture archeologiche sulla base dell'esperienza dell'interpretatore. In questo modo si era in grado di suggerire le forme delle eventuali strutture sulla base di quelle desunte dalle anomalie geofisiche osservate. Poco o niente si poteva però dire sulla profondità alla quale si trovavano le strutture e sul loro spessore. Una volta che i dati geofisici osservati erano stati corretti e filtrati per ridurre i rumori, essi venivano generalmente rappresentati in forma di profili o di mappe a linee isoanomale. Alla base di un'interpretazione qualitativa vi è lo studio e il confronto della forma delle anomalie osservate con altre prodotte da corpi di forma nota. Riteniamo si debba insistere su quanto già affermato: un'anomalia geofisica può dare adito a differenti interpretazioni, comunque coerenti. Venendo meno il necessario principio di univocità della soluzione, è opportuno impiegare differenti metodi geofisici (e non solo geofisici, ove possibile), in modo da restringere il campo delle interpretazioni possibili e avvicinarsi per approssimazioni successive a quella che più rappresenta la realtà della soluzione. I sondaggi meccanici possono essere un valido strumento in grado di fornire le informazioni necessarie per aiutare nella scelta dei modelli più realistici. Interpretazione quantitativa - In tempi più recenti, grazie anche allo svilupparsi delle tecnologie informatiche, l'interpretazione dei dati ha acquisito sempre più un carattere quantitativo, tramite l'elaborazione di software adatto alla risoluzione dei problemi sia diretti che inversi. Il principio che sottintende l'interpretazione quantitativa è la ricerca di dati sulla profondità della struttura archeologica, sulla sua forma e sulla sua grandezza. Questi si possono ottenere con un processo diretto (metodo diretto) nel quale i dati osservati vengono interpretati per fornire un modello fisico. Il metodo inverso è un processo logico- matematico in cui i modelli sono generati da anomalie geofisiche ipotizzate sulla base di alcuni parametri i cui valori sono fatti variare, con il metodo delle approssimazioni successive (ossia minimizzando la differenza tra i dati teorici e quelli osservati), fino ad adattarli meglio statisticamente ai dati osservati.
Il metodo magnetico di prospezione, assieme a quello gravimetrico, è il metodo "passivo" per eccellenza, nel senso che in questi due casi non vengono introdotti nel suolo disturbi, ma si misurano passivamente i valori delle caratteristiche fisiche esistenti. Si tratta di uno dei metodi più antichi e si basa sulla misurazione delle variazioni del campo magnetico terrestre causate dalla presenza di corpi più o meno magnetizzati presenti nel sottosuolo. Nella prospezione magnetica sono in gioco tre grandezze vettoriali: l'induzione magnetica (che si misura in tesla, T; l'unità più comunemente usata è il nanotesla, nT, dove 1 nT=10⁻⁹ T), l'intensità magnetica e la magnetizzazione. Normalmente, la grandezza che si misura nella prospezione magnetica è l'induzione magnetica (comunemente denominata "campo magnetico"). A parità di altre condizioni, le caratteristiche fisiche che intervengono nella misura del campo magnetico sono la suscettività magnetica e il magnetismo residuo (o magnetizzazione residua). La prima misura la capacità che ha un materiale di magnetizzarsi in presenza di un campo magnetico; il magnetismo residuo, che un determinato corpo ha acquistato a causa di processi fisici intervenuti nella sua formazione, è una grandezza vettoriale che si somma al vettore campo magnetico terrestre in intensità e in direzione. Il comportamento magnetico dei materiali in generale è un argomento molto complesso, per la comprensione del quale è necessario fare riferimento a trattazioni specialistiche. Ci limiteremo a ricordare che una struttura archeologica sepolta può produrre un'anomalia del campo magnetico (anomalia magnetica) le cui caratteristiche dipendono dalla sua forma, dalla sua magnetizzazione e dalla sua profondità.
Strumenti di misura - I magnetometri, strumenti utilizzati per la misura del campo magnetico terrestre, negli ultimi decenni sono diventati sempre più maneggevoli ed efficaci, grazie alla miniaturizzazione dei circuiti che registrano le misure e le trasferiscono poi nei calcolatori per la successiva elaborazione. Nella maggior parte dei casi di prospezione magnetica per scopi archeologici vengono utilizzati strumenti fluxgate, magnetometri a protoni (anche nella forma di gradiente verticale) e magnetometri ad assorbimento ottico. Per gli strumenti ad assorbimento ottico la "produttività", intesa come il numero di misure effettuate a terra da un operatore per coprire una determinata zona, è superiore a quella dei magnetometri a protoni di un fattore almeno pari a cinque. Quando però si misura il campo magnetico terrestre in un punto ad una certa distanza dalla superficie del terreno, si misura il campo esistente in quel punto che rappresenta la somma di numerosi contributi dovuti a caratteristiche geologiche del sottosuolo, alla presenza di manufatti (ad es., oggetti metallici, servizi urbani, strutture archeologiche), alla presenza di campi elettrici variabili (ad es., linee elettriche, ferroviarie, centrali elettriche) e alla variazione diurna del campo magnetico terrestre. Nel caso delle prospezioni geofisiche per ricerche archeologiche, per rivelare la presenza di una struttura archeologica sepolta è necessario isolare l'effetto di variazione del campo magnetico prodotto dalla struttura stessa, inteso come "segnale", da tutti gli altri contributi che saranno definiti, in questo caso, come disturbi e rappresenteranno quindi un "rumore". Il rumore più facilmente eliminabile è quello prodotto dalla variazione diurna del campo magnetico terrestre; per questo basta utilizzare strumenti che operano in modo differenziale, misurando simultaneamente l'intensità del campo in due posizioni diverse (ad es. nello stesso punto, ma a due differenti altezze, oppure nel punto desiderato e in un altro, fisso, che rappresenta la stazione di riferimento): in questo modo verrà utilizzata la differenza dei due valori. Bisogna inoltre considerare che il campo magnetico terrestre dipende, a parità di altre condizioni, dall'inclinazione e declinazione magnetica del punto in cui viene effettuata la misura, ossia dalle coordinate magnetiche del punto. Quindi la forma di un'anomalia magnetica, con caratteristiche geometriche e magnetiche costanti del corpo che l'ha prodotta, dipende dalle coordinate magnetiche del punto dove il campo è stato misurato. Nell'ambito di un progetto internazionale guidato dall'Accademia delle Scienze di Ungheria per redigere una carta archeologica di una vasta area della pianura orientale ungherese (distretto di Békés), numerose campagne di prospezioni geofisiche sono state condotte con lo scopo di localizzare e delimitare le aree archeologiche presenti; tali campagne, attraverso il rilevamento di concentrazioni areali di anomalie magnetiche, hanno consentito di individuare numerosi insediamenti. Analogamente, nel corso di un vasto progetto di esplorazione e di conservazione dell'UNESCO per la conoscenza del monumentale sito archeologico di Wat Phu (Laos meridionale), sono state condotte prospezioni geofisiche con diverse metodologie e quella geomagnetica ha permesso di localizzare numerose aree monumentali all'interno della città.
La ricerca dalla superficie del terreno di resti archeologici sepolti senza effettuare scavi può essere condotta mediante l'impiego di metodi basati sulla misura delle proprietà elettriche del sottosuolo. In generale ogni resto sepolto riflette differenti proprietà fisiche dal terreno che lo circonda, in particolare una diversa resistività elettrica, cioè una diversa attitudine a lasciarsi attraversare da correnti elettriche. Con i metodi elettrici si individuano le zone di resistività anomale dei terreni, rilevando in questo un elemento archeologico sepolto.
La resistività elettrica - Se ad un corpo conduttore applichiamo una tensione elettrica continua esso sarà percorso da una corrente che segue la nota legge di Ohm: I = V/R, con R = ϱ l /S (dove I è l'intensità di corrente, V la tensione applicata, R la resistenza, ϱ la resistività, l la lunghezza del conduttore, S l'area della sezione). Ciò significa che l'intensità di corrente è direttamente proporzionale alla tensione applicata ed è inversamente proporzionale alla resistenza. A sua volta, la resistenza è funzione delle dimensioni del conduttore e di una grandezza denominata resistività elettrica. La resistività elettrica è una caratteristica fisica del materiale costituente il corpo e non dipende dalle sue dimensioni. La resistività viene misurata in ohm per metro (Ω·m), mentre il suo reciproco, la conduttività (σ), è misurata in siemens a metro (S/m). La resistività delle rocce e dei terreni dipende soprattutto dalla salinità dell'acqua che contengono e dalla percentuale di argilla presente: tanto maggiore sarà il contenuto d'acqua e più alta la sua salinità, tanto minore sarà la sua resistività elettrica. Non è possibile classificare le rocce e i terreni in funzione della resistività, ma si possono solamente dare valori indicativi. Questo significa che la presenza di una struttura archeologica sepolta sarà rilevata solo come misura della differenza tra la resistività attribuibile alla struttura e quella del terreno circostante. In un sedimento argilloso, ad esempio, la presenza di un muro verrà segnalata da una maggiore resistività, mentre, in un terreno calcareo, un fossato verrà individuato per il fatto di avere una minore resistività elettrica. Questo è vero in linea teorica, ma in pratica l'identificazione di una struttura sepolta viene complicata dalla presenza di rumori di fondo più o meno intensi. Infatti, gli strati superficiali di terreno sono soggetti a variazioni di resistività molto accentuate, causate sia dal cambiamento del tipo di sedimento sia dalla variazione di umidità. Quindi si deve essere in grado di distinguere le anomalie prodotte da eventi antropici da quelle prodotte da eventi naturali: si tratta anche in questo caso di migliorare il rapporto segnale-rumore. La misura della resistività elettrica viene eseguita inviando una corrente nota attraverso una coppia di elettrodi infissi nel terreno e misurando la tensione su altri due elettrodi. In un terreno omogeneo il valore della resistività è quello effettivo del terreno ed è indipendente dalla disposizione degli elettrodi. Poiché, in realtà, il terreno non è quasi mai omogeneo, la resistività calcolata dipende da quella delle diverse zone o strati, dalla loro profondità e dalla disposizione degli elettrodi. Questa grandezza viene chiamata "resistività apparente". Per il calcolo di questa grandezza, dalla quale si possono ricavare la posizione e la resistività dei corpi presenti nel terreno, si impiegano due tecniche, il metodo dei sondaggi elettrici verticali e quello dei sondaggi elettrici orizzontali, per valutare rispettivamente variazioni in profondità e laterali della resistività del terreno. Il primo metodo è utilizzato per lo studio delle caratteristiche profonde del terreno in corrispondenza del centro del sistema; nelle ricerche archeologiche esso trova applicazione sia per l'analisi preliminare delle proprietà del sottosuolo, sia nei casi in cui le strutture archeologiche si trovino a maggiore profondità e abbiano una notevole estensione orizzontale.
Sondaggi elettrici orizzontali - Il metodo dei sondaggi elettrici orizzontali è quello più comunemente usato nella ricerca archeologica e comporta misurazioni di resistività generalmente lungo profili, mantenendo inalterata la distanza e la posizione relativa degli elettrodi. Vengono impiegati quattro picchetti metallici, due per immettere la corrente elettrica nel terreno e due per misurare la tensione che ne risulta. Il complesso del quadripolo viene spostato tra una misura e l'altra senza variarne le dimensioni. Si tratta perciò di un'esplorazione in direzione parallela alla superficie del terreno. Se nel sottosuolo è presente una struttura archeologica, il sistema la rivelerà attraverso una variazione della resistività elettrica. Le possibilità di ottenere buoni risultati nel rilievo geoelettrico delle strutture archeologiche sepolte dipende, a parità di strumentazione impiegata, anche dalle modalità di esecuzione delle misure. Gli elementi da scegliere preventivamente sono i seguenti.
1) Disposizione degli elettrodi: secondo le condizioni del terreno e dell'oggetto della ricerca possono venire utilizzate differenti disposizioni elettrodiche, comunemente dette configurazioni elettrodiche. Le più frequentemente impiegate sono: Wenner, Schlumberger, doppio dipolo, polo-polo, polodipolo, gradiente, quadrato.
2) Distanze tra gli elettrodi: la distanza tra gli elettrodi deve essere scelta in funzione della profondità e delle dimensioni della struttura archeologica da individuare. Infatti, la profondità di penetrazione della corrente nel terreno dipende dalla distanza tra gli elettrodi. In linea di principio, è ragionevole postulare che la distanza elettrodica debba essere il doppio della profondità alla quale si intende arrivare.
3) Distanza tra le misure: la distanza tra una misura e la successiva deve essere scelta in funzione delle dimensioni della struttura archeologica e sarà inferiore alla sua dimensione orizzontale nel senso dell'allineamento degli elettrodi.
4) Disposizione dei punti di misura sul terreno: i punti di misura sul terreno possono essere disposti lungo una retta, oppure in corrispondenza dei nodi di una rete di misure. Quest'ultimo sistema è sempre consigliabile in quanto, così facendo, è possibile avere informazioni areali. L'interpretazione delle misure eseguite in questo modo viene facilitata dal tracciamento delle carte di resistività, eseguite oggi con l'impiego di software, che mettono in evidenza le diverse zone anomale.
Strumenti di misura - Il valore di resistività del sottosuolo viene calcolato in funzione del rapporto tra la tensione misurata e la corrente inviata nel terreno. A questo scopo si possono usare strumenti a corrente continua, oppure a corrente alternata a bassa frequenza. I vantaggi di impiegare quelli a corrente alternata sono rappresentati dalla possibilità di eliminare il rumore di fondo prodotto dalla polarizzazione degli elettrodi, dalle correnti naturali presenti nel terreno (correnti telluriche) e dai disturbi prodotti dal potenziale spontaneo. È necessario che questi strumenti utilizzino corrente a bassa frequenza; contrariamente, a causa dell'effetto pellicolare (skin effect), si avrebbe una rapida diminuzione dell'intensità di corrente in rapporto alla profondità, con la conseguente diminuzione della profondità di investigazione. Nelle vicinanze di Roma, in località Olgiata, è stata condotta una prospezione elettrica con profili di resistività su un'area di quattro ettari, con l'intento di localizzare i resti di una villa romana, di cui in passato erano stati portati alla luce alcuni tratti. In Russia, una prospezione geoelettrica condotta nel parco archeologico di Kolomenskoe, a Mosca, nell'ambito di un progetto internazionale di indagini non invasive nelle città medievali russe, ha messo in evidenza una parte dei resti sepolti del palazzo di Aleksej, le cui fasi più antiche risalgono al 1380 circa. Un saggio di scavo esplorativo effettuato successivamente ha rivelato sostanzialmente l'esistenza di sole fondazioni; in primo luogo perché si trattava di una imponente struttura lignea, inoltre perché nel 1768, come tramandato dalle fonti, il palazzo era stato totalmente distrutto e spogliato.
Il metodo comunemente chiamato georadar (noto internazionalmente con il termine inglese ground probing radar) è un sistema d'indagine del sottosuolo, a piccole profondità, basato sulla riflessione delle onde elettromagnetiche con frequenza compresa tra 10 e 2000 MHz (megahertz), con 1 MHz = 10⁶ Hz, dove Hz (hertz) è l'unità di frequenza, pari ad un ciclo al secondo. Questo metodo rappresenta la vera novità nel campo delle prospezioni geofisiche in archeologia. Se utilizzato correttamente nelle condizioni ambientali opportune, è effettivamente in grado di mostrare la stratigrafia della parte di terreno investigato. I metodi geofisici finora descritti e tradizionalmente impiegati nella ricerca archeologica danno informazioni sulla presenza o meno di una struttura archeologica fornendone un'immagine bidimensionale, priva quindi di spessore e di profondità, vista cioè come proiezione sulla superficie (o all'altezza del sensore dello strumento) delle risposte geofisiche. Come si è visto, interpretare un'anomalia geofisica significa valutare la profondità alla quale si trova il corpo che l'ha prodotta, nonché la sua estensione e il suo spessore. Per ottenere queste informazioni è stato detto che è necessario costruire un modello geofisico che non sempre è univoco. Nel caso del georadar, una volta determinate le caratteristiche elettriche del mezzo attraversato dall'impulso elettromagnetico si è in grado di "vedere" la forma dell'oggetto, il suo spessore e di valutare la profondità alla quale esso si trova con una precisione e un'attendibilità generalmente maggiore di quella degli altri metodi sopra descritti. Il metodo è relativamente recente e fornisce i migliori risultati quando viene impiegato in terreni a bassa attenuazione, caratterizzati da un bassa conduttività elettrica, come sabbia, roccia, ghiaccio. È molto meno efficace quando opera in mezzi ad alta attenuazione, come argilla e limi saturi, e acqua con alta concentrazione di sali. Operativamente, questo metodo consiste nell'invio nel terreno di impulsi elettromagnetici ad alta frequenza (radiofrequenze) e nella misura del tempo (in nanosecondi, ns) impiegato dal segnale a ritornare al ricevitore dopo essere stato riflesso da eventuali discontinuità intercettate durante il suo percorso. Tali riflessioni sono causate in generale dal cambiamento delle proprietà elettriche dei sedimenti e/o suoli, dalla variazione del contenuto d'acqua, da cambiamenti litostratigrafici. In particolare, nel caso della prospezione per scopi archeologici, le riflessioni possono essere prodotte da strutture, da vuoti presenti nel terreno (ipogei, cunicoli, ecc.), da elementi metallici e superfici di contatto tra strati differenti. Le caratteristiche principali del segnale, la profondità alla quale esso può arrivare e il suo potere risolutivo, dipendono essenzialmente dalla frequenza di trasmissione del segnale e dalle caratteristiche elettriche del mezzo e dei corpi che si trovano eventualmente lungo il suo percorso, cioè permittività e conduttività. La permittività dielettrica relativa (o costante dielettrica) di un materiale è la capacità che esso ha di permettere il passaggio dell'energia elettromagnetica quando vi venga applicato un campo elettromagnetico. È una grandezza scalare espressa da un numero che varia tra 1 (aria) e 81 (acqua pura). La conduttività elettrica rappresenta l'attitudine di un materiale ad essere attraversato dalla corrente elettrica ed è misurata in S/m. L'intervallo entro il quale può variare questa grandezza è assai ampio e va da 0 (aria) a circa 108 (rame). Il terzo fattore coinvolto è la frequenza di trasmissione del segnale elettromagnetico che, come già accennato nel caso del georadar, varia da 10 MHz a 2000 MHz. La profondità di investigazione dipende dalla capacità del segnale di arrivare ad una determinata profondità, di essere riflesso da un'eventuale superficie riflettente e di giungere al ricevitore in modo rilevabile. A parte la rilevabilità, che dipende, a parità di altre condizioni, dallo strumento impiegato, la profondità di investigazione dipende da una grandezza fondamentale in elettromagnetismo: l'attenuazione. Il fattore di attenuazione (o coefficiente di attenuazione), misurato in decibel a metro (dB/m), è direttamente proporzionale alla conduttività, inversamente proporzionale alla permittività relativa del mezzo e alla frequenza di trasmissione del segnale. Poco sopra sono stati definiti gli intervalli di variazione della permittività relativa e della conduttività per tutti i materiali. Nel caso di prospezioni per scopi archeologici i campi di variazione si restringono: per la permittività tra 1 e 40, mentre per la conduttività tra 10⁻⁶ S/m (sabbia secca) e 10⁻² S/m (argilla satura). Questo mostra che l'intervallo di variazione delle due caratteristiche si differenzia di almeno tre ordini di grandezza e quindi pone l'accento sul grande peso che ha la conduttività sulla profondità di investigazione del metodo georadar. L'attenuazione prodotta da materiali non magnetici, che rappresenta la maggior parte dei casi che si incontrano nelle prospezioni archeologiche, è frequentemente espressa come distanza di penetrazione o, con termine inglese, skin depth. Nel caso si tratti di materiali con bassa perdita di energia, la distanza di penetrazione è numericamente espressa da: δ = (5,31 √ ε r)/σ (dove ε r è la permittività dielettrica e σ è la conduttività del mezzo). Essa rappresenta la profondità alla quale l'intensità del campo si riduce a circa un terzo del suo valore originario ed è proporzionale alla radice quadrata della permittività relativa e inversamente proporzionale alla sua conduttività. Per tradurre praticamente quanto finora detto, immaginiamo di operare in un terreno limoso, come spesso accade nelle situazioni archeologiche. Se questo tipo di terreno è secco, la sua permittività può avere un valore di 2,5÷3, mentre la sua conduttività elettrica può essere pari a 10⁻⁴ S/m; nel caso che il terreno invece sia umido, saturo, la sua permittività può avere un valore di 18÷20, mentre la sua conduttività può essere prossima a 10⁻² S/m. Quindi, mentre nel caso della permittività si osserva un fattore di variazione pari a circa 7, nel caso della conduttività esso è pari a circa 100. In questo caso è molto comune che la variazione della quantità di umidità in un terreno limoso possa contribuire ad una diminuzione del valore della profondità di attenuazione di un fattore 10, diminuendo quindi in maniera determinante la profondità di investigazione. Ecco quindi come, dal punto di vista operativo, i limiti di impiego del metodo sono fortemente determinati dalle caratteristiche del terreno e dalle sue condizioni di umidità. Il terzo parametro che gioca un ruolo determinante è la frequenza dell'onda elettromagnetica. Essa condiziona sia la profondità di investigazione sia il potere risolutivo. Per la profondità di investigazione è già stato detto che essa è inversamente proporzionale alla frequenza, nel senso che la profondità sarà maggiore quanto minore sarà la frequenza del segnale. Il potere risolutivo può essere definito come la capacità che un sistema ha di distinguere due oggetti poco distanti tra loro. Questo parametro è direttamente proporzionale alla frequenza del segnale elettromagnetico e inversamente proporzionale alla sua velocità di propagazione nel mezzo (quindi è anche inversamente proporzionale alla permittività relativa).
Gli strumenti - Storicamente il georadar nasce negli Stati Uniti durante la guerra del Vietnam, con lo scopo di localizzare la rete di cunicoli che i Vietcong avevano costruito come rifugio. Il sistema è costituito da un'unità centrale che genera il segnale e da un'antenna che lo trasmette e lo riceve. La visualizzazione dei tracciati avviene attraverso lo schermo di un computer che fa parte dell'unità centrale, oppure con una stampante grafica ad esso collegata. Comunemente lo strumento ha numerose funzioni che permettono di ottimizzare le caratteristiche del segnale in funzione dell'obiettivo e delle condizioni ambientali; inoltre può essere provvisto di diverse antenne che operano con differenti frequenze. Nel caso delle prospezioni archeologiche, le frequenze più comunemente impiegate sono: 100 MHz, 300 MHz, 400-500 MHz, 900 MHz. Nel caso della diagnostica non distruttiva sulle strutture vengono utilizzate anche frequenze comprese tra 1500 MHz e 3000 MHz. Dal punto di vista operativo, le misure sono effettuate lungo profili in modo che il radargramma (la rappresentazione grafica di un tracciato) rappresenti la sezione relativa al profilo, ossia ne rappresenti la stratigrafia. Utilizzando appropriato software è possibile una ricostruzione tridimensionale dei risultati dei tracciati, estremamente utile per la valutazione spaziale degli eventuali resti archeologici sepolti. Il metodo ha avuto numerose applicazioni in Italia: a Civita Castellana, ad esempio, nell'ambito di una prospezione in area urbana con lo scopo di individuare cavità sotterranee di interesse archeologico, e nell'area urbana di Vibo Valentia, all'interno di un appartamento al pianoterra, è stata condotta una prospezione georadar al fine di accertare la presenza di eventuali resti archeologici sepolti.
Metodi geofisici di limitato impiego nelle ricerche archeologiche sono rappresentati da quello sismico e da quello gravimetrico. Metodo sismico - Il metodo sismico, che rappresenta uno dei più importanti metodi di prospezione in geofisica (prospezioni petrolifere, minerarie, strutture geologiche, ecc.), si basa sullo studio della propagazione nel terreno di onde elastiche, il cui modo di propagarsi e la cui velocità dipendono dalle proprietà elastiche dei materiali e cioè dalla resistenza alla deformazione. Nella tecnica di prospezione sismica, fondamentalmente, si ottengono i tempi di propagazione di onde generate in superficie e ricevute, a seconda che vadano riflesse o rifratte dalle discontinuità eventualmente incontrate. Dai tempi intercorsi tra l'immissione dell'energia e l'arrivo delle onde ai ricevitori (geofoni), conoscendo la velocità di propagazione propria delle formazioni attraversate, si possono calcolare le profondità delle discontinuità. Nell'ambito archeologico il metodo sismico a riflessione potrebbe essere quello più adatto, in quanto può determinare in dettaglio la profondità delle eventuali strutture. Un limite assai restrittivo sta nel fatto che nei terreni sciolti e secchi, che caratterizzano normalmente i primi strati in cui si trovano i resti archeologici, avviene una forte attenuazione del segnale. In queste condizioni è estremamente difficoltoso trovare l'accoppiamento tra la sorgente di energia e i geofoni. Metodo gravimetrico - Il metodo di prospezione gravimetrico si basa sulla legge di Newton, secondo la quale una differenza di densità produce una differente accelerazione di gravità. Le difficoltà maggiori di impiego di questo metodo in archeologia risiedono nell'estrema esiguità delle differenze prodotte nell'accelerazione di gravità da eventuali strutture archeologiche (sono stati ottenuti risultati soddisfacenti nel caso di cavità). Inoltre, per valutare correttamente le anomalie gravitazionali prodotte da un'eventuale struttura archeologica è necessario conoscere con molta accuratezza la topografia dell'area in cui si opera e altri parametri che rendono questo metodo oneroso e di limitato impiego.
Le perforazioni a carotaggi o a carotaggio continuo rappresentano l'unico metodo di indagine "diretta", un metodo cioè in cui si intacca il sottosuolo, anche se la parte di terreno coinvolta è infinitesima rispetto all'estensione dell'area di indagine (i campioni hanno un diametro di 100 mm). L'estrazione delle "carote" dal terreno, effettuata con le perforazioni in punti stabiliti, permette un accertamento della situazione stratigrafica la cui lettura è rivolta ai seguenti scopi: elaborazione micro-stratigrafica per lo studio geomorfologico; attestazione della presenza di strati antropici; prelievi di materiali all'interno delle carote (frammenti ceramici, ossei, resti botanici, ecc.) per la definizione degli orizzonti culturali presenti, il loro sviluppo e la loro determinazione cronologica. Si ottiene quindi una porzione stratigrafica esatta contenente il massimo delle informazioni utili alla definizione della presenza archeologica individuata. Ad esempio, in Italia, nell'area urbana di Messina, all'interno del cortile della scuola Galatti, è stata condotta un'esplorazione geoarcheologica con perforazioni a carotaggio continuo per individuare eventuali resti archeologici sepolti. È stato necessario adottare questo metodo in quanto, ove i resti esistessero, dovevano essere coperti quanto meno dai crolli del terremoto del 1908. Occorre sottolineare che le perforazioni a carotaggio continuo non rappresentano solamente una fonte autonoma di informazioni, ma anche uno strumento di controllo delle ipotesi avanzate sulla base degli altri metodi indiretti impiegati (ad es., geofisici). Infatti il controllo delle inferenze può essere affidato proprio alle perforazioni a carotaggio continuo, che sono in grado non solo di confermare o negare le ipotesi formulate sulla base di dati elaborati attraverso le diverse tecniche di esplorazione, ma forniscono dati utili sulla consistenza del giacimento locale, sul tipo della struttura incontrata e sulla dinamica che ha modificato la geomorfologia originaria. Per particolari necessità e in determinate condizioni è possibile effettuare esplorazioni ottiche con l'impiego di strumenti a fibre ottiche e di altri a lenti tradizionali, come boroscopi, per poter valutare l'entità di eventuali cavità o intercapedini localizzate con altri metodi.
E. Thellier, Sur l'aimantation des terres cuites et ses applications géophysiques, in Annales de l'Institut du Globe, 16 (1938), pp. 156-302; M.S. Tite - C. Mullins, Enhancement of the Magnetic Susceptibility of Soil on Archaeological Sites, in Archaeometry, 13 (1971), pp. 209-19; I. Scollar et al., Archaeological Prospecting and Remote Sensing, Cambridge 1990; Geofisica per l'archeologia. Atti del Seminario (Porano, 21-23 settembre 1988), Roma 1991; P.V. Sharma, Environmental and Engineering Geophysics, Cambridge 1997.
di Mario Fornaseri
Nella ricerca di giacimenti di minerali utili o di idrocarburi sono da anni largamente utilizzati, accanto ai metodi geofisici (elettrici, magnetici, gravimetrici, sismici, ecc.), i procedimenti di prospezione geochimica. Questi ultimi sono basati su misure sistematiche di grandezze chimiche o chimico-fisiche dei materiali naturali e sono diretti a rivelare le cosiddette "anomalie geochimiche", ossia la presenza, in una data area, di valori di concentrazione di determinati elementi chimici che risultino significativamente deviati rispetto ai valori "normali" caratteristici dell'area considerata e che possano essere posti in relazione con la presenza di un giacimento in profondità. La possibilità di utilizzare i metodi geochimici di prospezione per la ricerca di antichi insediamenti sepolti è scaturita dalla constatazione che la "fertilità" del terreno in corrispondenza di antichi centri abitati risulta più elevata rispetto alle zone circostanti, come conseguenza dell'accumulo di fosforo nei rifiuti alimentari. I metodi geochimici di prospezione archeologica consistono quindi principalmente nella misura sistematica del contenuto di anidride fosforica in terreni ove vi siano indizi di antichi insediamenti, al fine di rivelare eventuali "anomalie geochimiche" di fosfati che possano dare indicazioni sull'ubicazione degli insediamenti in questione. Come riportato da E.J. Russel (1957), già nel 1911 era stata rilevata in Egitto una correlazione fra passata attività umana e contenuto in fosforo nel suolo, ma questi concetti furono sviluppati per la prima volta estensivamente nel 1929 da O. Arrhenius. A questo studioso si deve l'importante constatazione, fatta durante il rilevamento del suolo effettuato nell'isola di Gotland in Svezia allo scopo di individuare le zone più adatte alla coltivazione della barbabietola da zucchero, che le anomalie positive del contenuto di fosforo nel terreno corrispondevano alla distribuzione delle località abitate da popolazioni indigene dal Paleolitico all'età del Bronzo e fino alla prima età del Ferro. Negli anni successivi altre notevoli campagne di prospezione archeologica basata sull'analisi dei fosfati sono state condotte con esito positivo dallo stesso Arrhenius in Svezia, da W. Christensen in Danimarca, da M. Castagnol in Indocina. In Italia notevoli risultati sono stati conseguiti da V. Morani e G. Gugnoni a Ostia, Veio, Falerii Novi, Carsoli, Minturno, Helvia Racina. Stranamente, dopo un inizio talmente promettente, l'interesse per l'impiego dell'analisi dei fosfati nella localizzazione e nell'interpretazione dei siti archeologici sembrò attenuarsi nel decennio 1940-50, ma ebbe un risveglio a partire dagli anni Sessanta con la maggiore sensibilizzazione del mondo archeologico nei confronti delle applicazioni delle scienze fisiche e chimiche all'archeologia. Col rinnovato interesse nei riguardi dell'impiego dell'analisi dei fosfati ai fini archeologici e con l'accumulo dell'esperienza acquisita in questo campo, è emersa così in anni recenti una valutazione critica del metodo e una più precisa indicazione circa le possibilità di impiego e di risultati che da esso si possono attendere. Significativi a questo proposito sono i lavori di F.W. Hamond (1983), di P.T. Craddock e altri (1985) e la rassegna critica di P. Bethell e I. Maté (1989), contenente anche precise indicazioni sui metodi analitici consigliati. L'esperienza acquisita nell'ultimo ventennio consente oggi di valutare consapevolmente il significato e la potenzialità dell'analisi dei fosfati nella prospezione archeologica. In linea generale, il procedimento in questione può essere applicato per la localizzazione e la delimitazione dei siti, sia su vaste aree che su piccola scala, per la progettazione e la conduzione delle campagne di scavo e per le informazioni che si possono ottenere dallo studio dei reperti. Operando su vaste aree, superiori ai 10 ha, è opinione accettata che l'analisi dei fosfati non sia da considerare competitiva con l'aerofotografia e il rilevamento di campagna (field walking), ma che, nella prospezione di dettaglio in aree precedentemente localizzate con aerofotografia o rilevamento di campagna, presenti un interesse areale paragonabile a quello della magnetometria o delle misure di resistività, svolgendo in questi casi un'utilissima funzione complementare. Si è inoltre constatato che l'aratura del terreno non disturba la distribuzione dei fosfati e le anomalie magnetiche, le quali non subiscono, almeno nei terreni pianeggianti, spostamenti laterali. Un punto debole nella prospezione basata sull'analisi dei fosfati può essere l'incertezza sulla definizione temporale degli episodi di accumulo dei fosfati in relazione all'epoca dell'insediamento, nonché l'alterazione delle anomalie dovute al pascolo e alla fertilizzazione. Eventuali risultati negativi non sono necessariamente imputabili al metodo, ma a cause che hanno impedito o disturbato l'accumulo del fosforo. Nelle prospettive future sono prevedibili un più vasto impiego dei metodi di analisi multielementari (carbonio, azoto, sodio, potassio, calcio, magnesio), di misure di grandezze geochimiche adeguate (pH, Eh) ed uno sviluppo degli studi sul frazionamento del fosforo fra le varie specie inorganiche o organiche, nonché sulla sua distribuzione verticale. L'analisi dei fosfati, nel suo insieme, continuerà pertanto ad offrire un contributo non trascurabile nella ricostruzione del passato.
O. Arrhenius, Die Phosphatmethode, I-II, in Zeitschrift für Pflanzenernährung, Düngung und Bodenkunde, 14 (1929), pp. 121-40 e 185-224; Id., Die Bodenanalyse im Dienst der Archäologie, ibid., 10 (1931), pp. 427-39; W. Christensen, Jordens fosforsgreindhold indikator for tidligere kultur og bebyggelse; en studie af Ermitagens-letterns historie, København 1935; O. Arrhenius, Upplysningar till en karta over den Götlanska åkerjordens fosfathalt, Stockholm 1938; V. Morani - G. Gugnoni, Fertilità residua nei terreni di antichi insediamenti umani, in Annali Stazione Sperimentale Agraria, 7 (1953), pp. 1559-73; E.J. Russel, The World of the Soil, London 1957; C.M. Lerici, Alla scoperta delle civiltà sepolte, Milano 1960; V. Morani, Die geochemische Untersuchung, Mailand 1964; E.M. White, Cautionary Note on Soil Phosphate Data Interpretation for Archaeology, in AmAnt, 43 (1978), pp. 507-508; F.W. Hamond, Phosphate Analysis of Archaeological Sediments, in T. Reeves-Smith - F. Hamond (edd.), Landscape Archaeology in Ireland, Oxford 1983, pp. 47- 80; P.T. Craddock et al., The Application of Phosphate Analysis to the Location and Interpretation of Archaeological Sites, in AJ, 142 (1985), pp. 361-76; P. Bethell - I. Maté, The Use of Soil Phosphate Analysis in Archaeology: a Critique, in I. Henderson (ed.), Scientific Analysis in Archaeology, Oxford 1989, pp. 1-29.
di Giulia Caneva
Si definiscono bioindicatori gli organismi che forniscono indicazioni sui valori dei parametri ambientali per essi condizionanti. La possibilità di utilizzare una specie come bioindicatore dipende dalla sua ampiezza ecologica, in quanto tanto più stretto è il suo range di tolleranza, tanto più precisamente può indicare un valore preciso del parametro ambientale per essa condizionante. Non solo singole specie, ma anche associazioni vegetali e animali possono essere utilizzate come bioindicatori: in questo caso l'informazione ricavata risulta estremamente precisa, in quanto i valori dedotti derivano dall'intersezione degli spazi ecologici delle singole specie. I campi di applicazione di questo tipo di studi sono molto ampi, ma generalmente rientrano nelle operazioni di monitoraggio ambientale effettuate su base biologica e hanno oggi particolare impiego nel controllo dell'inquinamento. Soprattutto in questi casi, si utilizza come elemento diagnostico l'assenza o la riduzione di specie che in condizioni normali avrebbero dovuto essere presenti (ad es., la diminuzione delle specie di licheni, bioindicatori di inquinamento). L'applicazione in contesto archeologico è rivolta soprattutto alle prospezioni di superficie e si basa sul fatto che la vegetazione coltivata o spontanea, anche se alterata dall'intervento dell'uomo, risponde in maniera significativa alla presenza di discontinuità nel suolo, dando luogo a specifiche tracce (marks). Fin dal XV secolo testi di archeologia riportano osservazioni che hanno permesso l'individuazione di città e di murature sepolte. Oggi l'impiego di fotografie aeree permette di leggere con maggiore chiarezza le eventuali discontinuità nella copertura del manto vegetale o gli allineamenti anomali. Fattori quali la profondità dei reperti, il tipo di suolo, la stagione e il clima condizionano la possibilità di rilevare queste tracce, in quanto incrementano o riducono le variazioni a livello dei parametri pedologici. Nel caso di vegetazione spontanea o semispontanea le discontinuità del sottosuolo determinano una crescita differenziale della vegetazione sovrastante, che si manifesta con la presenza di specie diverse limitate a zone molto circoscritte (weed marks), indicando chiaramente un'anomalia del sottosuolo. Le specie che prediligono elevati valori di determinati sali minerali, provenienti dalla lisi dei materiali lapidei (ad es., calcio o silice), si ubicano nelle zone in cui le murature sono più superficiali. Nella zona archeologica di Mohenjo Daro (Pakistan), ad esempio, si è osservato che la presenza di Capparis decidua, specie chiaramente calciofila, presenta una distribuzione non uniforme e allineamenti anomali rispetto alla normale dinamica di sviluppo; appare quindi strettamente legata alla presenza di murature nel sottosuolo. Analogamente, nella zona archeologica di Indre-et-Loire (Francia) è stato possibile ricostruire il percorso di una via romana completamente interrata, formata da grandi blocchi silicei, osservando l'anomala distribuzione di Erica scoparia che, essendo una specie acidofila, limita la sua presenza a quelle specifiche condizioni pedologiche. Anche in contesti agrari le specie infestanti possono indicare con la loro presenza o con il loro maggiore rigoglio l'esistenza di anomalie del suolo; così lo sviluppo dei papaveri (Papaver spp.) è ridotto qualora ci sia affioramento di murature e il rigoglio vegetativo di ranuncoli (Ranunculus spp.) è maggiore ai bordi di strutture interrate. Nel momento delle loro vistose fioriture tali andamenti diventano molto evidenti. Nel caso di campi coltivati, le tracce (crop marks) si manifestano con una maggiore o minore altezza e rigogliosità delle piante o con una variazione del colore. In generale, la presenza di murature o pavimentazioni stradali determina una crescita più stentata e un più facile ingiallimento in condizioni di stress, in relazione al substrato meno favorevole. Al contrario la presenza di fossati, in cui si ha generalmente un maggiore deposito di detriti alluvionali, un accumulo di sostanze organiche, un più cospicuo sviluppo della microflora e una maggiore ritenzione idrica dei suoli, determina condizioni più favorevoli per la crescita delle colture e, più in generale, della vegetazione. Il tipo di coltura e la sua fase di sviluppo sono altri fattori che condizionano la possibilità di leggere questi segni. Non tutte le piante hanno infatti le stesse esigenze ecologiche e la stessa tolleranza a condizioni di stress e la loro sensibilità varia in funzione dello stadio di crescita; il periodo più critico è generalmente quello in cui le radici arrivano in corrispondenza dello strato che crea discontinuità. Recenti studi hanno inoltre dimostrato la possibilità di utilizzare gli specifici patterns di degrado dei monumenti in pietra presenti nelle aree archeologiche come bioindicatori di peculiari fenomeni di biodeterioramento o di condizioni climatiche passate (paleoclimi).
E. Scollar, Physical Conditions Tending to Produce Crop Sites in the Rhineland, London 1963; L. Balducci, La vegetazione come indizio di resti archeologici sepolti nell'osservazione di studiosi inglesi e francesi dal XV al XIX secolo, in AnnPerugia, 4 (1966-67), pp. 447-58; A. Danin et al., Patterns of Limestone and Dolomite Weathering by Lichens and Bluegreen Algae and their Palaeoclimatic Significance, in Palaeogeography, Palaeoclimatology, Palaeoecology, 37 (1982), pp. 221-33; J.M. Couderc, Végétation anthropogène et prospection archéologique, in RACFr, 24 (1985), pp. 53- 61; F. Piccarreta, Manuale di fotografia aerea: uso archeologico, Roma 1987; G. De Marco - G. Caneva - A. Dinelli, Geobotanical Foundation for a Protection Project in Mohenjo Daro Archaeological Area, in ProspAQuad, 11 (1990), pp. 115-20; P.L. Nimis - D. Pinna - O. Salvadori, Licheni e conservazione dei monumenti, Bologna 1992; A. Danin, Biogenic Weathering of Marble Monuments in Didim, Turkey and in Trajan's Column, Rome, in WaterScTech, 27 (1993), pp. 557-63.
di Edoardo Tortorici
Ampio spazio, nella letteratura archeologica di questi ultimi dieci anni, è stato dedicato agli aspetti metodologici e tecnici della ricognizione topografica. Si registrano differenze sostanziali di impostazione nei vari progetti di ricerca, soprattutto per quanto riguarda il tipo di copertura (integrale e analitica oppure per campionatura, con diverse intensità di indagine), la cartografia di riferimento (di base, tematica, orientata alla tutela oppure alla sintesi storica) e i diversi gradi di leggibilità dei terreni e delle aree oggetto di studio. Nell'archeologia subacquea la ricognizione, intesa come ricerca volta all'individuazione, alla documentazione e alla trasposizione su basi cartografiche unificate delle testimonianze archeologiche di aree più o meno vaste di territorio sommerso, presenta caratteristiche peculiari e differenze notevoli rispetto alle ricerche svolte sulla terraferma. Il tipo e la natura del fondo (fangoso, sabbioso, sabbioso con banchi di Posidonia oceanica, roccioso, ecc.), la profondità, le condizioni del mare, il grado di visibilità sott'acqua e di inquinamento (soprattutto nei tratti costieri in prossimità di centri abitati) influiscono negativamente, in maniera spesso determinante, sulla possibilità di individuazione e riconoscimento dei resti antichi. L'autonomia del subacqueo in immersione decresce in relazione all'aumento della profondità e ciò comporta l'impiego di un gran numero di persone che si alternano per coprire aree estese. Notevoli problemi derivano inoltre dal riferimento in superficie, con precisione cartografica, del percorso di esplorazione compiuto in immersione e dall'esatta localizzazione dei ritrovamenti effettuati, specie in mare aperto. Tali difficoltà e tali peculiarità vennero evidenziate fin dagli anni Cinquanta, nel corso della prima campagna sistematica di ricognizione effettuata nel Mediterraneo (1959, esplorazione del fondale tra i Balzi Rossi e Ventimiglia in Liguria) e dimostrarono l'impraticabilità del progetto di esplorazione integrale delle coste per la realizzazione di una carta archeologica dei mari italiani. I risultati dell'intervento, dal punto di vista archeologico, non furono infatti soddisfacenti, a fronte dei mezzi, delle tecnologie e del tempo impiegati; tuttavia in quell'occasione vennero poste le basi metodologiche per tutte le successive ricerche topografiche subacquee. La ricognizione venne infatti progettata suddividendo l'area da indagare in sei settori di 1 km² ciascuno, esplorati con sommozzatori in immersione per i tratti di mare compresi entro i 25 m di profondità e per mezzo dell'ecoscandaglio della nave Daino per le profondità maggiori. Si trattò, in sostanza, di un metodo di ricognizione per campionatura a copertura differenziata, che, impiegato in seguito in zone con più circostanziate problematiche archeologiche, si sarebbe rivelato di grande efficacia. Esemplari, ad esempio, furono le ricerche in Toscana (Populonia) e nel litorale campano, con i primi rilievi topografici della città sommersa di Baia, riferiti ad un reticolo topografico costituito da quadrati di 100 m di lato (1959- 60). Di grande importanza fu l'impiego, in quest'ultimo intervento, delle fotografie aree, che consentirono di individuare i contorni delle più importanti strutture sommerse. Le difficoltà operative a cui si è fatto cenno spinsero a potenziare la ricerca e la sperimentazione di tecniche e strumenti atti ad abbreviare i tempi di immersione (ala subacquea trainata, autopropulsore di Rebikoff ), di documentazione grafica e di ricognizione. Ulteriori sperimentazioni vennero effettuate da gruppi di ricerca americani impegnati in ricognizioni lungo le coste della Turchia (1965-67). In tali interventi vennero utilizzati una capsula trainata con operatore a bordo, un minisommergibile da ricerca (Asherah) adatto per le immersioni ad alta profondità e una televisione sottomarina a circuito chiuso, anch'essa trainata da un'imbarcazione. I mezzi e gli strumenti di cui si è parlato finora si rivelarono tuttavia non pienamente rispondenti alle aspettative, essendo tutti fondati sull'osservazione visiva del fondo marino: in condizioni di scarsa visibilità si rivelarono addirittura inutilizzabili. Per questi motivi la sperimentazione negli anni successivi venne orientata verso l'impiego di strumenti ad alto contenuto tecnologico, in grado di fornire informazioni indipendentemente dalle condizioni di visibilità. Fra questi è da ricordare l'ecografo panoramico (side scan sonar), che, installato su un'imbarcazione oppure rimorchiato ad una profondità adeguata, permette l'analisi di porzioni del fondo marino molto più ampie rispetto agli scandagli ultrasonori fino ad allora utilizzati. Queste apparecchiature si basano sul principio della trasmissione di onde sonore che, "riflesse" dal fondo, vengono captate da un ricevitore, analizzate e restituite in forma grafica, fornendo il profilo del fondo e segnalando la presenza di "anomalie", possibili indizi di presenze archeologiche. Tutti i sistemi ecoriflettenti necessitano di particolari procedure interpretative per renderne funzionale l'applicazione ai fini archeologici, tuttavia il loro impiego si è rivelato particolarmente efficace soprattutto nei casi in cui la ricognizione subacquea diretta non era possibile. Alcuni scandagli, inoltre, sono in grado di rilevare presenze anche se ricoperte da sedimenti, ad esempio nei fondali fangosi (scandagli a penetrazione di fondale). Con strumenti di questo tipo sono state condotte, con la raccolta di numerose informazioni utili dal punto di vista topografico, le prospezioni nei porti di Cesarea (1963) e di Ashdod (1967). Nel campo delle indagini indirette vanno ancora ricordate le ricognizioni effettuate con l'ausilio di magnetometri (cioè con strumenti rilevatori di anomalie di origine magnetica presenti nei fondali), che tuttavia si sono finora rivelati di più limitato utilizzo. Lo sviluppo tecnologico, in questi ultimi anni, ha permesso di estendere il campo di indagine a profondità mai raggiunte in precedenza. Questa sorta di "nuova frontiera" ha fatto emergere numerosi problemi di metodo, purtroppo ancora non risolti (andrebbero privilegiate le indagini non distruttive, evitando il recupero di "campioni" avulsi dal contesto originario), e di interpretazione del diritto internazionale circa la proprietà dei beni culturali. In questo campo si segnalano alcune recenti prospezioni francesi nel Golfo del Leone e americane nel Canale di Sicilia, con quote operative tra i 600 e gli 800 m di profondità (di grande rigore scientifico le prime, non esenti da finalità propagandistiche le seconde). Gli interventi sono stati effettuati con largo impiego di mezzi e di tecnologie (in un caso è stato addirittura impiegato un sommergibile a propulsione nucleare): navi-appoggio, sommergibili teleguidati (Remote Operated Vehicle) muniti di telecamere subacquee, apparecchiature speciali per le riprese stereofotogrammetriche, sonar laterali. Di grande interesse, infine, si è rivelato l'impiego sperimentale di sistemi informatici per la riproduzione computerizzata dei relitti.
R. Ferrandi, L'equipaggiamento tecnico-archeologico della corvetta Daino, in Centro Italiano Ricercatori Subacquei (C.I.R.S.), Bollettino e Atti 1958-59, Genova 1959, pp. 63-69; N. Lamboglia, Ricerche ed esperienze nelle acque di Albenga. L'esplorazione del fondale fra i Balzi Rossi e Ventimiglia, in RStLig, 25 (1959), pp. 293-301; J.N. Green - E.T. Hall - M.L. Katzev, Survey of a Greek Shipwreck off Kyrenia, Cyprus, in Archaeometry, 10 (1967), pp. 47-56; P. Throckmorton et al., Surveying in Archaeology Underwater, London 1969; Y. Chevalier - A. Hesse - P. Pomey, Expérience de détection magnétique sousmarine d'une épave antique, in ProspAQuad, 6 (1971), pp. 65-71; G.F. Bass - D.M. Rosencrantz, L'utilisation des submersibles pour les recherches et la cartographie photogrammétrique sous-marine. UNESCO. L'archéologie subacquatique, Paris 1973; G. Alvisi, Note sulle applicazioni delle equidensità di colore nella fotointerpretazione archeologica, in ProspAQuad, 9 (1974), pp. 85- 97; C.J. Clausen - J. Barto Arnold III, The Magnetomer and Underwater Archaeology, in IntJNautA, 5, 2 (1976), pp. 159-69; P.A. Gianfrotta - P. Pomey, Archeologia subacquea, Verona 1981, pp. 84-96; Y. Liritzis - P. Miserlis - R.Rigopoulos, Aerial Photography of some Greek Coastal Regions and its Archaeological Implications, in IntJNautA, 12, 3 (1983), pp. 191-202; P.J. Schurer - R.H. Linden, Results of a Sub-Bottom Acoustic Survey in a Search for the Tonquin, ibid., 13, 4 (1984), pp. 305-10; A.M. McCann - J. Freed, Deep Water Archaeology. A Late-Roman Ship from Carthage and an Ancient Trade Route near Skerki Bank off Northwest Sicily, Ann Arbor 1994; L. Long, Les archéologues au bras de fer. Nouvelle approche de l'archéologie en eau profonde, in Protection du patrimoine archéologique sous-marine en Méditerranée, Marseille 1995, pp. 15-45.