Metodo e tecniche nelle scienze sociali
di Alberto Marradi
Il termine 'metodo' è di origine greca, ed è formato dal sostantivo ὁδόϚ (strada) e dalla preposizione μετά, che in questo caso significa 'con'. Etimologicamente il composto significa quindi 'strada con [la quale]'. Nel Fedro Platone parla del metodo di Ippocrate e del metodo dei retori, in un senso che non pare diverso da quello del linguaggio comune. Aristotele e autori successivi rafforzano l'idea di percorso ricorrendo spesso all'espressione ὁ τϱόποϚ τῆϚ μεθόδου (la direzione del cammino). L'idea di una successione di passi è sottolineata anche dai logici di Port Royal: "ars bene disponendi seriem plurimarum cogitationum".
Cartesio fa della riflessione sul metodo il cardine della sua posizione filosofica, e - nella quarta delle Regulae ad directionem ingenii - ne dà una celebre definizione: "Regole certe e facili che, da chiunque esattamente osservate, gli renderanno impossibile prendere il falso per vero, senza consumare inutilmente alcuno sforzo della mente, ma aumentando sempre gradatamente il [suo] sapere, lo condurranno alla conoscenza vera di tutto ciò che sarà capace di conoscere".Si confronti questo testo con l'aforisma 122 del Novum Organum di Bacone: "Il nostro metodo di ricerca mette quasi alla pari tutti gli ingegni, perché lascia poco spazio alle capacità individuali, ma le lega con regole solidissime e con dimostrazioni". Non possono sfuggire i numerosi punti comuni alle posizioni di questi due pensatori; le regole: a) sono facili, automatiche ("senza consumare alcuno sforzo della mente"), buone per tutti ("da chiunque", "mette alla pari tutti gli ingegni"); b) sono anche cogenti per tutti, non lasciando margini di intervento alle conoscenze, capacità, iniziative personali ("regole certe, esattamente osservate", "lascia poco spazio alle capacità individuali, ma le lega con regole solidissime e con dimostrazioni"); c) se seguite e rispettate, "condurranno alla conoscenza vera".Sull'onda dei successi che la matematizzazione della scienza ha già conseguito con Keplero e Galilei, e sta conseguendo con Newton, si afferma "l'idea pitagorico-platonica di un metodo matematico universale, applicabile in tutti i campi della conoscenza scientifica" (v. Berka, 1983, p. 8). In tal modo si possono coniugare verum e certum, si può parlare del mondo con la certezza di dire cose vere che garantisce la matematica: è la stessa coniugazione che proclamerà possibile l'empirismo logico.
Il concetto di un programma che regoli in anticipo una serie fissa e invariabile di operazioni da compiere per raggiungere la conoscenza scientifica è tuttora uno dei significati prevalenti dell'espressione 'metodo scientifico', anche se raramente si arriva a specificare la lista delle operazioni. Ciò è stato fatto, fra gli altri, da due sociologi inglesi (v. Theodorson e Theodorson, 1970, p. 370): "L'applicazione del metodo scientifico a un problema comporta i seguenti passi. Primo, il problema è definito. Secondo, il problema è formulato nei termini di un particolare quadro teorico, e collegato ai risultati rilevanti delle ricerche precedenti. Terzo, si immaginano una o più ipotesi relative al problema, utilizzando principî teorici già accettati. Quarto, si determina la procedura da usare nel raccogliere i dati per controllare l'ipotesi. Quinto, si raccolgono i dati. Sesto, si analizzano i dati per appurare se l'ipotesi è verificata o respinta. Infine, le conclusioni dello studio sono collegate al corpus precedente della teoria, che viene modificato per accordarlo alle nuove risultanze".
È una descrizione puntuale del cosiddetto 'metodo ipotetico-deduttivo' elaborato nell'ambito della riflessione filosofica sulla fisica dal Seicento in poi (v. Losee, 1972, capp. 7-9). La convinzione che esso sia l'unico metodo possibile per la scienza è molto diffusa anche nelle scienze umane. Ecco, ad esempio, quanto afferma l'antropologo Nadel: "C'è un solo metodo scientifico, per quanto praticato con diverso rigore e coerenza, e a questo riguardo la fisica e la chimica hanno raggiunto i migliori risultati. Ogni ricerca è vincolata a questo metodo, e nessun altro è concepibile" (v. Nadel, 1949; tr. it., p. 227). Con maggior cautela, giungono praticamente alla stessa conclusione molti epistemologi. Valga per tutti Pera: "Si può ragionevolmente affermare che le diverse discipline scientifiche hanno lo stesso metodo se ci si riferisce alla procedura o al complesso di regole che la integrano" (v. Pera, 1978, p. 11).
Ma il dissenso si va diffondendo: "Le fondamenta di questo 'metodo' sono fuori della sociologia, prive di contatti col pensiero sociologico. La 'metodologia delle scienze sociali' è divenuta una cinghia di trasmissione che distribuisce ai sociologi il 'metodo scientifico', cioè le idee di quegli autori che passano per esperti sul tema" (v. Mokrzycki, 1983, p. 72). "Molti di noi accettano il 'metodo scientifico' perché sono convinti che sia stato sviluppato nelle scienze naturali [...]. Ma nelle scienze naturali non si professa deferenza a quel modello come facciamo noi" (v. Dalton, 1964, p. 59). "La stessa idea di 'un metodo' accresce la fiducia nei propri risultati e riduce la disponibilità a domandarsi se le procedure consolidate abbiano senso nel caso particolare" (v. Kriz, 1988, p. 184).Si teme che una particolare serie di procedure, identificata con il 'metodo scientifico', venga reificata e diventi un fine in sé. La situazione "diffusa in psicologia [è una situazione] di esaltazione e quasi feticismo del metodo, se non addirittura dello strumento tecnico che da mezzo diventa fine di molte ricerche" (v. Parisi e Castelfranchi, 1978, p. 79). "Come in tutti i rituali, l'attenzione passa dal contenuto alla forma, e la virtù finisce per consistere nell'esecuzione corretta di una sequenza fissa di atti" (v. Kaplan, 1964, p. 146). "La qualità di uno scienziato - ricorda Toulmin - è dimostrata meno dalla sua fedeltà a un 'metodo' universale che dalla sua sensibilità alle specifiche esigenze del suo problema" (v. Toulmin, 1972, p. 150). "Sii un buon artigiano, che sceglie di volta in volta quale procedimento seguire" raccomanda Mills (v., 1959, p. 224).
Che il metodo sia soprattutto scelta sono parecchi a sostenerlo. "La questione metodologica propriamente detta è la scelta fra le tecniche in funzione della natura del trattamento che ciascuna tecnica fa subire al suo oggetto" (v. Bourdieu e altri, 1968, p. 59). "Ogni ricerca è un lungo sentiero con molti bivi e diramazioni, e a ogni bivio dev'essere presa una decisione [...]. Nessuna regola, nessun algoritmo può dire qual è la decisione giusta. [...] Più il ricercatore concepisce il metodo come una sequenza rigida di passi, più decisioni prenderà senza riflettere e senza rendersene conto" (v. Kriz, 1988, pp. 81 e 131). Tra l'altro, dover scegliere non significa necessariamente dover affrontare ogni problema con una tecnica sola: è anzi saggio non affidarsi a una sola tecnica "per vedere nuovi aspetti del fenomeno che interessa e tener conto di vari tipi di dati relativi a uno stesso fenomeno", in modo da "essere sicuri di star studiando qualcosa di reale" anziché qualcosa che può essere un artefatto della tecnica usata (v. Parisi e Castelfranchi, 1978, p. 79).
Se la ricerca dev'essere "un processo cognitivo piuttosto che un semplice processo di validazione di idee già formulate" (v. Bailyn, 1977, p. 101), è necessario "saper mantenere la tensione fra la necessaria funzione di riduzione della complessità fenomenica e l'apertura a dimensioni che permettano di aumentare la complessità degli schemi concettuali" (v. Crespi, 1985, p. 343). Il metodo è quindi qualcosa di molto più complesso di una semplice sequenza unidimensionale di passi (in tal senso v. anche Cipolla, 1988, in particolare p. 34). Non basta, come ammetteva persino Comte, "aver letto i precetti di Bacone e il Discours di Descartes". "Senza dubbio - come osserva Polanyi - lo scienziato procede in modo metodico. Ma il suo metodo è come le massime di un'arte che egli applica nel suo modo originale al suo problema" (v. Polanyi, 1958, p. 311).
Una conseguenza inevitabile del fatto che l'orientamento a lungo prevalente nella filosofia delle scienze umane reificava il metodo in una successione di passi procedurali è stata il passaggio del termine 'metodo' a designare non solo una particolare maniera di compiere quei passi ('metodo sperimentale', 'metodo ipotetico-deduttivo'), ma anche ciascun singolo passo, nonché gli strumenti operativi che permettono di compiere i vari passi (cioè le tecniche: v. cap. 2). In questa accezione - in cui designa sostanzialmente un oggetto - il termine ha sviluppato un plurale (il complesso delle tecniche, il gruppo delle tecniche di un certo tipo), che non si giustifica in alcuna delle accezioni esaminate in questo capitolo.Kaplan distingue i metodi dalle tecniche in quanto i primi sono abbastanza generali da valere in tutte le scienze o in una parte importante di esse (v. Kaplan, 1964, p. 23). C'è in effetti nell'uso una certa stratificazione gerarchica nel senso indicato da Kaplan (i metodi sono più generali e/o più nobili delle tecniche), ma nessun altro autore - a quanto ci risulta - l'ha codificata.
Di un abuso ben più grave soffre il termine 'metodologia'. In decine e decine di termini scientifici - molti dei quali, peraltro, passati nel linguaggio comune - il suffisso '-logia' sta per 'discorso su', 'studio di'. 'Metodologia' dovrebbe pertanto essere discorso, studio, riflessione sul metodo - in una o più delle accezioni che abbiamo visto fin qui. E infatti in questo senso è usato dagli autori che non hanno dimenticato le radici greche della terminologia scientifica e metascientifica.
Molti sentono il bisogno di precisare che la metodologia non va confusa con il metodo stesso, e meno che mai con le tecniche. Purtroppo la precisazione non è affatto superflua come parrebbe. Nella ricerca sociale americana - i cui cultori hanno quasi tutti una coscienza a dir poco tenue delle radici greche del linguaggio scientifico - si è da tempo diffusa (ed è stata felicemente esportata dal nostro lato dell'Atlantico) l'abitudine di chiamare methodology la singola tecnica. È questo l'abuso terminologico cui si accennava sopra; se ne rendono responsabili anche autori di notevole raffinatezza intellettuale, come Galtung (v., 1967, ad esempio p. 376).
A proposito della metodologia in senso proprio, si discute se essa debba essere una disciplina prescrittiva o descrittiva. Per la seconda alternativa si è pronunciato con forza Dewey (v., 1938). Altri fanno notare che lo studio empirico del modo di lavorare degli scienziati è compito della storiografia e della sociologia della scienza; la metodologia dev'essere normativa; deve "fissare e giustificare un sistema di regole tali che assicurino la correttezza delle specifiche mosse compiute" (v. Pera, 1978, p. 7). "La metodologia - scrive Bruschi - implica una concezione logico-razionale della scienza [...]. L'aspetto normativo, che nella filosofia della scienza può essere latente, qui è manifesto e diretto. [...] Il metodologo dichiara ciò che il ricercatore deve fare per ottenere scienza" (v. Bruschi, 1991, pp. 38-39). Si può accettare l'idea che la metodologia sia, in ultima analisi, anche una disciplina normativa, in quanto dà indicazioni su cosa sia opportuno fare in ciascuna specifica situazione di ricerca; ma tali indicazioni non devono essere date in base a un modello astratto e generale di scienza, bensì proprio alla luce di quello che storiografia e sociologia della scienza ci riferiscono.
La contrapposizione descrittivo/prescrittivo collima piuttosto bene con la distinzione fra i due significati che il termine 'metodologo' ha nel linguaggio corrente delle università e della ricerca sociale - significati che poi corrispondono ai due ruoli del metodologo professionista. Quando studia e insegna, il metodologo deve avere un atteggiamento descrittivo, cioè disposto ad apprendere dalle varie esperienze di ricerca altrui valutandole senza preconcetti, e a riferire in modo sistematico e sintetico quanto ha appreso. Quando mette le proprie competenze, capacità ed esperienza al servizio di una ricerca, sua o altrui, il metodologo non può che essere prescrittivo, in quanto deve scegliere quali strumenti usare e come usarli; meglio se nelle sue prescrizioni saprà tener conto di tutto ciò che ha imparato svolgendo l'altro ruolo.
di Alberto Marradi
Anche il termine 'tecnica' deriva dal greco, dove τέχνη designa una capacità artistica: non quella individuale e irripetibile del genio, ma quella più domestica, tramandabile di padre in figlio, dell'artigiano (infatti il termine ha una probabile parentela con τέϰνον, figlio). I due significati attuali del termine sono legati a due diversi rapporti con la scienza. In un significato, una tecnica si serve delle conoscenze acquisite dalle scienze per intervenire sulla realtà e modificarne qualche aspetto. Nell'altro, è una scienza a servirsi delle tecniche per conoscere meglio questo o quell'aspetto della realtà.
Nell'ambito delle discipline mediche, la clinica si serve delle conoscenze acquisite dalla fisiologia e dalla patologia - che sono scienze - per curare i malati, ed è quindi una tecnica nel primo significato. Analogamente l'ingegneria edile, quando si serve delle conoscenze di statica e dinamica per fabbricare edifici, strade, ponti. Naturalmente la distinzione è analitica: se nell'ambito della ricerca tecnologica si acquisiscono nuove conoscenze sulla realtà che si vuol modificare, in quel momento si sta facendo scienza.
Le tecniche che ci interessano in questa sede sono strumentali ai fini conoscitivi delle varie scienze. Sono "le specifiche procedure usate in una data scienza, o per un particolare genere di indagine entro quella scienza. [...] L'addestramento scientifico è in larga misura l'acquisto di padronanza sulle tecniche" (v. Kaplan, 1964, p. 19): in larga misura, ma certo non interamente, come avverte Lazarsfeld (v., 1959; tr. it., p. 229).
Il rapporto fra metodo e tecnica (nel significato qui analizzato) può essere chiarito da un'immagine. Ogni ricerca ha un obiettivo cognitivo: vuole cioè migliorare, approfondire, articolare la conoscenza intorno a un certo argomento. Possiamo immaginare questo obiettivo come una radura in una foresta: si confida che sia raggiungibile, si spera di raggiungerla, ma non si sa esattamente dov'è; tanto meno si hanno le idee chiare su come arrivarci.
Possiamo immaginare che il ricercatore parta da un punto qualsiasi ai bordi della foresta. Raramente è solo e pienamente libero: di solito ha degli aiuti, ma anche dei vincoli. Dispone di fondi pubblici o privati, e quasi sempre ha collaboratori più o meno esperti nei vari compiti. Può ricorrere, se lo ritiene opportuno, a enti specializzati per la raccolta delle informazioni e/o l'analisi dei dati. Tra le sue risorse c'è anche il bagaglio di conoscenze desunte da precedenti esperienze di ricerca proprie o altrui. Il vincolo principale è la scadenza entro la quale deve essere consegnato il rapporto sui risultati della ricerca: spesso tale scadenza è fissata da un committente che non ha alcuna idea della complessità del compito. La foresta da attraversare è percorsa per tratti più o meno lunghi, e in varie direzioni, da sentieri già tracciati, più o meno battuti: sono le tecniche che altri ricercatori hanno già ideato, modificato, sviluppato. Naturalmente è molto più comodo percorrere sentieri già battuti; ma non si sa se porteranno alla radura desiderata o da qualche altra parte.
Compito del ricercatore-metodologo è scegliere via via il percorso, tenendo conto della natura dei sentieri esistenti, del tempo a disposizione, delle risorse (e in particolare del grado di addestramento/predisposizione dei suoi collaboratori a gestire le varie tecniche). In questo il suo compito somiglia alla combinazione dei fattori produttivi che l'imprenditore effettua in presenza di restrizioni e di vincoli, disponendo di risorse limitate e di economie esterne (v. Schumpeter, 1942). E anche le decisioni sono per il ricercatore altrettanto frequenti che per l'imprenditore: a ogni passo deve scegliere se affidarsi a collaborazioni esterne per un certo compito, oppure seguire un sentiero battuto, oppure un altro appena tracciato, oppure più sentieri in combinazione; se ripercorrere fedelmente questi sentieri, oppure tentare brevi variazioni di percorso (modifiche di tecniche esistenti), oppure addentrarsi nella foresta, immaginando procedure del tutto nuove, magari per confrontarne gli esiti con quelli delle tecniche esistenti. L'essenziale del concetto di metodo sta in questo: nella scelta delle tecniche da applicare, nella capacità di modificare tecniche esistenti adattandole ai propri specifici problemi, e di immaginarne delle nuove. Una volta che una procedura nuova, o una modifica di una procedura esistente, è stata ideata e viene codificata e diffusa, essa è già reificata e diviene una tecnica a disposizione della comunità dei ricercatori: non più una capacità privata ma un oggetto pubblico. Come la parole saussuriana: una volta comunicata è già langue.
di Giancarlo Gasperoni
Approfondiamo ora la distinzione già anticipata fra tecniche di raccolta e tecniche di analisi. Nella fase di raccolta - dopo aver definito i problemi cognitivi da risolvere - si scelgono il tipo di oggetto e l'ambito spazio-temporale sui quali indagare, si individuano gli specifici oggetti di cui rilevare gli stati, si decidono le definizioni operative delle proprietà oggetto dell'indagine e le procedure di registrazione delle informazioni e, infine, si rilevano e si registrano gli stati degli oggetti sulle proprietà. In breve, le tecniche di raccolta sono le procedure mediante le quali si producono i dati che successivamente verranno sottoposti ad analisi. Dopo la raccolta non si è ancora in grado di dare una risposta agli interrogativi che ci si è posti; ma si hanno le informazioni per rispondere. La fase di analisi presuppone dunque l'esistenza dei dati, e consiste nella loro elaborazione al fine di acquisire elementi conoscitivi intorno alla distribuzione degli stati sulle proprietà e alle relazioni tra esse (v. cap. 5).
Sia le tecniche di raccolta sia quelle di analisi comportano una semplificazione della realtà: nella raccolta si selezionano soltanto alcuni elementi della realtà da studiare (oggetti, proprietà, stati), e le relative informazioni prendono la forma di dati; questi ultimi vengono manipolati e ulteriormente sintetizzati dall'analisi. La scelta delle tecniche di raccolta e di analisi da adottare dipende dalla natura del problema cognitivo affrontato, dal numero di oggetti e/o di proprietà che si intendono studiare, dalla disponibilità di risorse, dalla particolare sensibilità del ricercatore e da molti altri fattori. Per quanto siano attinenti a fasi concettualmente distinte della ricerca, tecniche di raccolta e tecniche di analisi non sono indipendenti fra loro. La scelta di una determinata tecnica di raccolta (o analisi) pone dei limiti alla gamma delle tecniche di analisi (o raccolta) che si possono impiegare: determinate tecniche di analisi presuppongono che le informazioni siano state rilevate in un certo modo; determinate tecniche di raccolta pregiudicano la possibilità di ricorrere ad alcune tecniche di analisi.
In ciascuna indagine, tecniche di raccolta e tecniche di analisi, come si è detto, sottostanno a un vincolo cronologico: la raccolta precede l'analisi. Se si allarga la prospettiva si può scorgere un percorso circolare: gli esiti di precedenti ricerche - stima della cogenza dei risultati ottenuti con una determinata tecnica di analisi o della fedeltà dei dati raccolti con una particolare tecnica (v. Marradi, 1990) - rappresentano elementi che influenzano (o quanto meno dovrebbero influenzare) il ricercatore nelle sue decisioni metodologiche.
La già rilevata preminenza delle tecniche di analisi viene comunemente attribuita allo sviluppo e alla diffusione di mezzi di elaborazione informatica di elevata potenza e di impiego facile ed economico. L'affermarsi dei personal computers ha favorito la diffusione di tecniche avanzate di analisi multivariata, e quindi una maggiore valorizzazione dei dati raccolti. Lo sviluppo delle tecniche di analisi non è stato accompagnato da una corrispondente evoluzione delle tecniche di raccolta; inoltre, vi è stata una scarsa preoccupazione da parte della comunità scientifica di controllare la fedeltà dei dati che vengono utilizzati (ibid.).
Di conseguenza, tecniche di analisi sempre più avanzate vengono applicate a insiemi di dati la cui fedeltà non è migliorata - forse è addirittura peggiorata - rispetto a qualche decennio fa. Si consideri, inoltre, che la facilità d'uso degli elaboratori elettronici fa sì che possano diventarne utenti anche ricercatori che nulla sanno delle procedure con cui sono stati raccolti i dati e che comunque non posseggono le competenze necessarie per valutarne la fedeltà. Per questo complesso di motivi è opportuno concentrare gli sforzi sul miglioramento dell'affidabilità delle procedure di rilevazione, piuttosto che sull'ulteriore potenziamento delle tecniche di analisi.
di Giancarlo Gasperoni
Le tecniche di raccolta abitualmente usate nelle scienze sociali si differenziano per numerose dimensioni: tipo e numero di proprietà che possono essere operativizzate; tipo di unità e numero di casi sui quali si raccolgono informazioni; prevalenza di intenti idiografici o nomotetici; vincoli posti alle tecniche di analisi utilizzabili per elaborare le informazioni rilevate; possibilità di replicare la rilevazione; quantità di risorse umane e/o materiali richieste per effettuare la raccolta; ambiti disciplinari tipici; grado di collaborazione alla rilevazione da parte dei soggetti osservati; grado di conoscenza del contesto che presuppongono; e così via.
In questa sede si classificheranno le attività di raccolta in base al grado di strutturazione dei processi attraverso i quali si producono i dati che verranno successivamente sottoposti ad analisi. A un estremo si ha il caso in cui la raccolta di informazioni non altera affatto la realtà osservata; all'altro estremo il caso in cui l'intervento del ricercatore modifica sensibilmente la realtà, arrivando perfino a provocare eventi che altrimenti non si produrrebbero. Si possono individuare quattro tipi di rilevazioni: a) rilevazione non strutturata delle informazioni, in cui il ricercatore si avvale di un apparato ridotto e in cui sono gli oggetti osservati a determinare le informazioni che vengono fornite al ricercatore; b) rilevazione di informazioni process-produced, in cui il ricercatore raccoglie informazioni già prodotte e registrate nel corso di normali processi sociali; c) rilevazione strutturata, in cui le informazioni raccolte vengono ricondotte a schemi prestabiliti dal ricercatore; d) rilevazioni che comportano un intervento sulla realtà al fine di produrre informazioni non preesistenti all'indagine.
Questi tipi di rilevazioni non si escludono a vicenda: un'indagine può ricorrere a una loro combinazione. Anzi, al fine di dissipare il sospetto, spesso abbastanza giustificato, che i risultati di un'indagine siano determinati più dalla tecnica di rilevazione impiegata che non dai fenomeni studiati, è consigliabile ricorrere a una molteplicità di tecniche (v. cap. 1). Purtroppo, molti ostacoli (che vanno dai limitati fondi di ricerca alla limitata fantasia e flessibilità dei ricercatori) impediscono di fare ricorso a questa 'triangolazione metodologica' tanto spesso quanto sarebbe auspicabile.
La rilevazione presuppone un insieme di procedure attraverso le quali il ricercatore passa "dall'astratta determinazione dell'unità (cioè del tipo di oggetti che gli interessano) [...] all'individuazione dei casi concreti" che saranno oggetto della sua indagine (v. Marradi, 1987, p. 21). Gli oggetti che vengono osservati nell'ambito delle scienze sociali sono di diversi tipi. Di solito si tratta di individui; tuttavia, le informazioni da raccogliere possono anche riferirsi ad altre unità socialmente rilevanti: gruppi strutturati di individui (famiglie, associazioni di volontariato, sette religiose, gruppi etnici, bande di criminali, istituzioni pubbliche, unità amministrative territoriali, società intere), testi scritti (storici, letterari, giornalistici) e altri prodotti culturali (fotografie, rappresentazioni teatrali, programmi televisivi, dipinti, filmati), eventi e situazioni (guerre, elezioni, cerimonie, attività economiche). Naturalmente la scelta dell'unità varia in funzione degli interessi del ricercatore e dei problemi cognitivi che cerca di risolvere.
A tale scelta deve accompagnarsi anche l'individuazione di un ambito spazio-temporale, che definisce i limiti entro i quali il ricercatore sceglie gli oggetti da osservare. L'ambito spazio-temporale e l'unità determinano la popolazione, ovvero l'insieme dei potenziali casi della ricerca. L'ambito spazio-temporale definisce anche i confini entro i quali, a rigore, sono generalizzabili i risultati della ricerca; per questo motivo, l'individuazione dell'ambito spazio-temporale deve essere esplicita e inequivoca.
Definita la popolazione, il ricercatore deve decidere se raccogliere informazioni su tutti gli oggetti che le appartengono (enumerazione completa) oppure soltanto su un sottoinsieme di essi (campione) - a meno che non abbia scelto di studiare un solo caso. Di solito si ricorre al campionamento per motivi pratici: minori costi in termini economici e di risorse umane; minor tempo richiesto per la raccolta delle informazioni; maggiore semplicità di gestione; possibilità di operativizzare un maggior numero di proprietà. A meno che la popolazione dei possibili casi non sia molto ridotta, una sua enumerazione completa comporterebbe un'imponente mobilitazione di mezzi. Spesso quindi si è costretti a ricorrere al campionamento. Ci sono inoltre motivi che rendono il campionamento comunque preferibile all'enumerazione completa: l'US Census Bureau, ad esempio, sostiene che l'esigenza di ricorrere - per un censimento integrale della popolazione americana - a un gran numero di rilevatori inesperti e di elaborare masse enormi di informazioni produce dati più infedeli e meno generalizzabili di quelli prodotti da un'indagine campionaria eseguita con criterio (v. Smith, 1975, p. 106).
Nella scelta dei casi effettivamente osservati si cerca in genere di applicare criteri che giustifichino la generalizzazione dei risultati all'intera popolazione. Quasi tutte le strategie di individuazione degli oggetti da osservare sono riconducibili a due, fra loro tendenzialmente alternative: a) scelta ragionata, in cui si mette l'accento sull'esito del campionamento; b) scelta casuale, in cui si tiene conto solo della procedura di campionamento.Se la scelta è ragionata, la decisione di inserire o meno un oggetto nel campione dipende dal suo stato su una o più proprietà. Si può optare: per oggetti che presentino distribuzioni isomorfe a quelle della popolazione su una o più proprietà; per oggetti con stati estremi su determinate proprietà; per oggetti molto diversi (o, viceversa, molto simili) tra loro; per oggetti che presentino un'ampia varietà di stati al limite in modo che tutti i possibili stati siano presenti; per oggetti che occupino una particolare posizione nell'ambito o in un sottoambito (testimoni qualificati, reti amicali, leaders comunitari, ecc.); per un solo oggetto, ritenuto emblematico; e così via. Per i motivi visti il campionamento ragionato richiede che siano note al ricercatore almeno le caratteristiche che servono a orientare la scelta dei casi (v. Marradi, 1989).
Nel campionamento casuale gli oggetti da osservare vengono individuati sulla base di criteri probabilistici. La casualità - che nell'accezione rigorosa implica che tutti i membri della popolazione abbiano la stessa probabilità di entrare a far parte del campione - presenta due vantaggi: permette di servirsi della teoria dell'inferenza statistica per ottenere stime circa la generalizzabilità delle caratteristiche del campione alla popolazione e i relativi margini di errore; esercita una funzione di garanzia negativa, in quanto elimina i potenziali effetti distorcenti di un qualsiasi altro criterio di selezione.
È opportuno distinguere tra l'insieme di tutti gli oggetti che appartengono all'ambito spazio-temporale al quale si vogliono riferire i risultati della ricerca e il sottoinsieme di quegli oggetti che sono effettivamente noti e accessibili al ricercatore e tra i quali verranno scelti i casi. La distinzione è rilevante in quanto nelle scienze sociali di rado si può accedere al primo insieme per scegliere gli oggetti da osservare; nel migliore dei casi, i risultati dell'indagine sono riferibili soltanto al sottoinsieme, che si può considerare qualcosa di analogo a una definizione operativa della popolazione.Un'altra distinzione importante intercorre tra l'insieme di oggetti sui quali si desidera raccogliere informazioni (campione iniziale) e l'insieme di casi sui quali si riesce effettivamente a rilevarle (campione effettivo). I due insiemi possono coincidere, ma di solito una quota più o meno ampia di oggetti inseriti nel campione iniziale sfugge alla rilevazione. Nella misura in cui gli oggetti che finiscono per essere casi della ricerca lo diventano grazie a meccanismi non casuali e/o danno lungo a un campione effettivo con una composizione diversa da quella prevista, si introducono distorsioni nei risultati.
Un'ulteriore distinzione di rilievo è quella fra unità di raccolta e unità di analisi. È possibile che una ricerca preveda che le informazioni vengano rilevate presso un tipo di oggetto e poi riferite a un altro tipo di oggetto. Ogni volta che i due tipi di unità non coincidono il ricercatore dovrebbe evitare che le particolari caratteristiche, percezioni, aspettative degli oggetti osservati vengano attribuite indebitamente a oggetti di altro tipo.
Si è già accennato alla prevalenza dell'individuo quale unità di analisi nelle scienze sociali. Galtung critica questa tendenza in quanto essa "implica una concezione atomistica della società, vista come una massa di individui, in cui i fattori strutturali vengono scontati o si presume che siano rispecchiati nel singolo". Inoltre, "concentrarsi sull'individuo quale attore sociale, poiché sembra facile e convincente, scoraggia la considerazione di altre unità" (v. Galtung, 1967, p. 37). Queste osservazioni rinviano alla distinzione tra unità di raccolta e unità di analisi: si raccolgono informazioni sull'unità-individuo, in quanto ciò è conveniente e conforme al nostro modo di vedere il mondo, per poi riferirle a unità più estese, con distorsioni di entità ignota. Inoltre, la concezione atomistica sottesa alla ricerca su unità-individuo induce a sottovalutare le implicazioni negative della presunta fungibilità degli individui.
Come si è detto, l'unità di ricerca può essere una situazione sociale. Denzin (v., 1970, pp. 89-91) classifica le unità di questo tipo in cinque categorie: incontri (interazioni temporanee fra estranei), strutture diadiche (interazioni più durature fra due individui), gruppi sociali (interazioni durature fra tre o più individui), organizzazioni sociali (insiemi di persone che condividono obiettivi, caratterizzati da una divisione interna del lavoro, ecc.) e comunità. Nel caso degli incontri, delle strutture diadiche e di molti gruppi sociali, l'unità di riferimento è molto astratta, ed è praticamente impossibile tracciare i confini della popolazione: gli oggetti da osservare vengono individuati in base alle opportunità che offre lo specifico ambito della ricerca. Le organizzazioni sociali, le comunità e alcuni tipi di gruppi sociali sono più facilmente identificabili; pertanto è più agevole individuare una popolazione. Sul piano della scelta degli oggetti da osservare questi tipi di unità presentano specifici problemi. Ad esempio, organizzazioni e comunità sono di solito composte da aggregazioni di altri tipi di oggetto, ognuno dei quali può essere preso in considerazione dalla ricerca: l'inclusione/esclusione di determinate sottounità può influire sensibilmente sui risultati.
Se le situazioni da osservare sono eventi (conflitti armati, scioperi, elezioni), la scelta degli oggetti deve fare i conti con i processi mediante i quali tali eventi sono definiti tali e con l'esistenza di fonti di documentazione. Anche in questo caso la difficoltà sta nel definire una popolazione.
Quando l'unità è un testo scritto, si parla di corpus piuttosto che di popolazione. Anche in questo caso può essere piuttosto arduo stabilirne i confini. La scelta degli oggetti da osservare può obbedire a criteri più rigorosi quando l'unità prescelta è riferita ai testi e ai messaggi tipicamente studiati mediante l'analisi del contenuto: la periodicità regolare della stampa e dei notiziari e l'elevata tipizzazione che caratterizza i palinsesti televisivi e radiofonici permettono di definire la popolazione e agevolano strategie di campionamento formalizzate (v. Amaturo, 1993, pp. 36-38).
Le tecniche di rilevazione non strutturata mirano a osservare e registrare la realtà studiata, il più delle volte interagendo direttamente con essa - ma senza l'intenzione di modificarla. La rilevazione viene effettuata appositamente per i fini cognitivi del ricercatore, direttamente presso le fonti delle informazioni e avvalendosi di una strumentazione materiale ridotta.
L'osservazione partecipante - tipica dell'antropologia e dell'etnografia - è forse la tecnica di raccolta meno strutturata. In linea di massima il ricercatore che vi ricorre non ha ipotesi precostituite e neppure strumenti di rilevazione (al di là dei propri sensi). Nell'osservazione partecipante egli cerca di diventare membro (o comunque di stabilire legami personali significativi con i membri) di un gruppo per un periodo relativamente lungo al fine di penetrare i loro mondi vitali. Il ricercatore "partecipa alla vita quotidiana delle persone oggette di studio [...] osservando le cose che accadono, ascoltando ciò che viene detto, rivolgendo domande alla gente, per un periodo più o meno lungo" (v. Becker e Geer, Participant..., 1957, p. 28). L'assunto è che un ricercatore, o un piccolo gruppo di ricercatori, possano acquisire conoscenze significative mediante l'esplorazione approfondita delle normali attività di un gruppo sociale.
Normalmente si ricorre all'osservazione partecipante quando il gruppo che interessa il ricercatore è molto coeso e relativamente isolato da altri gruppi, se ne conosce molto poco, si ritiene che esso abbia una concezione del mondo peculiare e/o le sue attività non sono comunque facilmente accessibili dall'esterno: sette religiose, bande di delinquenti, omosessuali, caserme, ospedali, quartieri popolari, ecc. Alcuni studiosi ritengono l'osservazione partecipante opportuna per indagini esplorative, dirette alla preparazione di rilevazioni più strutturate. In ogni caso, tale tecnica è indicata quando si vuole "capire un particolare gruppo o problema sociale sostanziale piuttosto che controllare ipotesi circa le relazioni tra variabili" (v. Becker e Geer, Rejoinder, 1957, p. 37).
Questa tecnica è particolarmente impegnativa, in quanto comporta una parziale ri-socializzazione del ricercatore in termini di ruoli sociali, di etichetta, di linguaggio; richiede un lungo processo di adattamento; implica un atteggiamento molto aperto e flessibile da parte del ricercatore, che deve essere dotato anche di notevoli capacità relazionali. Per riuscire non solo ad assorbire e comprendere le interazioni che osserva ma anche a individuare significati salienti e a comunicarli alla sua comunità scientifica, il ricercatore deve acquisire la capacità di pensare, agire e comunicare in modo conforme alle concezioni del mondo di due diversi gruppi, quello di origine e quello osservato (v. Becker, 1958, p. 652), e di sviluppare un rapporto dialettico tra l'essere ricercatore e l'essere partecipe.
Nell'osservazione partecipante non si può tracciare una chiara demarcazione tra la fase di raccolta e quella di analisi. Mano a mano che il ricercatore si inserisce nella rete di interazioni del gruppo, egli è "spinto a rivedere e ad adattare il suo orientamento teorico e [l'interesse per] specifici problemi dal [loro] maggiore rilievo per il fenomeno oggetto di studio" (v. Becker e Geer, Participant..., 1957, p. 32).
L'osservatore partecipante deve chiedersi in che misura può riuscire a trasmettere fedelmente la sua comprensione della cultura osservata alla comunità scientifica. Egli osserva eventi unici, in modo selettivo e non sistematico, e quindi non replicabile da altri; non è possibile definire una sequenza di fasitipo. Due osservatori partecipanti della stessa situazione giungeranno quasi sicuramente a conclusioni divergenti. Eppure, per lo spessore delle informazioni raccolte, per la relativa immediatezza della rilevazione, per il fatto di basarsi su comportamenti spontanei piuttosto che su dichiarazioni o su comportamenti in qualche modo provocati dal ricercatore, questa tecnica ha un'importanza fondamentale per le scienze sociali. Si può immaginarla come una gamma di tecniche di raccolta distribuite lungo la dimensione osservazione-partecipazione: il ricercatore deve decidere dove collocarsi tra questi due poli. Se privilegia l'osservazione, egli sottolinea il suo ruolo di ricercatore e quindi il suo status di estraneo, con il rischio di compromettere la sua capacità di interagire significativamente con i membri del gruppo osservato. Se privilegia la partecipazione e quindi lo sviluppo di relazioni interpersonali e il coinvolgimento, rischia di modificare indebitamente la realtà che sta studiando. Inoltre, l'immersione nella nuova cultura può essere talmente riuscita da provocare una ridefinizione dell'identità del ricercatore. Diversi studiosi hanno tematizzato il rischio del "passare dall'altra parte" (going native, come dicono gli antropologi): il ricercatore diventa effettivamente (o sente di essere diventato) un membro del gruppo osservato, e sviluppa sentimenti di lealtà nei suoi confronti; di conseguenza, trascura o tralascia gli iniziali propositi scientifici (v. Cicourel, 1964, p. 45).
A causa del carattere non strutturato della rilevazione e del rilievo che assume la personalità del ricercatore, le procedure da seguire nell'ambito dell'osservazione partecipante non sono codificate: si passa molto tempo a riempire taccuini (o dischetti) di appunti (v. Bogdan e Taylor, 1975, pp. 41-42).
L'osservatore partecipante si avvale spesso di tecniche fotografiche e cinematografiche per registrare gli eventi osservati. Nelle scienze sociali la raccolta di informazioni visive non ha una tradizione consolidata (se si esclude il cinema documentario nel campo dell'antropologia), per quanto la fotografia e la cinematografia abbiano esercitato sin dalle prime fasi del loro sviluppo rilevanti funzioni sociali. In parte ciò deriva dalle particolari competenze, tecniche e non, che fotografare e filmare richiedono - competenze che non fanno parte del bagaglio del ricercatoretipo. A ciò si aggiungono costi considerevoli sia per la raccolta delle informazioni sia per la loro divulgazione. Questi fattori tecnici ed economici stanno peraltro venendo meno a causa della crescente diffusione dei mezzi di registrazione e riproduzione videoelettronica.
Un altro motivo della scarsa diffusione delle tecniche di raccolta che producono informazioni visive attiene alle funzioni sociali storicamente rilevanti assunte dalla fotografia e dalla cinematografia - imperniate sull'indagine di denuncia sociale la prima, sullo spettacolo di intrattenimento di massa la seconda. Esse si sovrappongono alle funzioni di documentazione visiva, e contrastano con il rigore del 'metodo scientifico', nonché con tradizioni di ricerca formatesi intorno all'uso della parola scritta. Pure fotografare e filmare presentano vantaggi notevoli per l'immediatezza e la ricchezza delle informazioni, alle quali si aggiunge la possibilità di 'rivedere la realtà' molte volte e coglierne ogni volta nuovi elementi.
Chi raccoglie informazioni visive su pellicola o nastro deve misurarsi con un dilemma fondamentale che caratterizza questo tipo di rilevazione: la potenziale contrapposizione fra "bellezza estetica e vocazione restitutiva del reale" (v. Cipolla, 1993, p. 33). Da una parte, fotografia e cinematografia vengono percepite come tecniche che producono immagini fedeli e oggettive; perciò esse si avvantaggiano della "fiducia da noi accordata ad apparecchiature che sfruttano materiali fotosensibili e circuiti elettronici in grado di riprodurre la realtà secondo le leggi ottiche e processi tecnologici che noi riteniamo incontestabili" (v. Mattioli, 1991, p. 9). Dall'altra, chi ricorre a questi strumenti viene inevitabilmente tentato dalle funzioni espressive e dalle gratificazioni estetizzanti della dimensione artistica della riproduzione iconica. L'imprescindibilità di questa componente estetica e interpretativa viene percepita per lo più come una minaccia sul piano metodologico; ma non manca chi sa apprezzare il modo in cui essa "produce una miglior comprensione dei fenomeni sociali verso l'empatia, [...] eleva l'interesse per il prodotto scientifico, lo rende più appetibile e facile, riduce le distanze fra senso comune quotidiano e senso comune scientifico" (v. Cipolla, 1993, p. 40).
Si deve convenire, tuttavia, che la corretta fruizione delle informazioni visive presuppone grande padronanza di un complesso di codici di trasmissione (relativi ad aspetti tecnici quali l'inquadratura, l'illuminazione, il montaggio, ecc.), iconici (relativi alla riconoscibilità degli oggetti fotografati o filmati), iconografici (relativi alla riconoscibilità delle combinazioni di oggetti) e socioculturali (relativi all'uso fatto delle immagini) al fine di ridurre l'ambiguità delle informazioni stesse (v. Mattioli, 1991, pp. 157-161). Questa difficoltà ha senz'altro contribuito a limitare l'affermarsi di tecniche fotografiche, cinematografiche e di videoregistrazione nelle scienze sociali.Mattioli suggerisce che "le tecniche e i dati visivi vanno utilizzati soltanto quando offrono informazione aggiuntiva" rispetto a ciò che si può rilevare con tecniche più tradizionali (ibid., p. 177). Faccioli individua tre ambiti in cui si può procedere in questo senso: a) indagini sull'identità e sul senso soggettivamente inteso; b) la situazione di intervista; c) la restituzione delle informazioni visive raccolte ai soggetti-oggetti della ricerca stessa (v. Faccioli, 1993, p. 57).
Nella situazione sub a, si tratta di indurre i soggetti della ricerca a fotografare/filmare se stessi, un determinato fenomeno, o quanto meno a partecipare alle decisioni su cosa riprendere. Si procede successivamente a un'analisi delle immagini al fine di individuare assunti, percezioni, significati che hanno guidato la loro produzione. Nel caso sub b, oggetto della ricerca è l'interazione tra osservatore e osservato in una situazione di intervista. Filmare l'interazione permette di registrare elementi della comunicazione, sia verbale che non, che condizionano il processo di intervista (e ne possono eventualmente distorcere gli esiti). Nella situazione sub c, infine, si tratta di photo-elicitation: le immagini, che possono essere state prodotte sia dal ricercatore sia dai soggetti della ricerca, vengono mostrate a questi ultimi al fine di stimolare un'intervista libera, di approfondire una storia orale, insomma di alimentare l'autoriflessione e di registrare le interpretazioni, presumibilmente più informate di quelle che potrebbe formulare il ricercatore, di ciò che è stato fissato su pellicola. Ai filoni indicati dalla Faccioli se ne può aggiungere un quarto: filmare e fotografare periodicamente paesaggi, zone urbane, quartieri, ecc. permette di documentare gli effetti dell'intervento dell'uomo sul territorio.
Altre tecniche esigono dal ricercatore un impegno meno assiduo rispetto all'osservazione partecipante, ma si ispirano sempre alla ricostruzione di (parti di) mondi vitali. Le storie orali e gli approcci biografici, ad esempio, permettono di far rivivere mediante la narrazione situazioni sociali passate: memorie collettive (sotto forma di resoconti storici, proverbi, canzoni, formule rituali) tramandate ai posteri per via orale o racconti di ricordi personali di esperienze dirette.
La narrazione svolge una funzione più centrale nelle culture a oralità primaria, in cui ci si serve del racconto e di altre forme di espressione orale per conservare, organizzare e trasmettere conoscenze. Nelle società avanzate queste funzioni hanno ceduto il passo alla cultura scritta, ma - anche grazie all'oralità di ritorno che le contraddistingue - in certi contesti culturalmente periferici (ceti popolari, zone rurali, minoranze etniche, comunità di immigrati, ecc.) le storie orali consentono di ricostruire in modo proficuo il passato, l'universo simbolico e il sistema di percezioni di un gruppo sociale.Alcune tecniche si basano sulla ricostruzione di storie di vita attraverso i racconti. Gli approcci biografici si distinguono dalle storie orali in quanto la memoria viene indirizzata sulle esperienze personali del narratore, anche se l'uso di questa tecnica presuppone, di solito, che i racconti di vita permettano di rilevare informazioni non soltanto sul passato degli individui interpellati (solitamente in numero ridotto), ma anche sui contesti in cui essi hanno vissuto, e perciò su altre vite con caratteristiche analoghe. La rilevazione di storie di vita è utile anche per indagare su fenomeni altrimenti difficilmente osservabili (come le attività sessuali o criminali e i tentativi di suicidio).
A volte le vite possono essere ricostruite con l'ausilio di materiale documentale (diari, agende, curricula professionali, registri anagrafici, corrispondenze epistolari, foto, ecc.: v. § 4c) o in maniera relativamente strutturata mediante la compilazione di storie di eventi di vita (carriera scolastica, matrimonio, parti, morti familiari, mobilità geografica, carriera lavorativa).
Quando, di converso, ci si prefigge di rilevare percezioni e rappresentazioni di situazioni e di processi, si sollecitano autobiografie scritte (di rado) o resoconti narrativi orali, i quali richiedono la collaborazione attiva dei soggetti le cui vite si vogliono ricostruire. Con un approccio biografico non strutturato si mira a raccogliere informazioni intorno a fenomeni sociali per i quali sia rilevante l'evoluzione nel tempo - devianza; trasformazioni di ruolo, status, identità; spostamenti nello spazio; e così via - con l'ausilio di soggetti che ne hanno avuto un'esperienza diretta.
Evidentemente svolge un ruolo centrale la (selettività della) memoria del narratore, la quale rappresenta elementi del passato nella misura in cui sono, e in modo che siano, salienti per il presente, con diversi gradi di dettaglio e di verosimiglianza. Le informazioni rilevate comprendono sia notizie biografiche o storiche fattuali sia distorsioni di vario genere - ché anch'esse possono costituire elementi significativi, pur se difficilmente distinguibili da quelli fattuali.
È probabile che il ricercatore partecipi attivamente alla registrazione delle storie orali o delle storie di vita, magari svolgendola per intero. In ogni caso, occorre che il rilevatore sia dotato di notevoli capacità relazionali e sia in grado di indirizzare la spontaneità del racconto. La registrazione può anche svolgersi nel corso di una lunga serie di sedute, ma il tempo è comunque una risorsa molto più scarsa che nell'osservazione partecipante, per cui il rilevatore deve poter sollecitare ulteriori informazioni appena se ne presenta l'occasione.
La rilevazione di informazioni mediante colloqui o lunghe interviste non strutturate è indicata quando il ricercatore ha determinato le aree tematiche generali su cui vuole indagare, ma possiede ancora relativamente poche conoscenze intorno a queste tematiche e/o ai soggetti da studiare. Quando il ricercatore è interessato a indagare su ambiti che gli sono già familiari e su un insieme tendenzialmente predefinito di proprietà, egli può ricorrere, come vedremo, a tecniche di rilevazione basate sull'intervista semistrutturata o strutturata.
La distinzione tra colloquio e intervista non strutturata non è nitida. Secondo Trentini (v., 1980), il colloquio ha carattere clinico e finalità diagnostiche e terapeutiche, sulle quali possono innestarsi quelle conoscitive del ricercatore, ed è spesso sollecitato dai soggetti stessi; l'intervista invece ha soltanto fini cognitivi. I colloqui e le interviste non strutturate lasciano molto spazio alla spontaneità dell'intervistato e alla trattazione di tematiche non previste. I compiti dell'intervistatore (che dovrebbe avere buone competenze relazionali e una certa esperienza) si limitano a garantire che tutti gli argomenti di interesse (previamente riportati su una traccia di conduzione) vengano affrontati, e a porre domande di approfondimento: si tratta di un ruolo "maieutico" (v. Montesperelli, 1996, § 4.3.2). Le informazioni vengono registrate o per iscritto, magari mediante una codifica in situ da parte dell'intervistatore, oppure, più comunemente, mediante una registrazione fonica o audiovisiva con eventuale trascrizione successiva. I colloqui e le interviste non strutturate possono anche avere funzioni esplorative, propedeutiche a una rilevazione strutturata, nel qual caso si potrebbe anche non ricorrere a una registrazione completa.
La registrazione delle storie orali, dei racconti biografici, dei colloqui e delle interviste non strutturate viene normalmente seguita dalla trascrizione. È bene che essa venga effettuata dallo stesso rilevatore in quanto il suo contatto diretto con i soggetti intervistati gli permette di cogliere "valenze del contesto ambientale [...] e altri aspetti dell'interazione che vanno irrimediabilmente perduti in una registrazione fonica" (ibid., § 4.5). Le modalità di trascrizione oscillano tra i due criteri contrapposti della fedeltà assoluta (compresi silenzi, rumori, errori grammaticali, forme gergali e dialettali, comportamenti non verbali) e dell'adattamento a un linguaggio standard: la prima soluzione può produrre un testo di difficile lettura, la seconda rischia di eliminare informazioni essenziali per la comprensione del mondo vitale del soggetto (ibid.).
L'intervista strutturata si avvale di un questionario e prevede che all'intervistato si rivolga, in un ordine non modificabile e con testi standardizzati, un insieme di domande e si imponga di rispondere secondo schemi prestabiliti (v. Pitrone, 1984, pp. 33-43; v. Fideli e Marradi, 1995, § 2c). L'invarianza degli stimoli e dei formati di reazione garantisce una semplice registrazione delle risposte e la loro (presunta) comparabilità, facilita la separazione del ruolo di ricercatore da quello di intervistatore e consente di raccogliere informazioni su ampi gruppi sotto forma di sondaggio. La situazione di intervista richiede quindi una tecnica di rilevazione strutturata (v. § 4d), anche se le informazioni rilevabili non si esauriscono in quelle registrate sul questionario.
A differenza delle forme di rilevazione non strutturata, l'impiego di un questionario solitamente non dà luogo a un contatto diretto tra il ricercatore e i fenomeni e/o gli individui studiati, per l'interposizione di una rete di intervistatori. Ciò permette al ricercatore di non attivare le proprie competenze nel campo delle relazioni umane (bensì quelle degli intervistatori), ma comporta anche una potenziale perdita di informazioni.
Nelle situazioni di intervista sarebbero infatti rilevabili molte informazioni che solitamente non vengono registrate - se non mentalmente - dall'intervistatore, né tanto meno vengono comunicate al ricercatore: le modalità attraverso le quali i soggetti accettano (o meno) di essere intervistati, i comportamenti non verbali o comunque non previsti dal questionario, eventuali segnali attinenti alla salienza degli argomenti affrontati e alla fedeltà delle risposte, le distorsioni introdotte dall'intervistatore - insomma, tutte le informazioni relative all'interazione tra intervistatore e intervistato che potrebbero costituire elementi conoscitivi di rilievo anche per il fenomeno oggetto di studio. Il recupero di queste informazioni richiederebbe un maggior grado di coinvolgimento e di partecipazione degli intervistatori nella pianificazione della rilevazione e nella successiva analisi dei risultati (v. Boccuzzi, 1985). Se le interviste vengono somministrate telefonicamente oppure, peggio ancora, mediante questionari da autocompilare o mediante computer, le reazioni dell'intervistato sfuggono a qualsiasi rilevazione.
Le informazioni si dicono process-produced quando sono state create nell'ambito delle normali attività di individui o di enti sia privati che pubblici, anziché nel corso di rilevazioni aventi scopi precipuamente scientifici. Ne sono esempi le registrazioni anagrafiche e su altri registri pubblici, le notizie pubblicate sui quotidiani, i programmi televisivi, le statistiche raccolte da organizzazioni economiche al fine di orientare le attività di mercato, i dati censuari, le fotografie raccolte negli album di famiglia, i programmi ufficiali dei partiti politici, ecc. La rilevazione di informazioni process-produced si contraddistingue quindi per il fatto che tali informazioni sono già state rilevate da qualcun altro per scopi diversi dalla ricerca: il ricercatore si limita a sceglierle, acquisirle e adattarle agli scopi della sua analisi.
A tale fine si ricorre spesso alla cosiddetta 'analisi del contenuto': l'espressione designa un insieme di approcci finalizzati allo studio di "fatti di comunicazione (emittenti, messaggi, destinatari e loro relazioni) e che a tale scopo utilizzano procedure di scomposizione analitica e di classificazione [...] di testi e di altri insiemi simbolici" (v. Rositi, 1988, p. 66). Di solito la rilevazione viene effettuata su un corpus più o meno esteso di messaggi veicolati dai mezzi di comunicazione di massa, anche se altri oggetti sono possibili (ad esempio, le verbalizzazioni di interviste aperte).
Rositi (v., 1970) ha proposto una tipologia dell'analisi del contenuto che usa come fundamentum divisionis il modo in cui le "unità comunicative" vengono scomposte in elementi più semplici, le "unità di classificazione". Nel primo tipo la rilevazione si incentra su unità linguistiche quali termini, simboli-chiave, temi, proposizioni. Il ricercatore deve decidere quali specifici termini, ecc., rilevare ed elaborare uno schema per classificarli. Spesso ciò avviene dopo aver esaminato una parte del corpus ed essersi familiarizzati con essa. Lo schema di classificazione verrà determinato, oltre che dagli interessi cognitivi del ricercatore, dalla particolare analisi che ci si propone di effettuare: frequenza con cui determinate (categorie di) unità linguistiche compaiono; co-occorrenze; costruzione di indici verbali; valutazioni espresse nei confronti di determinati simboli-chiave; corrispondenze lessicali (v. Losito, 1993, cap. 2). In questo caso si assume che "la frequenza di una determinata parola o simbolo-chiave è un indicatore dell'interesse [...] dei testi analizzati nei confronti di ciò che la parola o il simbolo-chiave designa" (ibid., p. 43).
Dato che privilegia unità prettamente linguistiche, questo primo tipo di analisi del contenuto si presta all'informatizzazione. Sono stati sviluppati e vengono ampiamente usati diversi softwares (v. Amaturo, 1993, cap. 3; v. Losito, 1993, § 2.6), i quali richiedono che i messaggi vengano tradotti in un formato leggibile per il computer (ad esempio, immettendo testi da tastiera, avvalendosi di corpora già disponibili in formati leggibili, usando scanners ottici). Se il ricorso al calcolatore facilita la rilevazione e la successiva analisi - ed elimina le difficoltà connesse al coordinamento di un'équipe di rilevatori/classificatori - esso può scontrarsi con alcuni problemi (in parte superabili mediante un intervento umano o, in misura crescente, di softwares sofisticati) riguardanti la polisemia, l'omonimia, le forme varianti, i termini stranieri, i referenti dei pronomi, le allusioni.
Gli altri tipi proposti da Rositi mettono l'accento sui significati dei messaggi, su elementi che "non hanno una riconoscibilità linguistica a livello di significanti" (v. Rositi, 1988, p. 72): si tratta, ad esempio, di comportamenti descritti nelle notizie di cronaca, di caratteristiche di personaggi di programmi televisivi o di romanzi, di situazioni raffigurate nelle immagini pubblicitarie. Si prende in esame il testo (o immagine o narrazione) nella sua globalità, utilizzando "come strumento di rilevazione una scheda [...] del tutto simile, quanto a struttura, a un questionario". Questa scheda è paragonabile a un insieme di "domande rivolte ai testi oggetto d'analisi, alle quali sono chiamati a rispondere uno o più analisti che interpretano i contenuti stessi in base a regole definite e uguali per tutti" (v. Losito, 1993, pp. 76 e 87).
L'analogia tra questo tipo di analisi del contenuto e la somministrazione di un questionario strutturato regge solo fino a un certo punto. Ad esempio, le domande sulla scheda di rilevazione vengono ordinate in modo da risultare convenienti per il rilevatore, non per l'oggetto dell'analisi. Inoltre, normalmente non sarà possibile rilevare informazioni su tutte le proprietà operativizzate per ogni testo preso in esame: i testi, infatti, non sono stati prodotti tenendo conto degli scopi della ricerca. È quindi probabile che questo tipo di rilevazione dia luogo a molti dati mancanti nella matrice (v. § 4d). La differenza di maggiore rilievo, tuttavia, attiene al ruolo del rilevatore; anche se si immagina che egli 'rivolga domande' ai testi, non sono questi ultimi a rispondere, bensì lo stesso rilevatore. Garantire una ragionevole omogeneità dei criteri di rilevazione da parte di rilevatori diversi costituisce quindi il problema metodologico principale di questa tecnica.
Al di là delle tecniche riconducibili all'analisi del contenuto, esistono anche altri approcci per lo studio dei testi prodotti nel corso di attività socialmente rilevanti. Avvalendosi degli strumenti elaborati dalla semiotica, dalla linguistica e dall'analisi strutturale, tali approcci valorizzano in chiave ermeneutica la specificità dei codici, le strutture tematiche e funzionali dei testi, i modelli di significazione e di argomentazione, l'esigenza di recuperare la complessità della comunicazione. Esistono ad esempio svariate forme di analisi del discorso, ognuna con un proprio modo di classificare e operativizzare le funzioni e il contenuto degli atti comunicativi e con proprie regole di preparazione e di trascrizione/riduzione dei testi: analisi automatica del discorso, analisi proposizionale del discorso, analisi dei modi dell'argomentazione, analisi della conversazione e via dicendo.
Un altro insieme di tecniche ricorre alla costruzione di files ecologici, in cui sono riportati dati aggregati per unità territoriale. Le informazioni sono rilevate, elaborate e pubblicate da parte di enti istituzionali, altri enti pubblici e strutture private. La disponibilità di questo genere di dati consente al ricercatore di risolvere alcuni problemi cognitivi a costi molto ridotti rispetto a quelli di un'apposita rilevazione.
Il ricercatore in un paese sviluppato può solitamente avvalersi di pubblicazioni statistiche specialistiche a periodicità fissa; delle stesse informazioni riportate su dischetto; di pubblicazioni riportanti indicatori sociali espressi sotto forma di indici, rapporti, ecc.; dell'accesso a banche dati. Al fine di costruire files ecologici, il ricercatore - dopo aver deciso il livello territoriale al quale riferire la rilevazione, il relativo ambito temporale e i rapporti di indicazione che intende stipulare - deve scegliere le fonti e le informazioni alle quali accedere. A questo proposito, gli indubbi vantaggi pratici della costruzione di files ecologici sono accompagnati da una serie di limiti. Zajczyk (v., 1991, cap. 1) distingue tra problemi dovuti all'inadeguatezza delle informazioni sul piano dell'aggregazione territoriale, all'inadeguatezza delle informazioni rispetto ai problemi cognitivi e alla molteplicità e scarso coordinamento degli enti produttori.
L'inadeguatezza territoriale deriva dalla possibile mancata corrispondenza tra le unità amministrative di cui gli enti produttori si servono come base per aggregare le informazioni e le unità geografiche che il ricercatore ritiene rilevanti per i suoi interessi. In Italia, ad esempio, le informazioni ecologiche sono disponibili quasi esclusivamente per comune, provincia o regione. Se il ricercatore è interessato a un altro tipo di ripartizione geografica, egli può solo sperare di poter accedere a informazioni abbastanza disaggregate da consentire opportune riaggregazioni. Chi cerca di costruire serie storiche può imbattersi in un'altra difficoltà inerente al cambiamento dei confini delle unità amministrative.
I dati process-produced possono rivelarsi inadeguati anche sul piano delle definizioni e delle classificazioni. Il ricercatore che se ne serve deve accettare le definizioni operative adottate dagli enti produttori, che spesso non coincidono con quelle che lui avrebbe usato. A volte gli enti produttori di dati continuano ad applicare definizioni non più adeguate in quanto ciò consente la comparabilità con dati rilevati in passato, quando quelle definizioni erano ancora opportune. D'altra parte, eventuali revisioni possono introdurre nei files ecologici distorsioni delle quali magari il ricercatore non è consapevole. Inoltre, è facile che le fonti statistiche non esprimano le informazioni in formati immediatamente fruibili per gli specifici intenti del ricercatore, non riportino determinate tabulazioni incrociate, non disarticolino le informazioni in base ad altre variabili interessanti, ecc.
Nei paesi sviluppati esiste un elevato numero di enti produttori e di fonti di informazioni process-produced, il che favorisce ridondanze e sovrapposizioni nelle informazioni. La molteplicità degli enti produttori implica una forte disomogeneità nei dati che essi mettono a disposizione. Ne consegue che il ricercatore deve essere particolarmente attento non solo quando combina informazioni provenienti da fonti diverse, ma anche quando decide a quale attingere fra più fonti che offrono (o sembrano offrire) lo stesso prodotto.
Nella costruzione di files ecologici il ricercatore esercita uno scarso controllo sul processo di produzione iniziale dei dati che utilizza. Affinché egli possa valutare la fedeltà dei dati e la fondatezza di eventuali comparazioni nello spazio e nel tempo, "occorre che il ricercatore disponga di una puntuale 'informazione sull'informazione"' (v. Zajczyk, 1991, p. 14 e cap. 7). Occorre altresì che il ricercatore sia motivato a dedicare una parte delle sue risorse a indagare sui processi di costruzione dei dati messi in atto dagli enti produttori. La cautela è particolarmente indicata nel caso di alcuni dati forniti da enti istituzionali: se il fruitore è portato a inchinarsi di fronte alla 'ufficialità' del dato, in alcuni casi chi è oggetto della rilevazione (immigrato clandestino, evasore fiscale, costruttore abusivo) può avere ottimi motivi per cercare di sfuggirle, e lo stesso ente produttore può avere interesse ad alterare i dati.
La rilevazione di informazioni process-produced può riferirsi anche a documenti personali: diari, lettere, fotografie. Questi documenti permettono di rilevare informazioni relativamente aderenti al mondo della vita di chi li ha prodotti. A differenza dei dati divulgati da enti produttori, tuttavia, i documenti personali non sono stati creati a fini conoscitivi né con una periodicità sistematica, e presentano formati inevitabilmente non standardizzati. Le maggiori difficoltà riguardano le distorsioni inerenti alla conservazione e all'accesso a questo genere di documenti. In linea generale è più facile che lettere, diari, fotografie, ecc. siano stati prodotti e conservati da individui con un elevato grado di istruzione e/o visibilità. Inoltre, i documenti personali attraversano processi selettivi di sopravvivenza, sui quali il ricercatore non esercita alcun controllo e dei quali può anche non sapere alcunché: molto materiale viene deliberatamente distrutto o si deteriora col passare del tempo; vengono conservate soltanto le lettere ritenute importanti e le foto 'belle'; la conservazione dipende anche dalle modalità di circolazione dei documenti.
I processi selettivi attengono non solo all'attività dei produttori dei documenti ma anche alle procedure di raccolta e di catalogazione messe in atto da centri di documentazione e di ricerca storica e da archivi, ai quali il ricercatore si rivolge per accedere ad ampi repertori di documenti personali. Occorre tener conto del fatto che questi centri solitamente si dedicano a periodi, eventi e fenomeni storici circoscritti o a personaggi celebri. Alcuni centri di documentazione sono dediti specificamente alla raccolta e conservazione di informazioni visive, che possono anche essere prodotte sistematicamente da professionisti.
Non si deve, infine, trascurare la possibilità di rilevare informazioni prodotte nel corso di precedenti indagini scientifiche. La cosiddetta 'analisi secondaria' (che, nonostante il suo nome, si contraddistingue per come raccoglie le informazioni, non per come le analizza) prevede "l'estrazione di conoscenza su argomenti diversi da quelli su cui si incentravano i sondaggi originari" (v. Hyman, 1972, p. 1). Le opportunità di analisi secondaria stanno aumentando grazie ai progressi tecnologici che permettono un'efficiente archiviazione e trasferimento di dati, alla creazione e al consolidamento di molti centri di raccolta, alla diffusione di prodotti informatici che consentono un agevole trattamento dei dati e ai vantaggi economici di cui gode chi rinuncia a intraprendere rilevazioni ad hoc. D'altra parte, l'analisi secondaria si scontra spesso con problemi inerenti alla mancata conservazione dei dati, all'insufficiente documentazione dei files, alla sopravvenuta obsolescenza dei sistemi di archiviazione e alla resistenza opposta da qualche ricercatore a chi vorrebbe usare i 'suoi' dati.Si distinguono dall'analisi secondaria la 'ri-analisi' - termine che designa una ricerca in cui l'oggetto cognitivo è il medesimo della ricerca originaria e si vuole far emergere e correggere difetti dell'analisi 'primaria' -e la 'meta-analisi', che invece mira a una sintesi degli esiti di precedenti studi, in cui cioè le informazioni da rilevare sono le conclusioni di un insieme di ricerche. In entrambi questi casi gli argomenti trattati sono gli stessi delle ricerche originarie.
Nella rilevazione strutturata le informazioni vengono raccolte, classificate e registrate secondo schemi tendenzialmente rigidi, prestabiliti dal ricercatore e rispondenti più alle sue esigenze cognitive che a quella della fedeltà agli stati e alle concezioni dei soggetti studiati. Vi si ricorre quando il ricercatore dispone (o ritiene di disporre) di conoscenze intorno al fenomeno indagato sufficienti per individuare quali proprietà e quali stati siano rilevanti. La rilevazione strutturata dà luogo a una notevole riduzione della complessità delle attività di ricerca e consente di operativizzare molti concetti, di semplificare le procedure di registrazione e codifica, di riunire - come vedremo - tutti i dati prodotti in un'unica matrice, di comparare agevolmente stati di casi diversi, di controllare ipotesi precise. Questi vantaggi comportano un costo relativamente elevato: il rischio di comprimere eccessivamente la natura variegata dei fenomeni sociali, di trattare argomenti non salienti per i mondi vitali degli individui indagati, di produrre dati che non ne riflettono gli stati effettivi.
Alcune tecniche relative a questo tipo di rilevazione comportano la strutturazione della raccolta delle informazioni sin dal primo contatto con gli individui o oggetti indagati (ad esempio, mediante la somministrazione di un questionario con domande chiuse, l'analisi del contenuto, ecc.). Queste tecniche, tuttavia, possono anche essere applicate a informazioni rilevate mediante tecniche non strutturate (osservazione partecipante, storie orali, interviste non strutturate, ecc.; v. § 4b); in questo caso la collaborazione dei soggetti indagati non è richiesta per le procedure descritte nel resto di questo paragrafo.Nella rilevazione strutturata si procede alla divisione dell'estensione del concetto-proprietà che interessa al ricercatore in estensioni più ristrette, ciascuna delle quali corrisponde a un concetto più specifico, ovvero a una classe del concetto-proprietà. Questa divisione, o classificazione intensionale, si ottiene articolando uno o più aspetti (detti fundamenta divisionis) dell'intensione del concetto-proprietà e produce uno schema di classificazione o una tipologia (v. Marradi, 1992, § 1a). In seguito si assegnano gli oggetti o eventi osservati alle classi o ai tipi precedentemente costituiti a seconda dei loro stati (o combinazioni di stati) sulle relative proprietà, e poi si registrano gli esiti di questa operazione.
"È assai opportuno ammettere la rivedibilità dello schema di classificazione sulla base delle risultanze emerse nella fase di assegnazione, per correggere i difetti" (ibid., p. 26), che possono riguardare l'imprecisione delle regole di attribuzione; la necessità di prevedere una o più classi residuali per tener conto di casi con stati imprevisti; l'opportunità di evitare distribuzioni squilibrate (in cui, cioè, una classe contiene una proporzione troppo alta, o troppo bassa, di casi). Per affinare lo schema sarebbe opportuno effettuare pre-test di questionari o classificazioni di una parte del materiale raccolto con tecniche non strutturate prima di procedere alla rilevazione definitiva. Inoltre, alcune di queste difficoltà vengono attenuate se ai soggetti, i cui stati sono da classificare, viene reso noto lo schema di classificazione e permesso di partecipare alle procedure di assegnazione.
Le caratteristiche dello schema di classificazione e il processo di assegnazione dei casi sono sostanzialmente identici se il ricercatore vuole riprodurre l'ordine che percepisce tra gli stati di una proprietà nei rapporti fra le classi dello schema di classificazione (ibid., § 2a). Tale ordine può essere attribuito a stati percepibili come appartenenti a una serie ordinata (ad esempio, quando si operativizza il livello di istruzione mediante la rilevazione del titolo di studio conseguito); percepiti come allineabili lungo un continuum segmentabile mediante una procedura di scaling (ad esempio, rilevazione di atteggiamenti) o un'unità di misura (ad esempio, età); o accertabili mediante un conteggio (ad esempio, numero di figli; v. anche Marradi, 1980-1981). A seconda di come vengono ideate le classi, si dà luogo a variabili categoriali, ordinali (più correttamente 'categoriali ordinate') o cardinali; gli esiti delle attività di classificazione avranno rilevanti conseguenze sul piano delle tecniche di analisi statistica che si potranno usare (v. § 5b).
La possibilità di ricondurre gli stati di un insieme di soggetti a una classificazione è influenzata dalla natura dello stimolo che viene loro rivolto. La domanda aperta consente all'intervistato di esprimere pienamente e in maniera spontanea la sua posizione, ma la ricchezza di informazioni viene persa quando gli intervistatori riconducono le risposte a poche classi. Inoltre, vi è il pericolo di sollecitare risposte non riconducibili allo schema di classificazione prestabilito. La domanda chiusa è accompagnata dall'elenco delle risposte ritenute accettabili dal ricercatore: il compito dell'intervistato viene facilitato, col rischio però di suggerirgli risposte che non avrebbe indicato in modo spontaneo o di imporgli uno schema di classificazione da lui non condiviso. Una soluzione intermedia prevede che una risposta diversa da quelle predefinite venga registrata e successivamente postcodificata. Per tutte e tre le forme l'interazione tra intervistatore e intervistato svolge un ruolo centrale nella eventuale introduzione di distorsioni (v. § 4b).
Altre difficoltà derivano dai termini usati per esprimere la domanda e dalla sua struttura semantica. Pitrone (v., 1984, cap. 8) individua quattro fonti di distorsione attinenti alla formulazione delle domande: complessità/oscurità dei termini; sottodeterminazione, quando la formulazione è ambigua o comunque non consente all'intervistato di comprendere cosa gli viene chiesto; sovradeterminazione, quando la formulazione induce a privilegiare indebitamente alcune alternative di risposta rispetto ad altre; "obtrusività", quando la domanda imbarazza l'intervistato o in altro modo incoraggia risposte infedeli.
Mentre le proprietà concepibili come continue sono numerose, poche di quelle misurabili in senso stretto (data la disponibilità di un'unità di misura) rivestono interesse per le scienze sociali. La potenza delle tecniche di analisi statistica applicabili alle variabili cardinali (v. § 5b) incoraggia i ricercatori a escogitare definizioni operative che permettono di assegnare etichette numeriche agli stati e di trattare tali etichette come se avessero le proprietà cardinali dei numeri. Per questi motivi si ricorre in modo diffuso alle già menzionate tecniche di scaling, specie per operativizzare dimensioni concettuali relative a valori e atteggiamenti e per costruire indici (per alcune delle tecniche più note v. Arcuri e Flores d'Arcais, 1974; v. McIver e Carmines, 1981). La maggior parte di queste tecniche consiste nella somministrazione di una serie di stimoli e prevede che i soggetti facciano riferimento a schemi di risposta predefiniti ed eguali per ogni stimolo.
Queste serie di sollecitazioni (composte il più delle volte da frasi compiute, ma anche da termini/espressioni, immagini, ecc.), dette anche 'batterie', permettono di raccogliere grandi masse di informazioni facilmente analizzabili e relativamente conformi alle esigenze conoscitive del ricercatore. D'altra parte, le relative tecniche sono esposte a diversi tipi di distorsione (tra cui primeggiano gli stili di risposta: v. Broen e Wirt, 1958), che vanificano non solo la pretesa di 'misurare' gli stati degli intervistati, ma anche quella di stabilire un ordine tra le classi di risposta. Inoltre, è assai improbabile che gli assunti sottesi alle diverse tecniche siano condivisi dagli intervistati (sui pregi e difetti di alcune tecniche di scaling v. Marradi, 1988; v. Marradi e Gasperoni, 1992). Un altro rischio attiene al fatto che, una volta formulata e usata in una ricerca - specie se quest'ultima diventa celebre -, una batteria tende a essere riproposta in contesti diversi da quello originale senza eliminarne difetti evidenti e senza adattarla alle specifiche caratteristiche del nuovo contesto (basti pensare alla nota "scala-F" di Adorno). Come si è accennato, le interviste strutturate permettono di operativizzare un numero elevato di proprietà. Pertanto un questionario può ospitare domande e batterie riguardanti un'ampia varietà di argomenti. Pitrone (v., 1984, § 4.1) ne propone la seguente classificazione: caratteristiche socioanagrafiche di rilievo 'strutturale' (età, sesso, ecc.); mutamento delle caratteristiche 'strutturali' (occupazione, stato civile, ecc.); conoscenza e percezione di fatti; sentimenti e credenze; opinioni e valori; standard di azione; previsioni; motivazioni. Il questionario solitamente inizia con una breve presentazione, che serve a illustrare gli obiettivi della rilevazione e a ottenere la collaborazione dell'intervistando. Fanno parte del questionario anche le istruzioni dirette all'intervistatore (ad esempio, su come riformulare domande complesse, codificare stati imprevisti, trattare intervistati recalcitranti, ecc.) e le eventuali domande, solitamente poste in calce, rivolte all'intervistatore al fine di rilevare alcune informazioni relative alla situazione di intervista e all'intervistato (v. § 4b).
Nella redazione del questionario è opportuno fare molta attenzione alla successione delle domande, la quale dovrebbe tener conto di diversi elementi: carattere potenzialmente delicato degli argomenti trattati; naturalezza dei passaggi da un argomento all'altro; possibilità che alcune domande influenzino le risposte ad altre; opportunità di suddividere e distribuire nel corpo del questionario le 'batterie' per evitare che l'intervistato si stanchi o perda interesse; e così via.
È importante distinguere tra strumenti strutturati (come il questionario) aventi lo scopo di rilevare atteggiamenti, interessi, opinioni, aspirazioni, ecc., e altri strumenti strutturati (come i test e le prove d'esame) usati per rilevare capacità, attitudini, livelli di conoscenza, patologie, ecc. e magari anche prendere decisioni che influiranno sulle vite dei soggetti (per certi versi questa distinzione rispecchia quella tra intervista e colloquio: v. § 4b). In questo secondo caso, quindi, la rilevazione ha scopi non solo cognitivi, ma anche operativi e talvolta persino prescrittivi. Il test spesso ha un obiettivo cognitivo più circoscritto del questionario, e quindi mira a rilevare poche proprietà simili o anche una sola; inoltre, si compone di quesiti altamente standardizzati. Un'altra differenza inerisce al fatto che i soggetti esaminati spesso sono tenuti a sottoporsi a un test al fine di raggiungere un determinato traguardo (un titolo di studio, un lavoro, ecc.). In misura ancora più accentuata che nell'uso di un questionario strutturato, il ricercatore deve nutrire molta fiducia nelle teorie che hanno guidato la redazione del test e nella capacità di quest'ultimo di registrare fedelmente gli stati degli individui.
A differenza del questionario, il test prevede risposte giuste e risposte sbagliate alle domande; questa distinzione accentua la strutturazione della rilevazione. L'esaminato non contribuisce in alcun modo a determinare quali siano le risposte giuste ai quesiti rivoltigli (mentre, naturalmente, l'intervistato è l'unico a conoscere le risposte fedeli alle domande che gli vengono somministrate). Inoltre, di solito, l'esaminato è comprensibilmente motivato a scegliere certe alternative di risposta piuttosto che altre e a presentare una certa immagine di sé, anche a costo di distorcere deliberatamente (se vi riesce) il modo con cui vengono registrate le proprie capacità, ecc. (l'espressione 'response set' designa questo fenomeno: v. Cronbach, 1946). Nel valutare la fedeltà dei dati, il ricercatore deve fare i conti con questa volontà, che è tanto più presente fra gli intervistati quanto più essi si sentono sottoposti a un esame (v. Edwards, 1957).
Le informazioni ottenute mediante rilevazioni strutturate possono essere raccolte in griglie chiamate 'matrici', i cui elementi fondamentali sono i casi, le variabili e i valori. Sono possibili sei tipi non ridondanti di matrice bidimensionale: casi per casi; casi per variabili; casi per valori; variabili per variabili; variabili per valori; valori per valori. Le matrici si distinguono in primarie, nelle quali i casi rappresentano almeno uno degli elementi, e derivate, prodotte dall'incrocio di coppie di vettori-riga e vettori-colonna estratti dalle matrici primarie (v. Delli Zotti, 1985, § 2). Le matrici primarie sono usate per la raccolta dei dati, quelle derivate per l'analisi.
Il tipo di matrice di rilevazione più usata nelle scienze sociali è la matrice 'casi per variabili' (o matrice dei dati). In essa i vettori-riga hanno per referente gli oggetti indagati e i vettori-colonna hanno per referente le proprietà. Pertanto una matrice dei dati ha tante righe quanti sono i casi e tante colonne quante sono le variabili. Le celle della matrice ospitano i dati, ossia i valori che sono stati assegnati agli stati presentati dai relativi casi sulle relative variabili. Questa matrice concentra tutti i dati prodotti nel corso della rilevazione e li prepara per l'analisi statistica (v. § 5b). Inoltre, da essa sono ricavabili non solo le matrici derivate ma anche gli altri due tipi di matrice primaria.I dati possono essere raccolti anche in matrici 'casi per casi', le cui celle ospitano dati relativi alla presenza, la natura o l'intensità della relazione tra due casi. Dato che i vettori-riga e i vettori-colonna si riferiscono allo stesso tipo di elemento, è possibile riportare dati relativi a due relazioni distinte (ad esempio, importazioni ed esportazioni se i casi sono paesi; flussi di voti se i casi sono partiti) nelle celle dei due triangoli speculari rispetto alla diagonale; altrimenti, le celle di uno dei triangoli contengono informazioni ridondanti. Le celle collocate lungo la diagonale possono essere lasciate vuote oppure contenere ciascuna un dato riferito a un solo caso e utile per contestualizzare i dati delle altre celle (rispetto agli esempi sopra esposti, prodotto interno lordo di un paese, totale dei voti ottenuti da un partito).Infine, i dati possono essere raccolti anche in una matrice 'casi per valori'. A differenza di quanto può accadere con la matrice 'casi per casi', non sembra che vi siano circostanze nelle quali il ricorso a questo tipo di matrice sia vantaggioso (v. Delli Zotti, 1985, § 8).
Le tecniche di raccolta trattate fino a questo punto si distinguono per il fatto che il ricercatore si inserisce in una realtà che esiste indipendentemente dai suoi interessi e dalle sue attività di ricerca; egli cercherà di far sì che i suoi atti di rilevazione modifichino la realtà il meno possibile. I dati prodotti corrispondono a informazioni che si presumono essere (o che comunque vengono trattate come se fossero) preesistenti all'indagine. Le tecniche di raccolta trattate in questo paragrafo - basate sulla (quasi-)sperimentazione e sulla simulazione - presuppongono invece un'elevata capacità di controllare e manipolare le proprietà oggetto di indagine, e pertanto la specifica situazione che viene studiata: si producono (o si contribuisce a produrre) informazioni appositamente per poterle rilevare.
Le tecniche sperimentali prevedono che le proprietà vengano divise in almeno tre classi: quelle ritenute irrilevanti per il fenomeno in questione e quindi ignorate; quelle ritenute rilevanti e i cui stati vengono tenuti costanti (o in qualche altro modo controllati) affinché si possa escludere una loro influenza sul fenomeno; quelle ritenute rilevanti, i cui stati vengono lasciati o fatti variare. Nella versione paradigmatica della sperimentazione queste ultime proprietà, opportunamente operativizzate, si dividono in variabili indipendenti e dipendenti: le prime vengono fatte variare al fine di osservare la natura e l'entità delle eventuali variazioni conseguenti nelle seconde.
Nelle scienze sociali, per ovviare alle difficoltà nel tenere costanti molte variabili, i soggetti osservati vengono divisi in due gruppi: in uno (gruppo sperimentale) gli stati sulla variabile indipendente vengono fatti variare in modo controllato; nell'altro (gruppo di controllo) gli stati non vengono fatti variare. Eventuali variazioni negli stati medi del primo gruppo sulla variabile dipendente - se non si manifestano anche nel secondo gruppo - vengono attribuite all'influenza della variabile indipendente.
Per cercare di neutralizzare l'influenza di terze variabili, si scelgono gli oggetti osservati in modo che quelle variabili presentino distribuzioni isomorfe nei due gruppi (matching). Ciò presuppone la conoscenza di questi stati, e pertanto l'operativizzazione delle proprietà. In alternativa o a integrazione dei suddetti accorgimenti, il ricercatore può assegnare i soggetti osservati ai gruppi sperimentale e di controllo in modo casuale (randomizzazione).
La sperimentazione si distingue anche per il fatto che si prefigge di acquisire conoscenze unicamente sulle relazioni tra variabili, non sulla distribuzione dei casi rispetto a una o più proprietà, e tanto meno su oggetti specifici. Anzi, la sperimentazione presuppone la perfetta interscambiabilità degli oggetti osservati, e quindi la generalizzabilità dei risultati a tutti gli oggetti dello stesso tipo, una volta che siano stati controllati i loro stati sulle proprietà operativizzate. Inoltre, il ricorso a un esperimento presuppone che il ricercatore abbia previamente formulato una precisa ipotesi; altrimenti non si giustifica l'operativizzazione di un numero relativamente basso di proprietà. D'altra parte, si può formulare un'ipotesi così circoscritta solo se in merito al settore indagato esiste già un robusto impianto teorico.
Agli occhi di molti ricercatori - come dell'uomo della strada - la sperimentazione costituisce il 'metodo scientifico' per eccellenza a causa della sua centralità nelle scienze fisiche. In effetti, la sperimentazione - quando è possibile applicarla - è una tecnica potentissima: grazie al controllo esercitato su ogni proprietà ritenuta rilevante per il fenomeno studiato, l'esperimento non si limita a individuare l'esistenza di relazioni tra proprietà ma permette anche di portare validi elementi a sostegno della presenza di certi rapporti causali.
L'applicazione delle tecniche sperimentali nelle scienze sociali incontra diversi ostacoli, tanto che alcuni le ritengono non applicabili tout court. Al di là dei fattori che possono inficiare la fondatezza dei risultati di uno specifico esperimento (v. Campbell e Stanley, 1963, pp. 5-6 per una tipologia dei fattori che ne minacciano la 'validità interna' e la 'validità esterna'), i problemi incontrati dalla sperimentazione in ambito sociale ineriscono alla natura delle unità di analisi, delle proprietà e delle relazioni fra le proprietà (v. Marradi, 1987, cap. 8).
Quando la sperimentazione si effettua su esseri umani (non intesi come oggetti fisici o organismi biologici), non si può ragionevolmente adottare l'assunto di fungibilità degli oggetti dello stesso tipo. Inoltre, nella sperimentazione in fisica si presume che il soggetto dell'esperimento reagisca passivamente agli stimoli, mentre nelle scienze sociali egli tende a interpretare quello che percepisce come il proprio ruolo e a comportarsi di conseguenza, modificando quelle che sarebbero state le sue reazioni spontanee. L'esempio classico delle conseguenze della consapevolezza di partecipare a un esperimento va sotto il nome di 'effetto Hawthorne': i lavoratori della fabbrica Hawthorne, studiati negli anni trenta, miglioravano la loro produttività (variabile dipendente) perché erano consci del fatto che essa veniva rilevata, e non a causa delle variazioni introdotte nelle condizioni di lavoro, intese come complesso di variabili indipendenti (v. Roethlisberger e Dickson, 1939). Bynner aggiunge che il ruolo attivo del soggetto offre anche alcune opportunità, delle quali tuttavia si tende a non approfittare: nella sperimentazione "l'importanza attribuita alla neutralizzazione di ogni possibile influenza distorcente durante la raccolta dei dati è talmente pervasiva che viene in genere trascurata una delle migliori fonti di informazioni su queste distorsioni - il soggetto stesso" (v. Bynner, 1980, p. 316).
Nelle scienze sociali le proprietà studiate fanno parte di reti di relazioni particolarmente estese e articolate. Se a ciò si aggiunge la penuria di teorizzazioni consolidate e largamente condivise fra gli specialisti, risulta particolarmente difficile isolare poche proprietà rilevanti da operativizzare in un disegno sperimentale. Inoltre, anche se ci si riesce, di solito non è possibile controllare gli stati sulle variabili: né tenere costanti gli stati sulle proprietà rilevanti escluse dal modello, né tanto meno far variare in modo controllato gli stati sulla variabile indipendente. Insomma, il contesto sperimentale comporta un'eccessiva semplificazione della complessa natura dei fenomeni sociali. Gli esperimenti "tendono a essere frammenti isolati, non connessi ad alcunché di ciò che altrimenti accade nel flusso dell'attività quotidiana" (v. Deutscher, 1973, p. 201).
Nonostante i forti vincoli che impediscono l'effettuazione di esperimenti veri e propri, rimane assai difficile per il ricercatore "scartare la possibilità di applicare la logica della sperimentazione" (v. Pawson, 1989, p. 207). Al proposito Ritzer parla di "scambio/sostituzione di obiettivi" (displacement of goals) da parte di molti ricercatori: si privilegia il rigore metodologico a scapito delle specificità dell'argomento studiato (v. Ritzer, 1975, p. 181).È comunque opportuno che le rilevazioni vengano impostate e svolte tenendo presenti alcuni criteri della sperimentazione atti a eliminare quanti più fattori di distorsione sia possibile. Per le indagini 'sul campo' è stata sviluppata una gamma molto ampia di tecniche 'quasi-sperimentali', con le quali si cerca di adattare le procedure dell'esperimento, allentandone alcuni requisiti e il controllo che implicano, ai fattori che condizionano lo studio dei fenomeni sociali al fine di trarne inferenze causali (v. Campbell e Stanley, 1963; v. Cook e Campbell, 1979).
Pertanto, la 'quasi-sperimentazione' può suggerire alcune buone regole di lavoro. Ciò non significa affatto che si possano dimenticare le radicali differenze strutturali fra un esperimento e altre forme di ricerca. Non si possono quindi sottoscrivere affermazioni come questa: "Il questionario può essere considerato non solo come uno strumento per ottenere risposte ma come un metodo per esporre i soggetti a stimoli sperimentali, ancorché verbali" (v. Hyman, 1955, p. 210). Si tratta di uno degli innumerevoli tentativi compiuti dai ricercatori sociali per appropriarsi del prestigio delle scienze fisiche adottando il nome dei loro strumenti - viste le difficoltà nell'usare gli strumenti stessi.
Le simulazioni sono rappresentazioni dinamiche di ipotetiche situazioni sociali oppure di contesti storici specifici in cui si chiede a un numero relativamente contenuto di soggetti di interagire. Il ricercatore definisce i ruoli degli attori, le risorse di cui dispongono, i vincoli che ne condizionano l'azione, la situazione di partenza e alcune altre caratteristiche del contesto comune in cui i soggetti interagiscono. Si ricorre alle simulazioni soprattutto in ambito economico o politologico (specie nella sfera delle relazioni internazionali), ma anche ogniqualvolta si vogliano evitare gli elevati costi o gli effetti permanenti e/o nocivi che una (quasi-)sperimentazione comporterebbe (ad esempio, quando si vogliono studiare situazioni di crisi sociale o politica).
La simulazione è assimilabile all'esperimento per il controllo che il ricercatore può esercitare sull'ambiente in cui avvengono la produzione e la rilevazione delle informazioni, ma se ne differenzia per alcuni aspetti. Ad esempio, nelle simulazioni la specifica identità degli oggetti (gli attori) è ancora meno rilevante che nella sperimentazione; spesso si chiede ai partecipanti di assumere ruoli che non assumeranno mai nella realtà (diplomatici, capi di Stato, generali, persino organizzazioni e altri soggetti collettivi) oppure di fingere di essere personaggi storici (roleplaying); in alcuni casi i partecipanti non sono neppure esseri umani (v. sotto).
Inoltre, spesso ciò che interessa non è tanto l'esito finale delle interazioni, quanto i processi attraverso i quali la situazione di partenza viene modificata. Piuttosto che trarre inferenze di tipo causale circa le relazioni tra proprietà, nella simulazione si cerca di acquisire conoscenze intorno al funzionamento e al mutamento del sistema 'imitato' dai partecipanti. Ancora, a differenza di quanto accade nella sperimentazione, il disegno di una simulazione può tener sotto controllo, facendone variare gli stati, un numero anche molto elevato di variabili (specie se ci si avvale di un computer); i partecipanti, invece, tendono a essere relativamente pochi.
La simulazione si caratterizza, infine, per la funzione sempre più centrale che i computer vi svolgono. Si distingue, a questo proposito, tra simulazioni in senso stretto - che prevedono l'apporto di elaboratori elettronici in qualità di attori e/o di gestori di un complesso insieme di regole e di altre informazioni che strutturano l'ambiente - e giochi, nei quali prevalgono decisori umani. Alcuni studiosi suggeriscono di riservare il termine 'simulazione' alle situazioni di indagine così complesse che una loro rappresentazione dinamica richiede necessariamente il ricorso a un elaboratore elettronico.
di Giancarlo Gasperoni
L'accezione moderna del termine 'ermeneutica' trae origine dalla filologia biblica, e in particolare dal recupero del significato autentico di quanto era scritto nei Testamenti. Per estensione l'ermeneutica è una procedura - di cui sono elementi centrali il riferimento al linguaggio, la collocazione del testo nel suo contesto storico-culturale e la chiarificazione di passaggi oscuri - che consiste nell'interpretazione dei significati che un autore ha voluto esprimere mediante un insieme di rappresentazioni simboliche.
Nelle scienze sociali l'analisi ermeneutica caratterizza gli approcci fenomenologici, e più in generale quelle strategie di ricerca che tentano di accedere ai significati che gli individui assegnano alle proprie azioni, ai loro mondi di vita. Di solito essa si accompagna all'assunto che la realtà sociale sia costruita dagli individui, anche se essi la percepiscono come un sistema naturale e oggettivo; all'assunto che questo accesso sia possibile grazie alla condivisione di alcune province di significato da parte del ricercatore e dell'attore osservato; alla convinzione che conoscere i fenomeni sociali richieda tecniche diverse da quelle usate per studiare i fenomeni naturali.
Mediante l'analisi ermeneutica ci si prefigge di 'ricostruire la realtà' nei termini delle regole e delle motivazioni che guidano il comportamento dei soggetti osservati (v. Schwartz e Jacobs, 1979); il punto di partenza è l'esame delle informazioni registrate nel corso di rilevazioni non strutturate (v. § 4b), sotto forma di testi, registrazioni foniche, rappresentazioni visive, ecc. Le conoscenze estraibili da queste informazioni sono più cogenti se prodotte nel corso di un'interazione tra soggetti-attori e ricercatore, nell'ambito cioè di una dialettica dialogica tra estraneità e familiarità.Sarebbe opportuno che le conclusioni del ricercatore fossero accompagnate dal materiale interpretato (trascrizioni di registrazioni e altri testi, immagini), in versione integrale o a stralci, preferibilmente organizzato secondo i criteri interpretativi adottati (v. Montesperelli, 1996, § 4.6). Tuttavia è difficile riportare in forma succinta queste informazioni e le inferenze che se ne traggono.
La critica più spesso avanzata nei confronti dell'analisi ermeneutica attiene alla fondatezza delle conclusioni alle quali giunge un ricercatore: in linea di massima, nulla permette di stabilire se un'interpretazione di un testo o di un'azione sia migliore di un'altra. Questa incertezza si innesta su un'altra problematica: il ricercatore-interprete deve tendere alla ricostruzione del senso inteso dall'attore, cioè alla formulazione di un resoconto che quest'ultimo saprebbe riconoscere e autenticare, oppure deve formularne uno che tenga conto di tutti gli elementi della situazione socioculturale in cui l'attore opera, a costo di renderlo incomprensibile o inaccettabile agli occhi di quest'ultimo? Sono immaginabili sia situazioni in cui la convalida delle interpretazioni del ricercatore da parte degli attori osservati le rende più convincenti, sia situazioni nelle quali una tale convalida le infirma. Peraltro, questo problema si può porre (anche se non viene praticamente mai posto) anche per le conclusioni cui si giunge con l'analisi statistica dei dati.
Questa e altre critiche mosse all'ermeneutica possono quindi essere rivolte anche alle altre tecniche per conoscere. Una caratteristica peraltro contraddistingue l'ermeneutica: chi vi fa ricorso assai difficilmente può - per riprendere la metafora del cap. 2 - avvalersi di sentieri già battuti.
Le tecniche di analisi statistica dei dati presuppongono che le informazioni da sottoporre ad analisi siano state raccolte e organizzate in una matrice dei dati (v. § 4d). Ci si può prefiggere sia di esplorare i dati senza sottoporre a controllo aspettative particolari, proprio al fine di individuare in quali direzioni approfondire l'analisi (questo è l'orientamento implicato dalle accezioni anglosassone e francese di 'analisi dei dati': v. Amaturo, 1989, cap. 1), sia di controllare previsioni e ipotesi precise, formulate nel corso dell'analisi o prima di essa. Un altro obiettivo, che non verrà trattato in questa sede, è la stima, con l'ausilio della statistica inferenziale, di quanto i risultati ottenuti siano generalizzabili alla popolazione (v. anche § 4a).
Al fine di descrivere le distribuzioni di frequenza, semplici e congiunte, le tecniche di analisi statistica fanno ampio uso di forme di rappresentazione tabulare e grafica (o displays) e di valori caratteristici e coefficienti (cifre che danno informazioni su alcune caratteristiche delle distribuzioni). Sulla base del numero di variabili prese in considerazione, le tecniche di analisi dei dati si distinguono in monovariata, bivariata e multivariata. Una tecnica si dice monovariata se si occupa della distribuzione dei casi su una variabile soltanto; bivariata se si riferisce alla distribuzione congiunta di due variabili; multivariata se investiga la distribuzione congiunta di tre o più variabili.
L'applicabilità delle diverse tecniche di analisi monovariata, bivariata e multivariata dipende dal fatto che ai valori assegnati ai diversi stati della variabile siano legittimamente attribuibili "tutte le proprietà cardinali dei numeri, o solo quelle ordinali, oppure neppure quelle ordinali" (v. Marradi, 1994, p. 14), quindi dal tipo di variabili (categoriali, ordinali, cardinali) prodotte dalle definizioni operative, che a loro volta dipendono dal tipo di proprietà che operativizzano (categoriali-non-ordinate, categoriali-ordinate, con stati enumerabili, continue-misurabili e continue-non-misurabili: ibid., pp. 12-15; v. anche § 4d). Le categorie delle variabili categoriali godono di un'elevata autonomia semantica (cioè assumono significato senza dover ricorrere al significato delle altre categorie e dell'intera variabile); le variabili cardinali, di converso, in genere ne sono prive. L'autonomia semantica delle categorie influenza il modo in cui il ricercatore analizza le distribuzioni delle relative variabili: minore è l'autonomia, minore è l'importanza delle frequenze relative alle singole categorie, maggiore è quella della dispersione dei dati.
Di solito si raccolgono informazioni su molte variabili e si è interessati a studiare le relazioni fra esse; quindi alcuni pensano che l'analisi monovariata sia superflua. Invece essa svolge funzioni centrali, anche se preliminari, rispetto all'analisi bi-/multivariata: essa permette, mediante l'individuazione di valori implausibili, di correggere errori compiuti durante la registrazione dei dati; mette in evidenza squilibri nelle distribuzioni e opportunità di aggregazione in vista di analisi più complesse (v. § 4d); fornisce al lettore le basi per un giudizio sulle interpretazioni del ricercatore (v. Marradi, 1994, cap. 2). Anche in mancanza di ulteriori analisi, le tecniche monovariate permettono di descrivere alcune caratteristiche del fenomeno osservato e di rispondere ad alcuni quesiti cognitivi.
Se i dati si riferiscono a variabili con categorie non ordinate, il valore caratteristico più semplice è la moda, che corrisponde alla categoria che raccoglie il maggior numero di casi. Nessuno dei valori caratteristici proposti per rilevare il grado di equilibrio presentato da una distribuzione (ibid., § 3.4) viene comunemente usato - anche perché le conseguenze negative di una distribuzione squilibrata non sono ancora sufficientemente considerate.
I displays adatti per le variabili categoriali si possono raggruppare in due famiglie: in una i segni (aree di ampiezza o linee di lunghezza proporzionale alle frequenze da rappresentare) sono ordinati lungo una retta (istogramma, diagramma a barre o a nastri) e preferibilmente separati tra loro al fine di non suggerire un ordine fra le categorie; nell'altra famiglia i segni sono disposti in ordine circolare (diagramma a torta, grafico a raggi).
Nel caso delle variabili ordinali il fatto che alle categorie sia stato conferito un ordine permette di ricorrere a rappresentazioni più articolate. Ad esempio, le frequenze percentuali possono essere accompagnate da frequenze cumulate e retrocumulate; questo accorgimento è tanto più opportuno quanto minore è l'autonomia semantica delle categorie. Tra i valori caratteristici, alcuni sono posizionali come la mediana (la categoria che bipartisce la sequenza dei dati in modo da lasciarne lo stesso numero dalle due parti, e pertanto indica la tendenza centrale della distribuzione) e i quartili (il primo e il terzo separano, rispettivamente, il 25% e il 75% dei casi dagli altri; il secondo quartile corrisponde alla mediana). Il d* di Leti quantifica invece la dispersione dei dati in modo sintetico (considerando, cioè, l'intera distribuzione piuttosto che specifici valori collocati in alcuni suoi punti particolari).
L'istogramma (con colonne contigue, al fine di sottolineare la contiguità delle categorie) è la forma di rappresentazione più semplice per le variabili ordinali; ma le forme che meglio rispecchiano la loro natura sono l'istogramma di composizione, costituito da una sola colonna divisa in fasce di altezza proporzionale alle frequenze delle categorie (in modo da richiamare la ridotta autonomia semantica), e la spezzata a gradini (che sottolinea la natura cumulativa delle frequenze nelle categorie).
In genere, come si è detto, le categorie delle variabili cardinali mancano di autonomia semantica; quindi al ricercatore interessano non le frequenze relative alle singole categorie, bensì l'andamento complessivo della distribuzione. Spesso, tuttavia, specialmente se sono molto numerose, le categorie vengono aggregate in un numero più ridotto di classi, ed è utile ricorrere alle frequenze (retro-)cumulate. La scarsa autonomia semantica delle categorie fa sì che i più importanti valori caratteristici abbiano natura sintetica. Il più familiare è la media aritmetica, che rivela la tendenza centrale della distribuzione.
I più comuni valori caratteristici che quantificano la dispersione sono basati sullo scarto, cioè sulla distanza di un valore dalla media aritmetica della distribuzione. La devianza è la somma dei quadrati degli scarti dalla media, e ovviamente dipende, oltre che dalla dispersione dei dati attorno alla media, dal numero dei casi. Se si divide la devianza per il numero di casi, si ottiene la varianza, che come la devianza è una grandezza quadratica. Estraendone la radice quadrata si ottiene lo scarto-tipo (deviazione standard). Di questi tre valori caratteristici, si usa la devianza se non occorre confrontare distribuzioni basate su un diverso numero di casi; la varianza se serve una grandezza quadratica (magari per effettuare confronti con altre grandezze quadratiche); lo scarto-tipo quando serve una grandezza lineare. Ad ogni modo, se si vogliono operare confronti con altre distribuzioni, è opportuno usare il coefficiente di variazione (il rapporto tra scarto-tipo e media aritmetica).
La standardizzazione è un altro accorgimento che facilita le comparazioni - tra dati e fra distribuzioni relativi a variabili diverse - quando i dati sono stati rilevati con unità di misura o di conto diverse. I dati vengono trasformati in punti standard, dividendo i relativi scarti dalla media aritmetica della relativa distribuzione per il corrispondente scarto-tipo. I punti standard non sono più espressi nell'unità di misura o di conto della variabile originaria, bensì in unità del suo scarto-tipo. Di conseguenza, la distribuzione di una variabile standardizzata ha alcune proprietà particolari - la media è eguale a 0, la varianza e lo scarto-tipo sono eguali a 1 - ed elimina quindi l'effetto delle differenze nelle scale dei valori e nelle dispersioni. È sempre opportuno procedere alla standardizzazione prima di formare un indice con criteri additivi.Le forme di rappresentazione adatte per le variabili cardinali sono l'istogramma (se i valori da rappresentare corrispondono ad aggregazioni di stati contigui), il diagramma a barre (se i valori derivano da stati discreti enumerabili) e il poligono di frequenza (quando i valori sono numerosi).
Con le tecniche di analisi bivariata, che sono riconducibili al canone delle variazioni concomitanti di J.S. Mill (v., 1843), si cerca di individuare quali siano la forma, la direzione, la forza delle relazioni fra due variabili. Le tecniche statistiche applicate a dati organizzati in matrice permettono soltanto di stabilire l'esistenza e la forza di una relazione, non la sua direzione; soltanto un disegno sperimentale (v. § 4e) consente di accertare la direzione causale delle relazioni. L'esame delle relazioni tra variabili presenta aspetti sia semantici (inerenti al loro significato) sia sintattici (relativi alla loro descrizione in termini matematico-statistici). In generale le tecniche di analisi descrivono gli aspetti sintattici delle relazioni, mentre occorre l'intervento del ricercatore per mettere in evidenza quelli semantici. Distinguendo le relazioni bivariate in base a due dimensioni - grado di sovrapposizione semantica fra le variabili e grado di asimmetria - Ricolfi individua quattro tipi: affinità, indicazione, co-occorrenza e dipendenza (v. Ricolfi 1994, § 2.2). Questa tipologia è particolarmente utile per inquadrare gli aspetti semantici delle relazioni. Tocca al ricercatore collocare le relazioni analizzate lungo le due suddette dimensioni in base alle sue ipotesi e alla sua conoscenza del contesto.
Per analizzare una relazione fra due variabili categoriali, i dati vengono rappresentati con una tabulazione incrociata (che corrisponde a una matrice 'valori per valori', nella quale le celle contengono le frequenze: v. § 4d). L'analisi consiste nel confronto tra le frequenze attese (che si avrebbero qualora ognuna delle categorie di una variabile fosse priva di relazioni con ognuna delle categorie dell'altra) e quelle effettivamente osservate. Questo confronto è equivalente all'ispezione delle percentuali di riga e di colonna.
Il più noto coefficiente usato per rilevare la presenza di una relazione tra due variabili categoriali è χ², che si basa sul confronto tra le frequenze osservate e quelle attese. Dato che, a parità di forza della relazione, il suo valore è una funzione lineare del numero dei casi (N), questo coefficiente rileva la significatività statistica di una relazione, non la sua forza. Il coefficiente ϕ², pari a χ²/N, elimina l'effetto del numero dei casi, e pertanto rileva la forza della relazione. Resta da chiedersi, tuttavia, se abbia senso cercare di rilevare in forma globale la forza di una relazione fra variabili quando la relazione si colloca più propriamente al livello delle categorie.
Si ha un caso speciale di relazione bivariata quando le due variabili sono dicotomiche. L'ispezione della tabulazione incrociata rimane la tecnica di analisi più indicata. Le formule dei coefficienti usati per rilevare la forza della relazione si basano sul prodotto incrociato, cioè sulla differenza fra il prodotto delle due frequenze di cella nella diagonale principale e lo stesso prodotto nella diagonale secondaria. I due coefficienti da preferire sono ϕ e τc (v. Gangemi, 1977). Il ϕ ha il prodotto incrociato al numeratore e la radice quadrata del prodotto delle quattro frequenze marginali al denominatore. Al numeratore τc ha il quadruplo del prodotto incrociato, e il quadrato del numero dei casi al denominatore. Entrambi i coefficienti stimano bene la forza della relazione quando nessuna o una sola variabile presenta una distribuzione squilibrata. Se, di converso, entrambe le distribuzioni monovariate sono squilibrate, allora tutti i coefficienti (compresi ϕ e τc) sovrastimano la forza della relazione.
Se le due variabili messe in relazione presentano categorie ordinate, i coefficienti che rilevano la forza della loro relazione si basano sulla cograduazione, cioè prevedono il controllo di ogni possibile coppia di casi per accertare se l'ordine relativo dei due casi su una delle variabili si mantiene anche nell'altra (nel qual caso si ha una coppia cograduata) oppure si inverte (nel qual caso la coppia è contrograduata). Il confronto tra il numero di coppie cograduate e il numero di coppie contrograduate determina il valore dei coefficienti (tra cui il τb di Kendall, il γ di Goodman e Kruskal e il d di Somer), i quali si differenziano tra loro per il trattamento riservato alle coppie di casi che assumono lo stesso valore su almeno una variabile, per il fatto di essere adatti per variabili con un numero eguale oppure diverso di categorie, per la necessità o meno di formulare in via preliminare un'ipotesi circa la direzione della relazione.
Per una relazione fra una variabile cardinale e una categoriale è utile calcolare la media della variabile cardinale (e altri valori caratteristici) per ogni classe della variabile categoriale e ispezionare gli eventuali dislivelli tra questi valori. Se invece di una variabile categoriale si tratta di una variabile ordinale, si può applicare la stessa procedura, e inoltre si può anche controllare se le medie della variabile cardinale riferite alle categorie (esaminate in sequenza) presentino o meno un andamento monotonico. Un coefficiente che stimi la forza della relazione tra una variabile cardinale e una categoriale (con categorie ordinate o meno) si ottiene mediante l'analisi della varianza. Questa tecnica scompone la varianza della variabile cardinale in due parti: la varianza all'interno delle classi della variabile categoriale e la varianza fra tali classi. Il coefficiente che stima la forza della relazione - η² - è pari al rapporto tra varianza fra le classi e varianza complessiva.
Ogni coefficiente usato per rilevare la forza di una relazione bivariata nella quale una delle variabili è categoriale presenta un difetto fondamentale: conoscere il suo valore permette di affermare molto poco intorno alla relazione. Uno stesso valore può corrispondere a situazioni anche molto diverse, e queste differenze possono emergere soltanto se si ispeziona anche una rappresentazione articolata della relazione. Inoltre, il valore del coefficiente può variare in modo sensibile al variare del numero di categorie previste dalla definizione operativa che ha prodotto la variabile categoriale (ordinata o meno).
Una relazione fra due variabili cardinali può essere efficacemente rappresentata da un diagramma a dispersione: su un piano cartesiano i valori di una variabile (quella ritenuta indipendente nell'ipotesi formulata dal ricercatore) vengono situati in ascissa, i valori dell'altra (dipendente) in ordinata; ogni coppia di valori relativi a un caso è rappresentata da un punto. Da un'ispezione di questo diagramma dovrebbe risultare evidente se (magari dopo aver adottato scale logaritmiche e/o escluso dall'analisi eventuali outliers) la relazione abbia o meno natura lineare.
Se la relazione appare lineare, si può interpolare una retta (detta retta di regressione) fra i punti del diagramma e trarne alcuni coefficienti sintetici (in particolare quelli di regressione, di correlazione e di determinazione). La retta di regressione passa per il punto di incrocio delle due medie e rende minima la somma dei quadrati degli scarti tra i valori della variabile dipendente e i valori previsti dalla retta stessa. Il coefficiente di regressione (b), pari al rapporto tra il prodotto delle codevianze delle due variabili e la devianza di quella indipendente, rappresenta la variazione prevista nel valore della variabile dipendente per ogni variazione del valore della variabile indipendente, date le unità di misura delle due variabili. L'interpolazione di una retta di regressione e il calcolo del coefficiente di regressione presuppongono che il ricercatore abbia ipotizzato che una delle variabili influenzi l'altra senza esserne influenzata.
Il coefficiente di correlazione (r), che stima la forza della relazione, è pari al rapporto fra la codevianza delle due variabili e la media geometrica delle loro devianze, e corrisponde a quanto le due variabili variano insieme rispetto a quanto ciascuna varia per conto suo. Esso presuppone che la relazione sia bidirezionale; è infatti pari alla radice quadrata del prodotto dei due coefficienti di regressione relativi alle due opposte ipotesi di relazione unidirezionale che è possibile formulare. Elevando al quadrato il coefficiente di correlazione, si ottiene il coefficiente di determinazione (r²), che rappresenta la porzione della varianza della variabile dipendente riprodotta dalla sua relazione con l'indipendente. Tale coefficiente ha un significato analogo a quello di η².
Le tecniche multivariate possono suddividersi in tre famiglie. Una famiglia (della quale fanno parte l'analisi delle componenti principali, l'analisi delle corrispondenze, i modelli log-lineari) ha un orientamento prevalentemente descrittivo e privilegia l'esigenza di rappresentare le relazioni. Un'altra famiglia (che comprende la regressione multipla, la correlazione parziale, la path analysis, i modelli logit) ha un orientamento esplicativo e tenta di stabilire se (l'assenza di) una relazione tra due variabili sia dovuta all'effetto di altre variabili (cioè di altre proprietà operativizzate nell'ambito dell'indagine); in questo caso si presuppone che le relazioni osservate siano tra variabili semanticamente indipendenti. La terza famiglia (che comprende l'analisi fattoriale e l'analisi della struttura latente) ha un orientamento interpretativo e cerca di inferire l'esistenza di variabili 'latenti' (ovvero proprietà non operativizzate) dalle relazioni intercorrenti tra quelle 'manifeste' (operativizzate), di controllare cioè se si possono far dipendere (in termini sintattici) le relazioni tra variabili da un numero ridotto di proprietà; in questo caso l'analisi si incentra su variabili che presentano un'interrelazione statistica (sui confini tra queste famiglie v. Ricolfi, 1993, cap. 4; 1994, § 3.1). La tecnica dei modelli Lisrel ideata da K. Joreskog è riconducibile a entrambe le ultime due famiglie.
Esistono anche altre tecniche di analisi avanzate che non sono multivariate nell'accezione sopra illustrata, in quanto non prendono in esame un insieme di vettori-colonna di una matrice dei dati. Le procedure di cluster analysis, ad esempio, si incentrano sui vettori-riga della matrice; e il multidimensional scaling fa addirittura a meno della matrice 'casi per variabili'. Anche per le serie storiche (matrici alle quali si aggiunge un ulteriore elemento rispetto a quelli specificati nel § 4c: il tempo) sono state escogitate potenti tecniche di analisi statistica.
Come si è visto, le tecniche di analisi sono relativamente deboli nel caso di variabili categoriali, più potenti per le variabili cardinali. In genere, i valori caratteristici, i coefficienti e le forme di rappresentazione (sia tabulare sia grafica) che possono essere usati per descrivere distribuzioni di variabili categoriali e ordinali hanno senso anche per variabili cardinali, mentre non è vero il contrario. Inoltre, le tecniche che presuppongono un ordine fra le categorie non possono naturalmente essere usate per le variabili categoriali non ordinate.
La potenza delle tecniche di analisi per variabili cardinali e delle tecniche multivariate incentiva lo sfruttamento delle proprietà cardinali anziché di quelle ordinali dei numeri usati come codici nella matricedati. Si dibatte da tempo sulla legittimità del ricorso a tecniche cardinali anche su variabili le cui definizioni operative non lo giustificherebbero. Baker e altri (v., 1966) hanno caratterizzato questo dibattito in termini di "strong statistics versus weak measurement": i fautori della prima posizione sostengono l'opportunità di avvantaggiarsi della potenza delle tecniche più avanzate; i fautori della seconda ritengono più importante tener conto della natura delle tecniche di raccolta nelle decisioni afferenti all'analisi. Nella summenzionata espressione gli aggettivi 'forte' e 'debole' ineriscono al tipo di tecnica statistica preferita dalle opposte fazioni, le quali perciò optano per un legame, rispettivamente, debole o forte tra tecnica di analisi e tecnica di raccolta. Questa sottovalutazione del nesso fra rilevazione delle informazioni e analisi dei dati rappresenta un altro indizio di quanto scarsa sia stata sinora l'attenzione dedicata ai problemi della raccolta delle informazioni nelle scienze sociali. (V. anche Campioni, teoria dei; Classificazioni, tipologie, tassonomie; Comparativo, metodo; Econometria; Epistemologia delle scienze sociali; Gruppi, analisi dei; Intervista; Opinione pubblica).
Amaturo, E., Analyse des données e analisi dei dati nelle scienze sociali, Torino 1989.
Amaturo, E., Messaggio, simbolo, comunicazione. Introduzione all'analisi del contenuto, Roma 1993.
Arcuri, L., Flores d'Arcais, G. B., La misura degli atteggiamenti, s.l. 1974.
Bailyn, L., Research as a cognitive process: implications for data analysis, in "Quality and quantity", 1977, XI, 2, pp. 97-117.
Baker, B. O., Hardyck, C. D., Petrinovich, L. F., Weak measurement vs. strong statistics: an empirical critique of S.S. Stevens' proscriptions on statistics, in "Educational and psychological measurement", 1966, XXVI, 2, pp. 291-309.
Becker, H. S., Problems of inference and proof in participant observation, in "American sociological review", 1958, XX, pp. 652-660.
Becker, H. S., Geer, B., Participant observation and interviewing: a comparison, in "Human organization", 1957, XVI, pp. 28-32.
Becker, H. S., Geer, B., Rejoinder, in "Human organization", 1957, XVI, pp. 35-37.
Berka, K., Measurement. Its concepts, theories and problems, Dordrecht 1983.
Boccuzzi, E., Parcellizzazioni e reificazioni nelle ricerche sociologiche: il punto di vista di un'intervistatrice, in "Rassegna italiana di sociologia", 1985, XXVI, 2, pp. 239-260.
Bogdan, R., Taylor, S. J., An introduction to qualitative research methods. A phenomenological approach to the social sciences, New York 1975.
Bourdieu, P., Chamboredon, J.-C., Passeron, J.-C., Le métier de sociologue. Problèmes épistémologiques, Paris 1968.
Broen, W. E., Wirt, R. D., Varieties of response sets, in "Journal of consulting psychology", 1958, XXII, pp. 237-240.
Bruschi, A., Logica e metodologia, in "Sociologia e ricerca sociale", 1991, XII, 35, pp. 30-55.
Bynner, J., Some problems with psychological research practice, in "Bulletin of the British psychological society", 1980, XXXIII, pp. 315-318.
Campbell, D. T., Stanley, J. C., Experimental and quasiexperimental designs for research, Chicago 1963.
Cicourel, A., Method and measurement in sociology, New York 1964.
Cipolla, C., Teoria della metodologia sociologica. Una metodologia integrata per la ricerca sociale, Milano 1988.
Cipolla, C., L'apporto della comunicazione iconica alla conoscenza sociologica: un bilancio metodologico, in Introduzione alla sociologia visuale (a cura di C. Cipolla e P. Faccioli), Milano 1993, pp. 11-48.
Cook, T. D., Campbell, D. T., Quasi-experimentation: design and analysis issues for field settings, Chicago 1979.
Crespi, F., Le vie della sociologia. Problemi, teorie, metodi, Bologna 1985.
Cronbach, L. J., Response sets and test validity, in "Educational and psychological measurement", 1946, VI, pp. 475-494.
Dalton, M. E., Preconceptions and methods in 'Men who manage', in Sociologists at work (a cura di P. E. Hammond), New York 1964, pp. 58-110.
Delli Zotti, G., Tipologia delle matrici utilizzate nella ricerca sociale, in "Rassegna italiana di sociologia", 1985, XXVI, 2, pp. 141-168.
Denzin, N. K., The research act, Chicago 1970.
Deutscher, I., What we say/what we do. Sentiments and acts, Glenview, Ill., 1973.
Dewey, J., Logic, the theory of inquiry, New York 1938.
Edwards, A. L., The social desirability variable in personality assessment and research, New York 1957.
Faccioli, P., La sociologia visuale. Tecniche e campi di applicazione, in Introduzione alla sociologia visuale (a cura di C. Cipolla e P. Faccioli), Milano 1993, pp. 49-71.
Fideli, R., Marradi, A., Intervista, in Enciclopedia delle scienze sociali, vol. V, Roma 1995, pp. 71-82.
Galtung, J., Theory and methods of social research, London 1967.
Gangemi, G., Le misure di associazione tra due dicotomie nella ricerca sociale, in "Rassegna italiana di sociologia", 1977, XVIII, 4, pp. 599-628.
Hyman, H. H., Survey design and analysis, New York 1955.
Hyman, H. H., Secondary analysis of sample surveys: principles, procedures, and potentialities, New York 1972.
Kaplan, A., The conduct of inquiry, San Francisco 1964.
Kriz, J., Facts and artefacts in social science. An epistemological and methodological analysis of empirical social science research tecniques, New York 1988.
Lazarsfeld, P. F., Problems in methodology, in Sociology today: problems and prospects (a cura di R. K. Merton, L. Broom e L. S. Cottrell), New York 1959, pp. 39-78 (tr. it.: Problemi di metodologia, in Medologia e ricerca sociologica, di P. F. Lazarsfeld, Bologna 1967, pp. 179-229).
Losee, J., A historical introduction to the philosophy of science, Oxford 1972.
Losito, G., L'analisi del contenuto nella ricerca sociale, Milano 1993.
McIver, I. P., Carmines, E. G., Unidimensional scaling, Beverly Hills, Cal., 1981.
Marradi, A., Misurazione e scale: qualche riflessione e una proposta, in "Quaderni di sociologia", 1980-1981, XXIX, 4, pp. 595-639.
Marradi, A., Concetti e metodo per la ricerca sociale, Firenze 1987.
Marradi, A. (a cura di), Costruire il dato, Milano 1988.
Marradi, A., Casualità e rappresentatività di un campione: contributo a una sociologia del linguaggio scientifico, in I sondaggi elettorali e le scienze politiche (a cura di R. Mannheimer), Milano 1989, pp. 51-133.
Marradi, A., Fedeltà di un dato, affidabilità di una definizione operativa, in "Rassegna di sociologia", 1990, XXXI, 1, pp. 55-96.
Marradi, A., Classificazioni, tipologie, tassonomie, in Enciclopedia delle scienze sociali, vol. II, Roma 1992, pp. 22-30.
Marradi, A., L'analisi monovariata, Milano 1994.
Marradi, A., Gasperoni, G. (a cura di), Costruire il dato 2, Milano 1992.
Mattioli, F., Sociologia visuale, Roma 1991.
Mill, J. S., A system of logic, ratiocinative and inductive, London 1843.
Mills, C. W., The sociological imagination, Oxford 1959.
Mokrzycki, E., Philosophy of science and sociology. From the methodological doctrine to research practice, London 1983.
Montesperelli, P., L'intervista ermeneutica, Milano 1996.
Nadel, S. F., The foundations of social anthropology, London 1949 (tr. it.: Lineamenti di antropologia sociale, Roma-Bari 1974).
Parisi, D., Castelfranchi, C., Una definizione della psicologia cognitivista, in Psicologia della Gestalt e psicologia cognitivista (a cura di G. Kanizsa e P. Legrenzi), Bologna 1978, pp. 63-84.
Pawson, R., A measure for measures, London 1989.
Pera, M., Induzione e metodo scientifico, Pisa 1978.
Pitrone, M. C., Il sondaggio, Milano 1984.
Polanyi, M., Personal knowledge. Towards post-critical philosophy, London 1958.
Ricolfi, L., L'arte della descrizione. Un'introduzione alla ricerca standard, Torino 1993.
Ricolfi, L., Tre variabili. Un'introduzione all'analisi multivariata, Milano 1994.
Ritzer, G., Sociology: a multiple paradigm science, Boston 1975.
Roethlisberger, F. J., Dickson, W. J., Management and the workers, Cambridge, Mass., 1939.
Rositi, F., L'analisi del contenuto come interpretazione, Torino 1970.
Rositi, F., Analisi del contenuto, in La ricerca sull'industria culturale (a cura di F. Rositi e M. Livolsi), Roma 1988, pp. 59-94.
Schumpeter, J. A., Capitalism, socialism, and democracy, New York 1942 (tr. it.: Capitalismo, socialismo e democrazia, Milano 1955).
Schwartz, H., Jacobs, J., Qualitative sociology: a method to the madness, New York 1979.
Smith, W. H., Strategies of social research. The methodological imagination, Englewood Cliffs, N.J., 1975.
Theodorson, G. A., Theodorson, A. G., A modern dictionary of sociology, London 1970.
Toulmin, S. E., Human understanding, vol. I, The evolution of collective understanding, Princeton, N.J., 1972.
Trentini, G., Tassonomia generale del colloquio e dell'intervista, in Manuale del colloquio e dell'intervista (a cura di G. Trentini), Milano 1980.
Zajczyk, F., La conoscenza sociale del territorio. Fonti e qualità dei dati, Milano 1991.