archeoastronomia
Concezione del cielo per gli antichi
Pubblicato Febbraio 23, 2021 | Da wp_7224440
![]() Concezione del cielo per gli antichi | ||
11 febbraio 2021 autore |
| |
La comprensione dei molteplici aspetti della vita dell’uomo antico non può prescindere dall’affrontare il problema da un punto di vista interdisciplinare. E’ quindi molto importante che l’Archeologia sia affiancata da altre discipline scientifiche maggiormente specializzate in specifici settori di ricerca, tendenzialmente lontani dalla metodologia di lavoro tipica dall’archeologo tradizionale, ma capaci di integrare in maniera determinante i risultati ottenuti dall’Archeologia tradizionale, arrivando ad ottenere una valutazione più completa dei molteplici aspetti della vita degli individui che facevano parte delle antiche comunità che hanno popolato il pianeta dal Palelitico in poi. In particolare è noto che il cielo con i suoi fenomeni ha rivestito una fondamentale importanza nella vita quotidiana e nella sfera del sacro che era tipica dell’uomo antico e la comprensione di questo aspetto importante delle antiche culture può integrare in maniera determinate le conoscenze delle antiche culture che ci derivano dall’analisi dei reperti archeologici che gli scavi ci restituiscono. La disciplina capace di realizzare questo esiste e si chiama Archeoastronomia. Attualmente gli studiosi chiamano Archeoastronomia (taluni preferiscono Astroarcheologia o Paleoastronomia) la scienza che studia i reperti archeologici che testimoniano in qualche modo l’esistenza di un’attività di osservazione e studio dei corpi celesti portati avanti da individui appartenuti alle culture antiche. Per Archeoastronomia possiamo quindi intendere la disciplina che si occupa dello studio e della comprensione delle conoscenze astronomiche diffuse presso i popoli antichi in tutte le loro forme e aspetti e del loro rapporto con la vita sociale, religiosa e rituale all’interno delle antiche comunità. Sotto questo aspetto qualche studioso preferisce il termine “Astronomia Culturale”. L’Archeoastronomia è una disciplina giovane in quanto nasce solo intorno al XVI e XVII secolo quando alcuni studiosi incominciarono ad intravvedere l’esistenza di possibili collegamenti astronomici nei reperti litici quali i monumenti megalitici sparsi per tutta l’Europa settentrionale e occidentale, nelle piramidi egizie o in altre costruzioni risalenti al Neolitico e all’eta del Bronzo. L’interesse per queste cose, seppur in misura molto limitata, continuò anche nel XVIII e XIX secolo. Uno dei maggiori studiosi fu Sir Norman Lockyer, che intorno alla metà del 1800, portò a termine alcune ricerche sulle piramidi egiziane e sui monumenti megalitici europei, suggerendo la loro possibile orientazione astronomica e pubblicando nel 1898 il suo libro dal titolo “The Dawn of Astronomy”. Sir Norman Lockyer fu praticamente il primo studioso che affrontò il problema mediante strumenti matematici e non solamente utilizzando mezzi puramente filologici. Le ricerche e i risultati ottenuti dall’illustre fisico e astronomo britannico, a cui tra l’altro dobbiamo la scoperta delle righe dell’Elio nello spettro solare, non furono presi in seria considerazione anche per il fatto che egli propose l’Astronomia come metodo indipendente di datazione dei reperti, cosa questa che sappiamo essere possibile solamente in un ristrettissimo insieme di casi particolari. La datazione dei reperti archeologici sulla base del riconoscimento della presenza di correlazioni con gli eventi astronomici avvenuti durante l’antichità è caratterizzata generalmente da un margine d’errore talmente elevato da rendere questo metodo quasi completamente privo di utilità. Questi studi conobbero un nuovo sviluppo negli anni intorno al 1960 durante i quali personaggi quali gli inglesi Michael Hoskin e Alexander Thom, l’americano Gerald Hawkins e altri diedero nuova vita a questa disciplina con il supporto di nuove scoperte archeologiche e di nuovi metodi di indagine. In questo periodo le metodologie di rilevazione e di analisi si arricchirono di un nuovo strumento di lavoro: il computer il quale permise di generare facilmente cataloghi di stelle le cui coordinate potevano essere trasposte in blocco molto indietro nel tempo in relazione alla datazione dei siti di interesse archeoastronomico ottenuta mediante nuove tecnologie quali quella ad esempio che si basa sul tempo di dimezzamento del C14, un isotopo del Carbonio. Considerando le metodologie e le tecniche utilizzate durante quegli anni rileviamo la generale e diffusa tendenza a sopravvalutare le capacità astronomiche degli uomini antichi. Infatti vagliando la letteratura dell’epoca si ha spesso l’impressione che più che mettere in risalto ciò che gli esponenti delle antiche culture avevano imparato ed erano correntemente in grado di fare nel campo dell’Astronomia, gli studiosi siano caduti nell’errore di riflettere il loro bagaglio culturale astronomico moderno nel modo di intendere la Scienza del Cielo proprio degli antichi. Questo fatto fu messo in evidenza negli anni ’70 inizialmente da Clive Ruggles in Inghilterra e da Antony Aveni negli Stati Uniti e attualmente l’atteggiamento degli archeoastronomi si è decisamente modificato in meglio permettendo una visione più chiara e un’interpretazione maggiormente costruttiva dei reperti e dei siti archeologici astronomicamente importanti. Lo studio dell’Archeoastronomia deve obbligatoriamente basarsi su fonti che devono essere il più possibile oggettive; infatti non si deve correre il rischio di vedere tracce di Astronomia in qualsiasi reperto archeologico. Esistono sostanzialmente tre tipi di fonti a cui si può fare riferimento. Esse sono i reperti oggettivi, i reperti scritti intesi in senso generale e i reperti etnografici. I reperti oggettivi sono tutti quei reperti i quali sono fisicamente accessibili ed in quanto tali possono essere ispezionati, rilevati studiati e misurati. Tra questi abbiamo ad esempio i monumenti megalitici diffusi in tutta l’Europa centro-occidentale, i santuari dell’età del Ferro, prevalentemente costruiti dai Celti, le necropoli risalenti sia all’età del Bronzo che a quella del Ferro che ai periodi romano e altomedioevale. Esistono poi i reperti scritti che comprendono tutto ciò che è stato direttamente registrato mediante la scrittura o quantomeno le arti figurative. Tra di essi, considerati in senso generale, troviamo i testi antichi redatti mediante la scrittura vera e propria, i petroglifi e le incisioni rupestri i quali rappresentano pur sempre una importante forma espressiva e i calendari redatti in forma oggettiva. Rimangono poi da considerare i reperti etnografici i quali comprendono tutto il bagaglio di conoscenze e tradizioni popolari tramandate spesso solo oralmente di generazione in generazione e giunti in questo modo fino ai giorni nostri. In questo caso l’informazione contenuta è andata via via modificandosi ogni qualvolta sia avenuto il processo di trasmissione orale da una generazione alla successiva. Questo fatto ha purtroppo contribuito talvolta a corrompere parzialmente o totalmente il contenuto originale di informazione. I reperti etnografici quindi comprendono tra l’altro le usanze e le tradizioni, tramandate spesso oralmente, traccia delle quali è spesso possibile trovarla interrogando le persone anziane che vivono nelle nostre campagne, i metodi pratici di misura del tempo e le antiche festività agricole e pastorali. L’analisi dei reperti oggettivi deve quindi essere accompagnata da una contemporanea e adeguata conoscenza dei corrispondenti aspetti etnografici propri della cultura presso cui sono stati prodotti. Il punto di partenza base di qualsiasi speculazione in campo Archeoastronomico è la conoscenza del cielo visibile all’epoca in cui il reperto fu prodotto e nel luogo in cui il reperto è (o era) fisicamente ubicato. Varia e complessa è la problematica relativa alla simulazione del cielo visibile presso un dato punto del pianeta ed in corrispondenza di una determinata epoca generalmente molto remota. Prima di tutto è necessario avere a disposizione un buon simulatore delle posizioni degli oggetti celesti capace di trasporre le posizioni da un’epoca all’altra in maniera sufficentemente accurata. Per quanto riguarda il Sole e le stelle esistono dei buoni algoritmi di calcolo, ma per quanto riguarda la Luna la situazione diventa molto più complicata a causa delle irregolarità e della complessità del suo moto. In ogni caso una ricerca seria deve presupporre sempre una conoscenza molto approfondita del software che viene utilizzato per eseguire le simulazioni e delle sue caratteristiche pena arrivare a conclusioni completamente errate e prive di fondamento. Un altro potente mezzo di indagine è rappresentato dall’applicazione delle tecniche statistiche all’analisi dei reperti. L’analisi statistica è però possibile solamente qualora il numero dei campioni che costituiscono l’insieme dei reperti sia sufficentemente elevato. Se il numero dei campioni è limitato viene violato uno dei requisiti fondamentali per poter applicare le tecniche statistiche. In questo caso è ben difficile riuscire ad ottenere risultati degni di fede. La carenza di campioni è un problema cronico in Archeoastronomia. I campioni disponibili devono essere non solo numerosi, ma anche statisticamente significativi. Facciamo un esempio. Supponiamo che l’insieme dei reperti sia costituito da un gruppo di sepolture facenti parte di una necropoli antica. L’obbiettivo sia, ad esempio, analizzare la distribuzione degli assi delle singole sepolture con lo scopo di verificare se esistono o meno orientazioni preferenziali e in un secondo tempo, se le direzioni così individuate possono o meno essere astronomicamente significative. In questo caso il numero di oggetti (tombe) deve essere abbastanza elevato (diciamo almeno 20 o 30) altrimenti sarà ben difficile costruire sperimentalmente una distribuzione di frequenze sufficentemente sicura da poter fornire indicazioni affidabili. D’altra parte dobbiamo tener presente che se anche la necropoli fosse composta solamente da sepolture prodotte da una singola popolazione, la loro distribuzione cronologica potrebbe essere abbastanza ampia. In questo caso differenti sezioni della necropoli potrebbero essere state sviluppate in epoche sensibilmente differenti durante le quali i criteri di sepoltura potevano essere variati più volte con il trascorrere dei secoli. In questo caso analizzare tutta la necropoli nel suo complesso equivarrebbe ad utilizzare un campione statistico di scarsa significatività e i risultati che si otterranno non potranno essere considerati degni di fede. Dobbiamo comunque ricordare che in Archeoastronomia l’omogeneità e la significatività dei campioni statistici sono requisiti fondamentali, ma spesso difficilmente raggiungibili. Un notevole passo avanti può essere fatto sostituendo le tecniche statistiche con quelle basate sulla cosiddetta “Fuzzy Logic”. In questo caso è possibile affrontare con successo situazioni tipiche in campo archeoastronomico e cioè situazioni e problemi di interpretazione in cui il grado di incertezza inerente è talmente elevato da precludere il raggiungimento di risultati affidabili mediante la Statistica. In questo caso l’incertezza risiede proprio nel fenomeno che si cerca di interpretare e non nel metodo adottato per interpretarlo. Alcuni esempi di queste particolari situazioni, comuni in Archeoastronomia sono i seguenti. L’identificazione dei corpi celesti (Sole, Luna, Stelle e Pianeti) verso i cui punti di sorgere e/o tramontare all’orizzonte locale osservabile presso un sito archeologico di rilevanza astronomica, potevano essere in origine stati diretti gli allineamenti che rileviamo in quel sito. In apparenza questo problema sembrerebbe di semplice ed immediata soluzione, ma non lo è. Ad esempio all’interno del fossato che circonda il santuario celto-germanico di Libenice, a 9 Km da Praga esistono 35 buche nelle quali in origine erano infissi dei pali che con grande probabilità servirono per definire le direzioni verso le quali la levata o il tramonto di talune stelle potevano essere osservate dai Druidi della tribù celtica dei Boi, in corrispondenza di talune date lungo il corso dell’anno, intorno al 500 a.C. In questo caso il grado di incertezza inerente è molto elevato in quanto molti oggetti celesti, per lo più stelle, potrebbero essere candidati significativi ad essere il reale obbiettivo dell’allineamento. La corretta identificazione di questi oggetti trascende l’impiego delle usuali tecniche statistiche, ma la Logica Fuzzy permette di ottenere valide risposte tenendo sempre ben presente il grado di indeterminazione (fuzziness) tipico del problema sul tappeto. A questo proposito è bene ricordare che talvolta si legge di studi eseguiti cercando di far collimare gli allineamenti con i punti di sorgere o di tramontare di qualche astro all’orizzonte astronomico locale del sito considerato. Spesso il profilo dell’orizzonte fisico, costituito dal profilo delle alture disposte lungo l’orizzonte locale non viene preso in considerazione. In questo caso possono essere introdotti errori nel valore effettivo dell’azimuth di sorgere e/o tramontare degli astri dietro le colline a cui l’allineamento potrebbe essere stato diretto oppure, all’opposto, si giunge ad associare all’allineamento l’astro sbagliato. Se possiamo ammettere che il profilo del rilievo montuoso nella maggioranza dei casi si sia conservato tale e quale attraverso i secoli e i millenni, non è altrettanto vero per quanto riguarda il grado di forestazione. La foresta poteva essere anticamente presente, ma ora non esserlo più o viceversa, questo introduce un errore che può essere astronomicamente molto significativo e che dipende dall’altezza della vegetazione originariamente presente e dalla distanza delle alture dal sito. Infatti, tanto per fare un esempio, alla latitudine di 45 gradi trascurare l’altezza dell’orizzonte fisico rappresentato da una collina alta un grado d’arco corrisponde a commettere un errore altrettanto grande nel calcolo dell’azimuth di prima visibilità alla levata o quello di ultima visibilità al tramonto di un astro, equivalente grosso modo al doppio delle dimensioni angolari apparenti del disco solare o lunare. La situzione è comunque ancora più complessa e sfavorevole in quanto l’osservazione del sorgere degli astri è contrastata dal fenomeno dell’estinzione atmosferica in quanto l’osservazione è compiuta al livello dell’orizzonte. L’estinzione atmosferica dipende dalla trasparenza dell’aria in direzione dell’astro osservato e ne deriverà un assorbimento della luce della stella che dipende dal grado di purezza e di trasparenza dell’atmosfera in quel momento, dal colore dell’oggetto e dalla sua magnitudine visuale apparente, cioè la sua luminosità che possiamo osservare con i nostri occhi. Una teoria adeguata capace di descrivere in maniera sufficentemente accurata questo fenomeno è molto difficile da sviluppare in quanto le variabili in gioco sono molte e tutte difficilmente quantificabili in maniera adeguata. I parametri sono anche rapidamente variabili in maniera spesso completamente impredicibile. Dal punto di vista archeoastronomico la situazione è tale per cui non è più corretto parlare di azimut di sorgere o di tramontare di un astro, ma è più adeguato parlare di altezza di “prima” o di “ultima” visibilità e quindi dei corrispondenti azimut proiettati sull’orizzonte fisico locale. Infatti una stella che sorge rimarrà invisibile all’osservatore fintanto che la sua altezza sull’orizzonte avrà raggiunto un valore minimo tale per cui l’assorbimento atmosferico non sarà più in grado di assorbire completamente la luce proveniente dalla stella durante l’attraversamento degli strati di atmosfera terrestre interposti tra l’osservatore e l’astro. Quella particolare altezza sarà denominata “altezza di prima visibilità” e il suo valore sarà fortemente variabile di giorno in giorno e di ora in ora, anche di parecchi gradi. Variando l’altezza varierà in relazione anche “l’azimut di prima visibilità” in modo altrettanto rapido, casuale e notevole. Gli antichi uomini che decisero di orientare un allineamento verso il punto di prima o di ultima visibilità di una determinata stella non potevano definire una posizione univoca sul loro orizzonte locale, ma solamente individuare un particolare segmento di esso e verso quel segmento dirigere la linea di pietre o di pali o l’asse di una tomba. è possibile calcolare che le dimensioni di quel segmento di orizzonte dipendono dai coefficenti di estinzione atmosferica locale e dalla magnitudine visuale apparente della stella verso cui si desidera orientare l’allineamento in quanto più debole è la stella e maggiormente la sua luce sarà affetta dai problemi derivanti dall’ottica atmosferica. Un’altro problema in cui l’ottica atmosferica gioca un ruolo determinante è rappresentato dal riconoscimento degli allineamenti orientati in modo da essere diretti verso i punti dell’orizzonte in corrispondenza del quale gli astri sorgevano o tramontavano eliacalmente. La data della levata eliaca di un astro è il primo giorno dell’anno in corrispondenza del quale è possibile osservare l’astro poco prima che venga offuscato dalla luce del Sole prossimo al sorgere. Analogamente la data di tramonto eliaco è l’ultimo giorno in cui l’astro può essere osservato visualmente di prima sera poco prima di essere raggiunto dai bagliori del Sole. Al calcolo della data teorica di levata o tramonto eliaci di una stella in corrispondenza di una determinata località geografica, in una certa epoca nell’antichità sembrerebbe a prima vista solamente una questione di Astronomia Sferica e quindi risolvibile calcolando gli opportuni archi e angoli sulla sfera celeste. Infatti basterebbe calcolare la longitudine eclittica del Sole in corrispondenza della quale, sia esso che la stella si trovino in particolari posizioni reciproche rispetto all’orizzonte locale. Dalla longitudine eclittica del Sole si potrebbe ricavare la data della levata o del tramonto eliaci per la stella considerata. Il metodo è matematicamente corretto, ed è geometria pura, e cosi fu applicato fino ai giorni nostri dagli studiosi, però funzionerebbe bene solamente se la Terra fosse priva di atmosfera, potremmo definirlo un “Crystal Ball Method” in quanto suppone la sfera celeste che siamo in grado di osservare ad occhio nudo come fosse una splendida e purissima palla di cristallo. Un modello più sofisticato e più realistico deve tenere conto sia delle proprietà ottiche dell’atmosfera sia degli effetti prodotti dalla diffusione della luce solare al crepuscolo, sia delle caratteristiche neurofisiologiche del sistema visivo umano in quanto nell’antichità i fenomeni eliaci erano ovviamente osservati solamente ad occhio nudo. In questo caso solo una rete neuronale artificiale può riprodurre con sufficente approssimazione quello che veramente accade e quindi essere in grado di fornire una consistente valutazione del giorno dell’anno in corrispondenza del quale avveniva la levata o il tramonto eliaco di una stella di data magnitudine visuale apparente in una determinata epoca antica. Ritorneremo più oltre su questo argomento, ma ora dobbiamo considerare un’altro problema fondamentale e cioè quello relativo a cosa sia in realtà un “allineamento” diretto verso un “determinato punto dell’orizzonte locale”. Praticamente tutta l’Archeoastronomia è fondata sulla nozione di allineamento che potremmo sintetizzare mediante la seguente definizione formale: “un allineamento è un segmento orientato che interseca la linea dell’orizzonte astronomico locale in un punto”. Questa definizione è formalmente esatta, ma ben poco operativa dal punto di vista pratico. Gli allineamenti che possiamo rilevare nei siti di interesse archeoastronomico possono essere di due tipi: allineamenti esatti e allineamenti simbolici. Gli allineamenti di monoliti o buche di palo sono stati in passato considerati come realizzazioni statistiche di direzioni esatte orientate verso precisi punti dell’orizzonte locale. L’errore di posizionamento era, secondo questo modo di vedere le cose, descrivibile in termini di variabili casuali che ammettono una funzione Densità di Probabilità, quindi l’analisi del sito poteva procedere con l’impiego di metodi basati sulla Statistica, e quindi sulla tradizionale Teoria della Probabilità. Vedremo ora perché questo approccio è metodologicamente e concettualmente scorretto. Gli allineamenti simbolici richiedono invece solo che il posizionamento dei marcatori (monoliti e/o pali) fosse disposto già in origine in maniera grossolana, non per cattivo lavoro da parte dei costruttori, ma perché non esisteva la reale necessità di costruirli esattamente diretti verso un determinato punto dell’orizzonte locale dove sorgeva o tramontava un astro. Allineamenti di questo tipo non sono trattabili mediante gli usuali metodi statistici, ma richiedono l’applicazione di tecniche basate sulla Logica Fuzzy che sostituiscono alla nozione di Probabilità quella di Possibilità e che forniscono gli strumenti matematici necessari al trattamento delle informazioni secondo questa differente ottica. In realtà possiamo facilmente renderci conto che gli allineamenti “esatti” non esistono in quanto nulla ci autorizza a ritenere la disposizione dei monoliti o delle buche di palo che rileviamo in un sito come affetti da errori casuali. Gli allineamenti saranno quindi del tutto frutto di disposizioni simboliche dei mercatori che li definiscono e gli errori rispetto alle direzioni vere (che tra l’altro è proprio quello che ci si prefigge di determinare con l’indagine archeoastronomica) non è detto che siano tali, ma potrebbero essere frutto di un deliberato criterio adottatto dai primi uomini nel disporli. Come trattare simili situazioni, nel momento in cui l’analisi dei dati richiede per forza di cose di eseguire alcune valutazioni, il più oggettive possibile, ad esempio, dell’incertezza con cui un allineamento definito da due o più monoliti (o buche di palo) è in grado di materializzare sul terreno una determinata direzione (non necessariamente astronomicamente significativa) stabilita dal suo azimut astronomico (geodetico) misurato in, senso orario, rispetto alla direzione settentrionale del meridiano astronomico locale. Il metodo più efficace attualmente utilizzabile è il M.I.R. (Minimo Inviluppo Rettangolare), basato su concetti di Logica Fuzzy e sviluppato negli ultimi anni da A. Gaspani e le cui potenzialità non sono ancora state completamente esplotrate, per cui le ricerche sono ancora in corso. La Logica Fuzzy introdotta da Lofti Zadeh nel 1965, sostituisce alla nozione di “Probabilità” quella di “Possibilità” e a quella di “Distribuzione di Probabilità” quella di ” Funzione di Appartenenza” (ad un insieme fuzzy). L’analisi di un allineamento presente in un sito procederà qiundi calcolando non più la probabilità che esso sia diretto verso il punto di sorgere (o tramontare) di un certo astro ad una certa data lungo l’anno, bensì la possibilità che il punto individuato dall’allineamento sia in relazione con un astro o un gruppo di astri che sorgevano tutti nelle immediate vicinanze di quel punto dell’orizzonte locale ad una certa epoca. Ciascuna stella costituisce il centro di un insieme fuzzy (fuzzy set) e ogni allineamento rappresenta un punto all’interno di uell’insieme. L’insieme ha i contorni “sfumati” (fuzzy) in quanto non possiamo sapere quale fosse in origine il criterio simbolico adottato da chi costruì il sito in esame e se un allineamento risulta correlato con un astro oppure con una stella ad esso vicina sulla sfera celeste. Pur non avendo un confine ben definito siamo obbligati comunque a stabilire, per ragioni pratiche, una dimensione per gli insiemi fuzzy (fuzzy sets) utilizzati durante la rilevazione e l’analisi di un sito. Molti fattori condizionano la dimensione di un insieme, tra di essi alcuni rivestono particolare importanza. Il primo è l’incertezza sulla collocazione cronologica del sito. Infatti l’azimut teorico di sorgere e/o tramontare di un astro può variare per effetto della precessione degli equinozi che cambia la sua declinazione. Questa variazione è lenta per il Sole e la Luna in quanto la variazione delle loro declinazioni estreme è condizionata principalmente dalla lenta oscillazione dell’obliquità dell’eclittica il cui ciclo di pochi gradi di ampiezza si compie in poco più di 41000 anni, quindi i punti di levata e di tramonto del Sole ai solstizi e agli equinozi e della Luna ai lunistizi si spostano sull’orizzonte astronomico locale in maniera molto lenta. Questo fa si che in 1000 anni tali posizioni non varino di molto in corrispondenza di una determinata località geografica. Nel caso delle stelle invece la variazione precessionale della declinazione è più elevata essendo il periodo precessionale prossimo ai 26000 anni e l’ampiezza di variazione maggiore. Durante l’analisi di un sito è necessario disporre almeno di un valore approssimativo (ma non troppo in errore rispetto al vero) dell’epoca in cui il sito fu costruito oppure della fase archeologica in corrispondenza della quale furono disposti i marcatori che definiscono gli allineamenti da studiare. Talvolta buone datazioni basate sul C14 sono disponibili, ma non sempre è così per cui nella maggioranza dei casi abbiamo a disposizione non un’epoca media bensì un intervallo ampio anche un secolo o più nel quale gli archeologi collocano cronologicamente il sito o la fase che ci interessa. Ciascun valore temporale compreso nell’intervallo indicato è caratterizzato dalla medesima probabilità di essere quello buono, sia che sia situato in mezzo all’intervallo sia che ne sia agli estremi. L’ampiezza dell’intervallo di datazione corrisponde sull’orizzonte ad un segmento entro cui poteva essere visto sorgere o tramontare l’astro che poteva essere connesso con l’allineamento presente nel sito. Appropriate formule di Astronomia Sferica ci permettono di determinare tale intervallo entro cui potrebbero sorgere o tramontare vari astri diversi i quali hanno tutti la stessa possibilità di essere stati ritenuti importanti dai costruttori dell’allineamento in esame. Le variazioni di azimut crescono andando dall’equatore ai poli della Terra quindi maggiore è la latitudine geografica del sito, maggiore sarà lo spostamento dei punti di levata e di tramonto della stella. Generalmente sul territorio europeo i siti archeoastronomici sono posti frequentemente a latitudini elevate, dai 45 a oltre 60 gradi quindi l’incertezza sulla datazione del sito condiziona in maniera rilevante l’affidabilità dei risultati potenzialmente ottenibili. Il secondo fattore di “fuzziness” è rappresentato dall’incertezza insita nella disposizione dei marcatori (monoliti, buche di palo o altro), quale fu ideata da chi li dispose, la quale introduce un ulteriore quanto inevitabile segmento d’errore associato all’azimut teoricamente identificato dall’allineamento. Il terzo fattore di incertezza risiede nella scarsa conoscenza del profilo dell’orizzonte fisico all’epoca alla quale il sito risale e della sua altezza apparente rispetto all’orizzonte astronomico locale. In questo caso possono essere introdotti errori nel valore teorico dell’azimut di sorgere e/o tramontare degli astri. Questo problema è in parte risolvibile con la rilevazione, passo passo, mediante un teodolite o, in modo meno accurato mediante il clinometro, del profilo dell’orizzonte fisico locale visibile dal sito in studio. Spesso però questo lavoro di rilevazione non è possibile in quanto l’edilizia residenziale moderna può avere modificato in maniera sostanziale il profilo dell’orizzonte visibile rendendolo completamente diverso da quello antico, o a causa di altre ragioni. Il quarto fattore di incertezza risiede nelle presenza di errori sistematici nell’orientazione delle planimetrie e delle griglie di scavo pubblicate dagli archeologi che possono talvolta arrivare anche a qualche grado. Generalmente la via più sicura è quella di ripetere le misure di orientazione direttamente sul campo impiegando strumentazione moderna e affidabile e tecniche rigorose, ma talvolta ciò non è possibile in quanto, come accade spesso nel caso delle necropoli dell’eta del Bronzo e del Ferro, esse non esistono più e al loro posto attualmente si trovano case e palazzi costruiti dopo che il luogo è stato “archeologicamente bonificato” come dicono gli imprenditori nel campo dell’edilizia, cioè dopo che tutti i reperti sono stati rimossi dalle loro sedi originali e trasportati nei musei. Appare immediatamente evidente quale e quanta informazione sia stata in questo modo distrutta ed irrimediabilmente persa. In questo caso è necessaria un’accurata analisi delle planimetrie originali degli scavi e quasi sempre risulta indispensabile un colloquio con coloro che le redassero, qualora ciò sia possibile. L’errore sistematico di orientazione planimetrica si traduce direttamente nel corrispondente errore sistematico in tutti gli azimuth degli allineamenti presenti nel sito considerato. Il quinto fattore di incertezza è legato ai problemi derivanti dall’ottica dell’atmosfera della Terra. Infatti gli effetti dovuti alla Rifrazione ed all’Estinzione sono molto pesanti in corrispondenza di ridotte altezze sull’orizzonte locale e bisogna tenerne conto nel calcolo degli azimut teorici di levata e di tramonto degli astri che potrebbero essere stati importanti per gli uomini che anticamente operarono nel sito considerato. Tutti questi fattori e altri ancora, introducono tanti e tali errori nelle valutazioni che devono essere eseguite durante l’analisi dei siti e dei reperti di interesse archeoastronomico che risulta estremamente facile arrivare a dei risultati che a prima vista sembrerebbero accettabili, ma che ad un esame più approfondito risultano successivamente solo frutto di errori sistematici nei criteri adottati dallo studioso durante l’analisi del sito o del reperto in questione. Appare quindi evidente che lo sforzo teso a mettere a punto tecniche molto raffinate e ad applicarle praticamente alla fine ripaga con il raggiungimento di risultati degni di fede. Le reti neuronali artificiali si sono rivelate un mezzo molto efficace per affrontare e risolvere i problemi archeoastronomici affetti da tutte queste situazioni di incertezza quindi è necessario dire qualcosa in più relativamente ad esse. Durante gli ultimi anni sono andate affermandosi nuove metodologie utili alla soluzione di molti problemi matematici la cui complessità è tale da non essere affrontabili in maniera adeguata mediante tecniche basate su algoritmi dotati di una struttura predefinita. Tra queste nuove tecniche vanno annoverate quelle basate sulle reti neuronali artificiali e sui sistemi neuro-fuzzy. Un algoritmo dotsto di struttura predefinita prevede una sequenza finita di operazioni da eseguire fissata in anticipo e generalmente scelta in relazione al problema da risolvere. Un algoritmo di questo genere, una volta codificato in un programma per computer, è in grado di risolvere solamente un determinato problema o una limitata classe di problemi molto simili a quello per cui l’algoritmo è stato originalmente progettato. Le reti neuronali artificiali invece si basano su un principio completamente differente. Esse tentano di simulare, per ora in modo ancora abbastanza grossolano, ma con buone prestazioni, il modo con cui la corteccia cerebrale del cervello degli esseri viventi analizza ed elabora le informazioni sensoriali provenienti dall’ambiente circostante. In questo caso il metodo di analisi dell’informazione non prevede più una sequenza prefissata di operazioni strettamente legate alla natura del problema da risolvere e da eseguire secondo uno schema rigido e fissato in anticipo, ma solamente alcune semplici regole di calcolo del tutto generali che nulla hanno direttamente a che fare con il problema sul tappeto, ma che permettono alla rete neuronale artificiale di “imparare” a risolvere quel problema dopo che le si è presentato in ingresso un campionario più vasto possibile di dati iniziali e di corrispondenti soluzioni corrette. In altri termini, una rete neuronale artificiale deve essere preventivamente “addestrata” a risolvere un dato problema o una classe di problemi nello stesso modo in cui un essere vivente apprende la metodologia più efficace per trarre informazioni utili dalla elaborazione dagli stimoli provenienti dall’ambiente che lo circonda. Successivamente quando l’addestramento sarà sufficentemente avanzato le reti neuronali artificiali saranno in grado di risolvere con successo non un solo problema, come avviene negli algoritmi tradizionali, ma gran parte dei problemi appartenenti alla stessa classe a cui i dati utilizzati per l’addestramento si riferiscono. Un’altro campo in cui le prestazioni delle reti neuronali artificiali risultano superiori è quello dell’automatizzazione delle procedure di analisi per mezzo di sistemi intelligenti in grado di decidere (dopo una opportuna fase di addestramento su soluzioni note) quale sia la via più conveniente da seguire per analizzare un determinato reperto archeologico mettendo in evidenza se il reperto abbia o meno rilevanza astronomica. Nei paradigmi neuronali artificiali NON è rigidamente pre-codificato un insieme finito e rigido di criteri o scelte possibili come accade per le applicazioni basate sull’Intelligenza Artificiale. In questo caso la macchina neuronale artificiale è in grado di compiere scelte autonome sulla base del suo grado di addestramento e non dei rigidi criteri di valutazione inseriti soggettivamente del loro programmatore. Qualora un problema risolvibile mediante una rete neuronale artificiale contenga una elevata quantità di incertezza inerente è possibile, codificare un paradigma neuronale basato sulla logica fuzzy e applicarlo con successo alla soluzione di problemi di rilevamento e interpretazione dei siti che potrebbero essere significativi dal punto di vista archeoastronomico. In Archeoastronomia abbondano i problemi che risultano essere molto adatti ad essere affrontati mediante le reti neuronali artificiali e la logica fuzzy. Vediamo ora alcuni esempi di problemi in cui tale approccio risulta essere molto vantaggioso. L’analisi automatizzata della distribuzione spaziale delle sepolture all’interno di una necropoli antica richiede di identificare sepolture che presentano caratteristiche tali da suggerire l’esistenza di correlazioni tra di loro. Le necropoli corrispondono quasi sempre a luoghi sacri dove la frequentazione risulta distribuita su periodi cronologici che si possono estendere anche per alcuni secoli. Ad esempio la necropoli paleocristiana del Priamar, a Savona, comprende sepolture che vanno dal terzo al settimo secolo dopo Cristo. Periodi di frequentazione simili possono essere rilevati nel caso delle necropoli celtiche della Marna o della Champagne, in Francia che si svilupparono dal V al III secolo a.C. oppure nel caso di quella di Casalecchio di Reno presso Bologna in cui la comunità celtica dei Boi seppellì i propri defunti per circa 200 anni. Usualmente è possibile stabilire correlazioni tra gruppi di sepolture appartenenti allo stesso clan o agli stessi gruppi famigliari entro determeninati segmenti cronologici basandosi sulla presenza di elementi comuni nel corredo funerario reperito entro ciascuna sepoltura. Talvolta ciò non è possibile a causa della povertà delle sepolture e della conseguente carenza negli elementi di corredo. In questo caso la distribuzione spaziale e l’orientazione delle singole sepolture possono essere caratterizzate da elementi comuni che le reti neuronali artificiali sono in grado di rilevare con estrema efficenza arrivando a classificare ciascuna sepoltura in una delle varie classi possibili a seconda della posizione reciproca rispetto a quelle vicine e alla loro orientazione rispetto alle direzioni astronomiche fondamentali. La stima dell’orientazione globale di una necropoli antica nel suo complesso e l’identificazione delle linee di sviluppo topografico lungo i secoli sono problemi che sono stati efficentemente affrontati e brillantemente risolti mediante l’applicazione di particolari reti neuronali artificiali denominate estrattrici di componente principale. In questo caso il vettore che definisce la componente principale è legato, mediante rigorosa teoria, all’azimut che identifica la direzione complessiva di orientazione dell’intera necropoli rispetto al meridiano astronomico locale. Un esempio emblematico è stata la determinazione della direzione globale di sviluppo della necropoli romana, ad incinerazione, risalente all’epoca augusto-tiberina situata a Curno, un sobborgo di Bergamo in cui tutte le usuali tecniche di regressione lineare fallirono, mentre una rete neuronale artificiale fu in grado di determinare una soluzione stabile risultata poi concorde con i criteri di centuriazione romana che erano stati applicati in quel luogo in età augusto-tiberina. Un altro caso emblematico è stata l’analisi di “Ale Stenar”, ovvero la “Nave di Ale”, la tomba di un capo vichingo situata nella regione dello Scania (Svezia Meridionale), risalente circa all’anno 1000 e formata da monoliti disposti a formare il profilo simbolico di una nave. Anche in questo caso l’analisi eseguita con tecniche neuronali artificiali risultò vincente rispetto alle tecniche statistiche usuali. La costruzione sperimentale della Funzione Densità di Probabilità direttamente sulla base dei reperti disponibili quando i campioni sono scarsi o poco omogenei è un’altro problema brillantemente affrontabile e risolvibile mediante le reti neuronali artificiali cosiddette “a Base Radiale” per via delle proprietà matematiche delle funzioni da esse impiegate. Queste tecniche sono state impiegate con successo nell’analisi dei grandi recinti quadrangolari rituali celtici, i cosiddetti “Viereckschanzen” sparsi per tutta l’Europa centrale, gran parte dei quali risultarono così astronomicamente orientati. L’analisi eseguita mediante tecniche statistiche convenzionali avrebbe potuto mettere in evidenza tali orientazioni pressappoco allo stesso modo, ma l’impiego delle reti neuronali artificiali e della logica fuzzy ha permesso di estrarre i criteri generali di orientazione comuni alla grande maggioranza dei “Viereckschanzen” secondo la distribuzione geografica, mettendo in evidenza la notevole similitudine dei criteri costruttivi adottati da differenti tribu celtiche presenti sul territorio europeo durante la seconda metà dell’età del Ferro. Un altro problema interessante riguarda la discriminazione tra allineamenti di natura puramente architetturale da allineamenti possibilmente astronomicamente significativi. In questo caso esistono configurazioni di marcatori, soprattutto buche di palo, la cui regolarità e la cui ridotta distanza reciproca suggerirebbero una maggior probabilità di impiego architettonico (per esempio pali destinati a sostenere una struttura di copertura) che di uso astronomico (pali infissi per definire direzioni e allineamenti). In questo caso non esistono regole fisse per discriminare per cui generalmente è l’esperienza dell’archeologo a risultare determinante. Infatti il parametro che risulta essere di fondamentale importanza in questo contesto è il grado di regolarità della configurazione delle buche e la loro distanza reciproca, in parole tecniche l’Entropia della configurazione rilevata sul terreno. In un simile contesto un sistema neuro-fuzzy convenientemente addestrato è in grado di riconoscere le configurazioni e valutare la probabilità di significatività architetturale e di lasciare aperta o meno la via a successive indagini archeoastronomiche. Va prestata attenzione anche al fatto che nonostante alcuni pali potessero essere parte di una semplice costruzione, quindi architettonicamente ignificativi, l’intera costruzione potrebbe essere astronomicamente orientata. Un caso emblematico è rappresentato dai piccoli santuari celtici di età lateniana i quali sono generalmente costituiti da un fossato quadrangolare di 6-10 metri di lato al centro del quale è generalmente posta la tomba di un personaggio di rilievo. Intorno alla tomba si rilevano, salvo rari casi, quattro buche di palo disposte con molta regolarità. Attualmente si pensa che potessere sostenere una copertura posta a protezione della tomba oltre che a delimitare uno spazio sacro il cui accesso era consentito solo agli esponenti della classe sacerdotale. Gli archeologi non sono però certi di ciò, ma i sistemi neuro-fuzzy che abbiamo impiegato per analizzare questi siti sembrerebbero confermare questa ipotesi. Oltre ad essere di probabile natura architetturale, le buche mostrano molto frequentemente disposizioni astronomicanemente orientate. Altri casi invece sono molto meno chiari quindi il ricorso a tecniche quali quelle descritte risultano molto utili a classificare correttamente i possibili allineamenti, entro il sito considerato, che potrebbero avere rilevanza astronomica.
|