Accastampato

Rivista di divulgazione scientifica realizzata dagli studenti di Fisica della Sapienza

Una vita spesa per la ricerca

Written By: Redazione - Feb• 19•14

I cambiamenti climatici e i sempre più frequenti eventi meteorologici estremi sottolineano l’importanza degli studi nel campo della fisica dell’atmosfera. Durante l’ultima sessione plenaria del primo gruppo di lavoro dell’IPCC (Intergovernmental Panel on Climate Change), tenutasi a Stoccolma alla fine del settembre scorso, sono state raggiunte conclusioni che mettono in luce gli effetti antropogenici sul sistema climatico e le loro conseguenze. Oltre 850 scienziati di tutto il mondo hanno analizzato migliaia di pubblicazioni scientifiche dal 2006 ad oggi, per un totale di oltre 9200 lavori su indicatori climatici, modelli e proiezioni: da questi lavori emerge che si è verificato un cospicuo aumento della temperatura media del pianeta e di quella superficiale dell’oceano, nonché del livello del mare, dei gas serra e degli aerosol atmosferici, associato a una generale diminuzione delle calotte polari, evidente sia in Artide che in Antartide. Secondo le ultime previsioni, se le emissioni di gas serra continueranno a crescere al ritmo attuale provocheranno un ulteriore aumento del riscaldamento del sistema climatico e, in un pianeta più caldo, gli eventi meteorologi estremi diventeranno più intensi e più frequenti.

Il filo conduttore di questo numero di Accastampato è proprio la ricerca nella Fisica Atmosferica e del Telerilevamento, letta anche attraverso il ricordo, a distanza di un anno e mezzo dalla scomparsa, del Professor Giorgio Fiocco, che ha speso gran parte della vita a studiare l’atmosfera ideando, progettando e costruendo alcuni degli strumenti tuttora usati nel telerilevamento ambientale.

“Salute!” era il buongiorno che Giorgio Fiocco rivolgeva a tutti entrando al 5° piano dell’edificio di Fisica “Enrico Fermi”. Nonostante l’età, e nonostante fosse in pensione da anni, non riusciva a stare lontano dal suo laboratorio, che in tanti anni di lavoro appassionato aveva contribuito a riempire di strumenti e attrezzatura di ogni genere. Se lo accompagnavi nel suo girovagare tra le stanze ti ritrovavi con lui nei ricordi di una vita spesa a far ricerca, nel bel mezzo della storia dello sviluppo della fisica dell’atmosfera degli ultimi 40 anni.

Il Prof. Fiocco era un fisico sperimentale dall’entusiasmo ancora vivacissimo, ben visibile nei suoi occhi insieme alla curiosità di scoprire cosa succedeva se si univano gli strumenti moderni con le vecchie idee. La carriera del Prof. Fiocco ci è raccontata nell’articolo del Prof. Fuà, che va dai primi periodi della laurea in Ingegneria Elettronica e delle esperienze estere, fino al rientro in Italia, lavorando all’università di Firenze, nel laboratorio ESRO del centro ESRIN a Frascati e poi alla Sapienza, dove alla carriera di ricercatore ha affiancato quella di docente. Durante gli anni di lavoro la sua curiosità lo ha spinto ad affrontare sfide sempre nuove e a cogliere ogni occasione che gli veniva offerta per fare ricerche nel campo del telerilevamento, settore in cui ci introduce il dott. Pace nel suo articolo.

Tra gli strumenti utilizzati dal gruppo G24 del Laboratorio di Fisica Terrestre figurano SODAR e LIDAR, due delle tipologie di strumenti scientifici che il Prof. Fiocco ha contribuito a sviluppare. Il primo utilizza le onde acustiche per sondare i bassi strati atmosferici, e ci viene descritto nell’articolo del dott. Mastrantonio, mentre del funzionamento del Lidar, e dell’avventura cominciata a Thule alla fine degli anni ’80, si parla nell’articolo del dott. di Sarra e del dott. Cacciani. Daniele Gasbarra ci porta invece ai piedi dell’Everest, nella base Ev-K2-CNR, una delle stazioni della rete SHARE, progetto di monitoraggio ambientale mirato alla comprensione dei processi di cambiamento climatico.

Tutti gli autori che hanno scritto gli articoli di questo numero provengo dal gruppo di geofisica della Sapienza. Alcuni di loro, pur lavorando per altri enti di ricerca, continuano a collaborare attivamente con il G24. Grazie ai tagli sempre più irragionevoli che lo Stato opera sui fondi destinati a università e ricerca, il curriculum di geofisica della laurea magistrale del nostro Dipartimento ha chiuso i battenti. Proprio ora che, di figure specializzate in questo settore, se ne sente sempre più il bisogno.

Buona lettura!

Anna Maria Iannarelli e Giampietro Casasanta

Giorgio Fiocco: un ingegnere dedicato alla fisica applicata

Written By: Redazione - Feb• 19•14

Dalla sua tesi del 1965 presso la Facoltà di Ingegneria dell’Università degli Studi di Roma in poi, Giorgio Fiocco è stato estremamente attivo in diversi settori sia di Ingegneria che di Fisica e il suo prestigio è ben riconosciuto per la sua affiliazione in accademie e per le sue posizioni come capo di importanti istituti di ricerca. Affermare che la maggior parte delle persone coinvolte nella fisica dell’atmosfera di tutto il mondo sa chi era Giorgio Fiocco non è un un’esagerazione. Coerentemente con la concezione di base di Fiocco che “la qualità è più importante della quantità“, la sua produzione cartacea non è così pesante (in senso letterale) come quella di altri colleghi nelle scienze fisiche, anche se supera il non trascurabile numero di 300 o giù di lì. In particolare si nota che alcuni dei suoi lavori sono la prima testimonianza pubblicata di alcune idee originali che hanno innescato un tale flusso di nuovi sviluppi e di produzione di articoli da quasi cancellare (colpevolmente) la memoria della sorgente originale.

Regno Unito

Appena laureato in Ingegneria Elettronica, Fiocco viene chiamato come ricercatore in una delle più note industrie di elettronica in quel momento, la Marconi Co. nel Regno Unito. Qui viene coinvolto in ricerche avanzate nei sistemi radar di assistenza alla navigazione e contribuisce a una serie di brevetti. Essendo nel settore privato, i suoi contributi di quel tempo sono pubblicati come rapporti interni, spesso segreti per questioni militari e della sua scienza lì a Marconi Co., non si hanno molte informazioni. Quello che è certo è che la Marconi Co., così come l’Inghilterra stessa, sono il trampolino di lancio con il quale Fiocco entra per la prima volta in contatto con il mondo reale e le affascinanti scienze applicate dopo i suoi anni universitari di preparazione sui libri. Da allora l’attrazione verso dispositivi come il radar, in grado di percepire oggetti lontani, non lo abbandona mai, anzi spinge continuamente il suo talento alla ricerca di soluzioni pratiche e brillanti di problemi sempre nuovi e stimolanti.

Stati Uniti d’America

È quasi ovvio affermare che per avere successo nella ricerca scientifica spesso non è sufficiente essere di talento, c’è bisogno anche di una certa dose di fortuna: in particolare occorre essere nel posto giusto al momento giusto. Questo è stato, per esempio, molto vero nel caso di Fiocco rispetto alla scoperta dell’effetto laser. Il primo laser viene costruito nel 1960 negli Stati Uniti e nel corso dei successivi 2-3 anni vengono inventati o scoperti vari tipi di laser, effetti laser e nuove applicazioni, ciascuna delle quali diventa il fondamento di campi di ricerca completamente nuovi. Due di queste applicazioni sono associate proprio al nome di Giorgio Fiocco.

All’inizo degli anni ’60 uno dei professori più noti del Dipartimento di Ingegneria Elettrica del MIT, Louis Smullin, già membro del Radiation Laboratory dove era stato sviluppato il primo Radar a Microonde, sceglie il giovane Fiocco per costruire uno strumento ottico attivo in grado di misurare la distanza dalla Luna: si tratta di uno dei primi radar ottici altrimenti chiamato LIDAR (acronimo di LIght Detection And Ranging, evidente derivazione dell’acronimo RADAR, RAdio Detection And Ranging). Se si tiene conto di quanto sarebbe stato difficile rilevare e identificare un esiguo numero di fotoni del fascio laser diffuso indietro dalla superficie lunare senza il beneficio del catadiottro posto molto più tardi sulla Luna dagli astronauti, tutti possono apprezzare il senso dell’umorismo nella scelta del nome utilizzato per il “Project Luna See” (Progetto “Vedi la Luna”) che in inglese si pronuncia in maniera da suonare come “Progetto Follia”. Nonostante le premesse, dopo aver lottato con un’elettronica che al giorno d’oggi si può ammirare solamente nei musei della scienza e della tecnica, Fiocco e Smullin misurano per la prima volta la distanza Terra-Luna dall’eco di impulsi di luce laser e la notizia viene subito evidenziata nei giornali di tutto il mondo. Poco dopo arriva anche la scoperta del possibile utilizzo di impulsi laser per la diagnostica di un plasma utilizzando la diffusione Thomson. Da quella volta il laser diventa lo strumento diagnostico standard nei laboratori di ricerca per la fusione di tutto il mondo, ma quello di Fiocco è certamente il primo articolo pubblicato sull’argomento.

Nel 1963 il vulcano Agung esplode e inietta una tale quantità di polvere e gas nell’atmosfera da formare nella bassa stratosfera i bersagli liquidi e solidi in grado di essere rilevati dal lidar di Giorgio Fiocco. Un suo articolo del 1964 descrive per la prima volta come il lidar sia lo strumento ideale per lo studio dello strato di aerosol stratosferico. I profili verticali della concentrazione di aerosol vengono ottenuti dividendo il coefficiente di retrodiffusione (backscattering coefficient) misurato dal lidar per il ritorno aspettato da un’atmosfera puramente molecolare. Il cosiddetto lidar backscattering ratio introdotto da Fiocco è ormai comunemente utilizzato da chiunque lavori con i lidar.

Il lavoro alla Marconi Co. con i Radar Doppler ha probabilmente innescato anche l’idea che tale tecnica applicata al lidar avrebbe reso possibile rilevare la velocità dei piccoli retrodiffusori di luce presenti nell’atmosfera. Nel caso in cui tali diffusori sono di dimensione tale da essere trascinati dall’aria, la loro velocità media è uguale alla velocità del vento; d’altra parte se i diffusori sono molecole d’aria, la loro distribuzione di velocità può essere direttamente collegata alla temperatura del gas. La trattazione teorica di tale fenomeno è ampiamente sviluppata in un suo articolo spesso citato del 1968, ma proprio in questi anni Fiocco inizia a lavorare sul modo di mettere in pratica tale idea. La prima strumentazione viene costruita negli Stati Uniti, ma quando torna in Italia nel laboratorio dell’ESRIN a Frascati gli viene concesso di portare con sé una gran parte dei dispositivi già costruiti.

Il prof. Fiocco (a destra) con un gruppo di studenti presso i laboratori dell'ESRIN a Frascati.

Il prof. Fiocco (a destra) con un gruppo di studenti presso i laboratori dell’ESRIN a Frascati.

Di nuovo in Italia: Frascati

Nel 1969 Fiocco viene chiamato in Italia per creare un gruppo di fisica dell’atmosfera presso l’ESRIN, un laboratorio di ESRO, nato sotto grandi auspici presto sbiaditi sotto il peso di questioni diplomatico-politiche che rendono la sua vita piuttosto breve. Uno dei suoi pochi meriti, in ogni caso, è che con la sua ricchezza di fondi, spazi e strutture, riesce riportare Giorgio Fiocco in Italia. Se non fosse stato per quel laboratorio di eccellenza Fiocco, come altri illustri predecessori, sarebbe probabilmente rimasto per sempre negli Stati Uniti. Il primo problema affrontato da Fiocco riguarda il fatto che l’effetto Doppler associato alle velocità tipiche degli oggetti trattati dalla fisica dell’atmosfera richiede una risoluzione strumentale altissima. Negli apparati come il radar che utilizzano frequenze radio e che hanno il vantaggio di mantenere la coerenza, il problema si risolve miscelando il segnale ricevuto con un oscillatore di riferimento (tecnica omo- o etero-dina). Tale tecnica sposta la frequenza del segnale da analizzare su un gamma molto inferiore dove la risoluzione richiesta è più facilmente raggiunta. Applicare la stessa tecnica alle frequenze ottiche è possibile (e in effetti viene fatto), ma ha diversi limiti. Giorgio Fiocco in quel momento prende la decisione fatidica che lo pone definitivamente in uno dei due opposti partiti della comunità lidar: da un lato i ragazzi del lidar Doppler coerente che usano la tecnica della miscelazione e dall’altro lato quelli del lidar Doppler incoerente che effettuano l’analisi spettrale del segnale grezzo senza miscelazione. Lo sforzo del secondo partito di scoraggiare l’utilizzo dell’appellativo incoerente che sembra nascondere vaghi significati denigratori è fino ad oggi totalmente inascoltato. Qui, per motivi di imparzialità, la tecnica definita incoerente viene definita tecnica di rilevamento diretto. L’applicazione della tecnica di rilevamento diretto per misurare la temperatura atmosferica e il vento viene proposta e pubblicata per la prima volta da Fiocco che propone anche l’uso di un interferometro ben noto nella comunità della spettroscopia iperfine: l’interferometro di Fabry-Perot. Dato il sempre presente problema dell’esiguità del segnale atmosferico, Fiocco disegna dei Fabry-Perot di grande apertura ma, in particolare, riscopre nella vecchia letteratura scientifica sulla spettroscopia un dispositivo poco noto: il Fabry-Perot sferico. Alle risoluzioni necessarie per la tecnica Doppler si può dimostrare che le cavità a specchi confocali hanno un grande vantaggio rispetto alle cavità a specchi piani. Lui e il suo gruppo costruiscono una serie di Fabry-Perot sferici con risoluzioni impressionanti che permettono la misurazione della velocità del vento con una precisione tale da poter valutare il coefficiente di diffusione turbolenta nello strato limite atmosferico.

Come per il Fabry-Perot sferico, Fiocco prende un altro spunto da vecchi articoli e lo mette in uso. Un astronomo dell’Osservatorio di Bologna, G. Horn-D’Arturo, aveva pensato nel 1935 che invece di utilizzare un telescopio di grande apertura e molto costoso, era possibile utilizzare un insieme di piccoli telescopi costruiti opportunamente. L’idea nasce dalla constatazione che il costo di molti piccoli specchi è di gran lunga inferiore al costo di un grande specchio con stessa area totale e stessa definizione. Nel 1973 il telescopio a mosaico di tre metri di apertura, composto da 36 specchi esagonali posti nella torre adiacente al laboratorio dell’ESRIN, inizia a raccogliere i primi echi lidar dalla stratosfera e funziona fino al 1999, quando i laboratori vengono trasferiti in una nuova sede e lo spostamento della torre non viene considerato economicamente conveniente.

Nel 1980 il vulcano St. Helens esplode e nel 1984 lo segue il vulcano El Chichòn. Nel periodo successivo alle eruzioni la maggior parte dei lidar nel mondo effettuano misurazioni e seguono l’evoluzione della distribuzione dell’aerosol in stratosfera; tra di essi anche il lidar di Frascati. Non è un caso che i maggiori lidaristi del pianeta aspettino trepidanti che qualche vulcano esploda riportando i loro lavoro al centro dell’attenzione delle agenzie che distribuiscono fondi per la ricerca.

Italia scena seconda: Roma

Nel 1984 Fiocco, diventato nel frattempo professore universitario, allestisce un nuovo laboratorio presso il Dipartimento di Fisica dell’Università degli Studi di Roma. Il primo esperimento in laboratorio è dedicato alla misura delle sezioni d’urto di assorbimento dell’ozono nell’ultravioletto e in seguito nel visibile. L’apparecchio sviluppato presso l’Università di Roma utilizza un lungo cammino ottico e alte concentrazioni di ozono per misurare sezioni d’urto molto piccole. In questi anni Fiocco introduce per primo in Italia l’utilizzo del radar acustico (SODAR) per lo studio dello strato limite planetario, ma la sua attività principale rimane la progettazione e costruzione di sistemi lidar che vengono spediti in diverse parti del mondo formando quello che tra il serio e il faceto viene definito come “la piccola, ma globale rete di lidar”. Nella sua continua ricerca di misurazioni impegnative, avventurose e pionieristiche nel vero senso della parola, organizza e segue personalmente una campagna di misura con il Sodar su una nave mercantile nel Mar Rosso e, più tardi, in uno dei siti accessibili più alti in Europa: la Capanna Margherita sulla cima del Monte Rosa (4400 m s.l.m.).

Una base di telerilevamento al Polo Sud, in cui è ben visibile un sodar a tre assi monostatici.

Una base di telerilevamento al Polo Sud, in cui è ben visibile un sodar a tre assi monostatici.

Polo Sud

Quando il governo italiano invita la comunità scientifica a presentare proposte per ricerche da fare in Antartide, Giorgio Fiocco non si fa attendere e presenta un’altra idea originale e stimolante: l’installazione di un lidar nella stazione del Polo Sud Amundsen-Scott, per monitorare la presenza di nubi stratosferiche polari (PSC) durante l’inverno australe. Il fenomeno del buco dell’ozono antartico era stato appena confermato da misurazioni satellitari e già venivano proposte teorie che implicavano il ruolo di tali nubi nella modifica delle reazioni chimiche nella stratosfera.

Il progetto non era banale perché implicava la progettazione e costruzione di un sistema lidar molto affidabile, adatto a funzionare senza problemi e con il minimo di interventi umani per diversi mesi. Il progetto parte all’inizio del 1987 con l’obiettivo di rendere operativo il lidar dal successivo dicembre; inutile dire che si trattò di un tour de force e che non tutti i test desiderabili poterono essere condotti entro le scadenze. Fiocco stesso, insieme a suoi collaboratori, nell’ambito di una collaborazione con l’US National Oceanographic and Atmospheric Administration (NOAA) e il National Research Council (NRC), si reca con 400 kg di materiale al Polo Sud poco prima del Natale del 1987, e trascorre una vacanza indimenticabile nel luogo più meridionale della Terra per istallare il lidar pronto per misure durante l’inverno australe del 1988. Negli anni successivi lo strumento viene puntualmente ricontrollato e aggiornato durante l’estate australe tanto che funziona fino al 1995 quando il progetto viene dichiarato concluso e il lidar viene riportato a Roma. L’eruzione del Monte Pinatubo (1991), osservata dal lidar al Polo Sud permette di studiare come la presenza di una grande quantità di aerosol stratosferici di origine vulcanica possa influire anche sui meccanismi di formazione e sulle proprietà delle PSC.

Groenlandia

Nel 1990, nell’ambito di una collaborazione con il Danish Meteorological Istituire, un altro lidar viene installato a Thule, in Groenlandia. Il lidar è progettato per osservare la troposfera e la stratosfera. Le osservazioni a Thule, condotte in maniera sistematica, permettono di studiare l’intero ciclo di vita dello strato di aerosol stratosferico prodotto dall’eruzione del vulcano Pinatubo.

Lampedusa

Nel 1999, in collaborazione con l’Ente Nazionale per le Nuove Tecnologie, l’Energia e l’Ambiente (ENEA), il gruppo guidato da Giorgio Fiocco installa un lidar per studi di aerosol troposferico alla Stazione di Osservazioni Climatiche dell’ENEA, sulla piccola e piacevole isola di Lampedusa, posta tra il sud Italia e l’Africa. L’obiettivo principale delle misure è lo studio del trasporto di polvere desertica attraverso il Mediterraneo.

Il lidar aviotrasportato

Quando il progetto al Polo Sud si avvicina al suo completamento, Giorgio Fiocco, nella sua continua ricerca di esperienze nuove e stimolanti, inizia a studiare e approntare un lidar in grado di essere installato a bordo della versione scientifica del velivolo stratosferico Myasishchev M-55, detto Geophysica. Il lidar viene chiamato ABLE (AirBorne Lidar Experiment) ed è completamente automatizzato, equipaggiato con un laser di media potenza e in grado di operare in ambiente non pressurizzato e freddo come quello di Geophysica, che vola ad una altezza di 20 km osservando nelle direzioni del nadir e dello zenit. Nell’inverno 1996-97, ABLE viene portato a Rovaniemi, Finlandia, scelta come base per la prima campagna di misure di Geophysica. La campagna viene denominata APE-POLECAT (Airborne Polar Experiment-Polar Ozone, LEe waves, Chemistry And Transport, ma letteralmente SCIMMIA-PUZZOLA). Nei successivi anni seguono altre campagne: APE-THESEO (Airborne Platform Experiment – THird European Stratospheric Experiment on Ozone), con base presso l’aeroporto di Victoria-Mahé, Seychelles; APE-GAIA (Geophysica Aircraft In Antartica) con base all’aeroporto di Ushuaia nella Terra del Fuoco, Argentina; EUPLEX (EUropean Polar stratospheric cloud and LEe wave Experiment), con base a Kiruna (Svezia) e la campagna di validazione di ENVISAT (ENVironment SATellite) con base a Forlì e a Kiruna (Svezia). È interessante notare che durante la campagna delle Seychelles, per acquisire indipendentemente dati lidar sulle alte nubi equatoriali da terra viene affiancato un lidar gemello alloggiato in un container: CABLE, di per sé un acronimo contraddittorio che proviene dalle parole “Container” più “ABLE”.

La seconda generazione del ricevitore di ABLE che viene completamente ri-progettato per ridurre il suo peso e renderlo ancora più adatto alle basse pressioni inizia a somigliare molto a un robot sottomarino. Tutti i colleghi sono convinti che l’obiettivo finale di questo piccolo ma complesso lidar fosse quello di entrare in un payload spaziale ma nessuno lo ha mai affermato ufficialmente perché la sostituzione della “A” di “Air-borne” nell’acronimo ABLE con un’altra lettera che definisse la nuova applicazione e fosse allo stesso tempo pronunciabile era troppo complicata! Anche quando i fondi si sono assottigliati il progetto di migliorare ABLE ha continuato ad assorbire molto del tempo di Giorgio Fiocco, diventando infine un lontano miraggio scomparso improvvisamente insieme a lui nell’estate del 2012.

Biografia

Daniele Fuà è stato professore associato di Fisica dell’Atmosfera presso il Dipartimento di Fisica dell’Università Sapienza di Roma ed è attualmente in pensione.
Marco Cacciani è ricercatore presso il gruppo G24 dello stesso Dipartimento.


(Contains 1 attachments.)

Il telerilevamento attivo

Written By: Redazione - Feb• 19•14

Lo studio dell’atmosfera pone il problema di misurare grandezze non direttamente accessibili, a meno che non si disponga di mezzi, come aerei o palloni, che consentano di ottenere misure in situ. Queste misure vengono spesso prese a riferimento, ma hanno la grossa limitazione di essere costose e limitate nel tempo e nello spazio. Il metodo più diffuso per ricavare informazioni sulla struttura e sulla composizione dell’atmosfera si basa sull’osservazione della radiazione che giunge al suolo o su quella uscente dall’atmosfera nel caso di misure satellitari. Radiometri, spettrometri e interferometri sono strumenti che misurano l’intensità della radiazione elettromagnetica in uno o più intervalli spettrali e il loro utilizzo nella fisica dell’atmosfera permette l’osservazione di luce dall’ultravioletto fino alle onde radio. L’informazione che deriva da queste misure è legata all’interazione tra i componenti atmosferici, gas o particelle che siano, e la radiazione che giunge allo strumento attraversando l’atmosfera. Queste strumentazioni sono indicate come sistemi di telerilevamento passivo, in quanto misurano la radiazione che viene emessa da altre sorgenti. Da questi sistemi si ricavano stime di grandezze colonnari, ossia comprese tra la superficie e la sommità dell’atmosfera, o profili verticali di queste grandezze, spesso caratterizzati da una bassa risoluzione verticale. Infatti, nonostante l’informazione contenuta in queste misure sia enorme, presenta anche un’evidente limitazione: la radiazione viene influenzata da una moltitudine di fattori durante tutto il suo percorso in atmosfera e se ne ricava quindi una misura che tiene conto della somma di tutte le interazioni che la radiazione ha avuto con i componenti atmosferici, con poca o nessuna risoluzione spaziale. Ad esempio, con strumenti passivi si può stimare con grande precisione il contenuto di vapor d’acqua colonnare e anche la sua distribuzione in quota, ma solo con risoluzioni verticali dell’ordine di alcune centinaia di metri: si avrà quindi una misura per i primi 300 m di altezza, una dai 300 ai 600 m e così via. Spesso le grandezze atmosferiche variano molto velocemente con la quota, così che una bassa risoluzione verticale non può che fornire un quadro approssimato della realtà.

Schema dei principali componenti del sistema climatico globale (in grassetto), dei loro processi e delle loro interazioni (frecce sottili) e di altri aspetti variabili (frecce spesse). Credit: www.ipcc.ch/ipccreports/tar/wg1/fig1-1.htm.

Schema dei principali componenti del sistema climatico globale (in grassetto), dei loro processi e delle loro interazioni (frecce sottili) e di altri aspetti variabili (frecce spesse). Credit: www.ipcc.ch/ipccreports/tar/wg1/fig1-1.htm.

Esistono però altri strumenti, detti di telerilevamento attivo, che emettono un segnale per poi registrarne l’eco generato dall’interazione tra la radiazione emessa e l’atmosfera. Il principale vantaggio di questi strumenti consiste nel poter determinare esattamente la quota da cui proviene l’eco del segnale emesso, essendo noti il momento dell’emissione del segnale, la sua velocità e il ritardo della misura dell’eco rispetto all’emissione del segnale. Inoltre è possibile generare un segnale con caratteristiche tali (in termini di intensità, frequenza o polarizzazione) da poter osservare l’effetto specifico dell’interazione tra la radiazione e il componente atmosferico che si vuole studiare. Generalmente lo svantaggio degli strumenti attivi rispetto a quelli passivi è il costo maggiore, sia in termini di acquisto che di manutenzione, e la maggiore usura, perché composti sia da una emettitore che da un ricevitore. Tra questi strumenti ricordiamo il RADAR, il LIDAR, il SODAR, acronimi rispettivamente di RAdio, LIght, SOnic Detecting And Ranging, ed il RASS (Radio Acoustic Sounding System), che forniscono informazioni fondamentali sulla distribuzione verticale dell’aerosol (LIDAR), delle nubi (LIDAR, RADAR), di alcuni gas (LIDAR), delle precipitazioni (RADAR), del vento (LIDAR, RADAR e SODAR) e della temperatura (LIDAR, RASS). Per esattezza si fa notare che SODAR e RASS utilizzano solo o in parte onde acustiche e non elettromagnetiche.

L’evoluzione dei fenomeni atmosferici

Al giorno d’oggi sono pochi gli strumenti che da soli siano in grado di fornire risultati che si possano considerare innovativi. C’è quindi la tendenza a misurare più grandezze contemporaneamente e a interpretarle anche mediante l’uso di modelli che ne riproducano gli effetti dinamici e/o radiativi. In maniera molto schematica, si è interessati alla comprensione di un fenomeno specifico oppure allo studio di come esso si verifichi nel tempo. Ad esempio si può immaginare di voler studiare una nube che si sta formando in un dato momento e luogo. In questo caso vorremmo avere più informazioni possibili su quella nube: a che quota si trovano la base e la sommità? È fatta di acqua o ghiaccio? Come altera la radiazione che giunge al suolo o che viene dispersa nello spazio? Come è legata a variabili come il vento, la temperatura e l’umidità? Da quante particelle è composta e di quali dimensioni? Per questo tipo di studi vengono solitamente organizzate delle campagne di misura che includono molte competenze diverse, spesso a livello internazionale. D’altronde si può anche essere interessati a sapere quante volte si formi una nuvola in quel determinato posto, in quali momenti, e con quali caratteristiche. Anche in questo caso vorremmo avere più informazioni possibili, ma lo scopo principale sarà quello di averle su un lungo periodo di tempo, così da poter apprezzarne la variabilità e le tendenze. Purtroppo non è immaginabile avere su un lungo periodo tutte le informazioni che si possono acquisire in un esperimento sul breve periodo, per cui si scelgono solo alcune osservabili che, relativamente al nostro esempio, potrebbero essere la quota della base della nube e la capacità di modificare la radiazione che giunge al suolo. Questo approccio è di grande interesse per capire come il clima vari e soprattutto come le attività antropiche possano influenzarne i cambiamenti. Ovviamente sistemi di telerilevamento attivo partecipano sia a studi specifici limitati nel tempo, sia a progetti di lunghe osservazioni temporali, spesso in consorzi di reti sovranazionali.

Questo secondo tipo di progetti comporta maggiori difficoltà organizzative, perché richiede stanziamenti certi per lunghi periodi di tempo, il che, specialmente nel nostro paese, si scontra con problemi di finanziamento e organizzazione della ricerca. Un discorso a parte riguarda i radar meteorologici che sono di solito gestiti da agenzie meteorologiche nazionali e costituiscono da tempo una rete affidabile e di grande utilità per le previsioni del tempo. Lo studio del clima implica la comprensione delle mutue interazioni tra oceani-atmosfera-criosfera-biosfera che avvengono su scale temporali molto diverse. Non è questo lo scopo dell’articolo, ma il punto della questione è che l’atmosfera è la componente più variabile su brevi scale temporali ed è quindi la prima a mostrare cambiamenti che possono influenzare il sistema climatico nel suo complesso. È bene ricordare che le serie storiche più lunghe di misure dirette sono quelle di temperatura che risalgono a meno di 300 anni fa e sono disponibili solo in un numero molto limitato di osservatori, rappresentativi di una porzione molto limitata del pianeta. Solo in tempi molto recenti si è cominciato ad avere una visione globale dell’atmosfera terrestre, grazie alle osservazioni satellitari. Oggi diamo per scontata la possibilità di osservare in tempo reale l’evoluzione dei sistemi meteorologici grazie alla rete mondiale di satelliti meteorologici, ma la loro storia è breve, specialmente se riferita allo studio della climatologia. Basti pensare che il sistema di satelliti meteorologici con copertura globale risale alla fine degli anni ’70: ci sono meno di 40 anni di osservazioni!

Agli stessi anni risale il primo radar ad apertura sintetica (SAR) installato su un satellite, che venne lanciato nel 1978 a bordo del satellite SEASAT. Si deve attendere il 1994 per avere le prime misure lidar dallo spazio, quando, a bordo della navetta Discovery, fu installato un lidar che funzionò con successo per circa 50 ore. Sebbene la missione ICESAT prevedesse l’utilizzo di un altimetro laser molto simile a un lidar, denominato GLASS, il primo satellite con a bordo un vero e proprio lidar venne lanciato solo nel 2006. Nel 2015 è previsto il lancio di una nuova missione satellitare dell’Agenzia Spaziale Europea, EarthCARE, che prevede l’utilizzo del nuovo lidar ATLID. L’impatto di radar o lidar installati su satellite è stato enorme: hanno infatti fornito una visione planetaria dei fenomeni atmosferici, sia di giorno che di notte, specialmente di ciò che avviene sugli oceani che occupano il 70% del pianeta, dove, per ovvie ragioni, non si hanno misure continuative. Alcune applicazioni meno complesse di sistemi lidar o radar sono oggi anche disponibili a costi relativamente contenuti, permettendo lo sviluppo di reti osservative dedicate allo studio di aerosol e nubi [3] o alla stima delle precipitazioni e dei fenomeni connessi. I sistemi di telerivamento attivo sono oggi diffusi e utilizzati per ogni tipo di studio nella fisica dell’atmosfera essendo gli unici in grado di fornire profili a elevata risoluzione verticale delle grandezze misurate, sia che vengano utilizzati al suolo, che installati su aereo o satellite.

Note

  • L’ordine di grandezza del lungo periodo varia a seconda dei fenomeni cui si è interessati, ma generalmente si può passare da una scala annuale a una millenaria per studi climatologici.

Bibliografia

  1. Lidar @NASA
  2. Radar @NASA
  3. Flentje H., Heese B., Reichardt J. e Thomas W. Aerosol profi

    ling using the ceilometer network of the German Meteorological Service. In Atmospheric Measurement Techniques Discussions,

    vol. 3:3643–3673 (2010)

Biografia

Giandomenico Pace si è laureato in Fisica e ha conseguito il dottorato in Telerilevamento presso l’Università Sapienza di Roma, sotto la supervisione del Prof. G. Fiocco. Nel 2005 è diventato ricercatore presso l’ENEA di Bologna dove si è occupato di modelli di inquinamento. Dal 2010 lavora presso il centro ENEA della Casaccia su tematiche inerenti aerosol e nubi.


(Contains 1 attachments.)

Un fascio acustico per i processi atmosferici

Written By: Redazione - Feb• 19•14

Il sodar (acronimo di SOund Detection And Ranging) è uno strumento di telemisura di parametri atmosferici che utilizza le onde acustiche per sondare i bassi strati atmosferici. Nella configurazione più semplice, detta monostatica, una stessa antenna viene utilizzata sia per emettere determinati toni acustici che per ricevere gli echi di ritorno, prodotti dall’interazione delle onde acustiche che si propagano verso l’alto con le masse d’aria attraversate alle varie quote. La frequenza dei toni è compresa tipicamente nell’intervallo 1,5 – 5 kHz e viene scelta sulla base di un compromesso tra quota massima che si vuole raggiungere, rumore ambiente e risoluzione in altezza della misura. Nella configurazione monostatica ad asse singolo (sempre una sola antenna), un tono acustico di breve durata (0.01 – 0.1 s) viene periodicamente emesso nell’atmosfera e gli echi prodotti vengono rilevati dalla stessa antenna. La sorgente principale di questi echi, nel caso in cui la stessa antenna venga utilizzata per l’emissione dei toni e la ricezione degli echi, è la turbolenza termica presente nell’aria sulla scala della mezza lunghezza d’onda acustica utilizzata. Su questa scala, infatti, l’eco retrodiffuso dai diversi punti diffondenti si combina statisticamente in modo costruttivo.

Storia del SO.D.A.R.

La prima realizzazione di un sodar risale al 1968 ad opera di Mc Allister (Australian Defence Scientific Service) il quale era interessato a correlare le caratteristiche della bassa atmosfera ad alcuni problemi di propagazione delle onde radio. A valle di questa prima realizzazione altre sono seguite negli Stati Uniti (Gordon Little, Wave Propagation Laboratory, 1969), in Italia (Giorgio Fiocco, IFSI/CNR, 1974), in Francia (A. Spizzichino, CNET/CNRS, 1974) e in altre nazioni.

La rapida diffusione di questa tecnica di telemisura è dovuta all’interesse per i processi dinamici che hanno luogo nei primi 500 – 1500 m dell’atmosfera e al modo particolarmente semplice con cui alcuni di essi vengono visualizzati e caratterizzati con il sodar. Questo strato dell’atmosfera, cui ci si riferisce usualmente con il termine Strato Limite Atmosferico (SLA), è importante per varie ragioni. È quello attraverso cui l’energia è trasferita dalla superficie all’atmosfera (e viceversa) sotto forma di energia termica, meccanica e vapore d’acqua, e viene resa quindi disponibile per la circolazione atmosferica. Questo è, inoltre, lo strato in cui si svolge la gran parte delle attività umane e biologiche, con conseguenze sull’ambiente che, specie nelle grandi città o in prossimità di complessi industriali, possono risultare particolarmente negative. La conoscenza della struttura e dei processi nello SLA è fondamentale per migliorare la modellistica numerica della circolazione e per comprendere quando e come l’atmosfera riesce a disperdere gli inquinanti che vi sono immessi.

Le informazioni principali che il sodar in configurazione monostatica fornisce sono due: l’intensità dell’eco alle diverse quote e la velocità radiale delle masse di aria diffondenti. L’intensità degli echi viene comunemente registrata in formato facsimile (o ecogramma), in maniera simile a quanto viene fatto negli ecoscandagli marini. In questo tipo di rappresentazione l’eco ricevuta dopo l’emissione del tono acustico viene registrata come una traccia verticale in cui la gradazione di nero è proporzionale all’intensità dell’eco ricevuto in ogni istante, mentre l’altezza del punto sulla traccia indica il ritardo con cui questo viene ricevuto e quindi la quota da cui l’eco proviene. Se le tracce vengono poste in maniera sequenziale una adiacente all’altra, la registrazione visualizza la struttura termica dello SLA e la sua evoluzione temporale in maniera simile a come un ecoscandaglio marino visualizza il fondo del mare e i banchi di pesci che attraversano il fascio acustico.

Arena di Milano, 18 febbraio 1993. Nei primi due ecogrammi (a) e (b) è visualizzata l'evoluzione dello strato limite atmosferico nella parte centrale del giorno. Il terzo ecogramma (c) riproduce quello centrale (ma in colore) con sovrapposto il campo dei moti verticali. Il pallone frenato viene visualizzato nell'ecogramma durante la fase di ascesa e discesa quando questo attraversa il fascio acustico.

Arena di Milano, 18 febbraio 1993. Nei primi due ecogrammi (a) e (b) è visualizzata l’evoluzione dello strato limite atmosferico nella parte centrale del giorno. Il terzo ecogramma (c) riproduce quello centrale (ma in colore) con sovrapposto il campo dei moti verticali. Il pallone frenato viene visualizzato nell’ecogramma durante la fase di ascesa e discesa quando questo attraversa il fascio acustico.

Il sodar a singola antenna

In figura sono rappresentate le informazioni principali che fornisce un sodar a singola antenna puntata verticalmente. Le immagini (a) e (b) sono esempi di ecogrammi sodar. Le bande verticali scure sono dovute a rumore acustico prodotto in vicinanza dell’antenna. La larghezza della banda è proporzionale alla durata del rumore. Le righe oblique sono dovute ad echi da un pallone frenato operante in prossimità dell’antenna.

Questi ecogrammi, ottenuti il 18 febbraio 1993 nell’arena di Milano, contengono esempi delle strutture che spesso sono presenti in questo tipo di registrazioni. In particolare dalle ore 6 alle ore 10 sono prevalenti le strutture a sviluppo orizzontale. Queste strutture rappresentano strati di aria in cui vi è inversione termica, cioè in cui la temperatura cresce con la quota. In queste condizioni i moti verticali vengono inibiti: vi è una forza di richiamo che tende a riportare i volumi di aria nella loro posizione iniziale. Eventuali perturbazioni che spostano verticalmente i volumi di aria dalla loro posizione di riposo possono indurre oscillazioni negli strati.

Nell’ecogramma alle ore 10:30 si distingue molto bene l’oscillazione di uno strato a circa 400 m di quota. L’eco più intensa che caratterizza questi strati è dovuta alla turbolenza termica che si produce all’interfaccia tra correnti di aria con caratteristiche termiche e dinamiche diverse. Tornando alla descrizione degli ecogrammi, si osserva che alle ore 10:30 iniziano a svilupparsi strutture verticali. Queste strutture sono associate alle masse di aria che, a contatto del terreno riscaldato dai raggi solari, si sollevano verso l’alto. Esse costituiscono la parte ascendente della convezione termica che ridistribuisce l’energia termica nello strato limite atmosferico. Queste masse di aria ascendenti vengono comunemente chiamate termiche o piume convettive. La maggiore turbolenza termica esistente al loro interno produce un’eco più intensa rispetto alle masse di aria discendenti (più fredde).

Può accadere, come nei pannelli (a) e (b) della prima figura, che la convezione sia limitata in quota dalla presenza di inversione termica che blocca lo sviluppo verticale (si osservi, in particolare, il periodo che va dalle ore 12 alle 15). In questo caso il sodar produce un’informazione di grande importanza per lo studio del trasporto e diffusione degli inquinanti in atmosfera: l’altezza dello strato rimescolato. In (c), invece, l’ecogramma di (b) viene riproposto in colore, sovrapponendovi le velocità verticali ottenute dall’analisi Doppler dell’eco (in nero). In questo modo è possibile quantificare l’entità dei moti ascendenti e discendenti, associati all’attività convettiva. In (c) la distanza tra una quota di misura e la successiva corrisponde a un vento di 2 m/s.

Nansen Ice Sheet, Baia di Terra Nova (Antartide): sito in cui ha operato un sodar a tre assi monostatici durante la campagna di misure estiva 1998-99. Il sito, che si trova alla confluenza di due ghiacciai (Reeves e Priestley), è in prossimità della base italiana Mario Zucchelli.

Nansen Ice Sheet, Baia di Terra Nova (Antartide): sito in cui ha operato un sodar a tre assi monostatici durante la campagna di misure estiva 1998-99. Il sito, che si trova alla confluenza di due ghiacciai (Reeves e Priestley), è in prossimità della base italiana Mario Zucchelli.

Misurare il vento

L’uso contemporaneo di tre antenne i cui assi sono indirizzati in maniera opportuna permette di misurare il profilo del vento: la figura sottostante mostra la foto di tre antenne sodar che sono state in funzione nella base francese di Dumond d’Urville (Antartide) per circa due anni (1992-1993). Un sistema simile ha funzionato anche in prossimità della base italiana di Terra Nova Bay, alla confluenza di due ghiacciai (Reeves e Priestley) che collegano la baia con l’altopiano antartico attraverso due percorsi diversi. Attraverso tali ghiacciai le masse di aria fredda provenienti dall’altopiano raggiungono la baia con velocità che possono superare, nel periodo invernale, i 40 m/s.

Antenne di un sodar a tre assi monostatici in funzione nella base francese di Dumond d'Urville, in Antartide, nel periodo 1992-1993. Le antenne sono indirizzate in tre direzioni diverse per misurare tre componenti del vento e quindi il profilo del vento orizzontale.

Antenne di un sodar a tre assi monostatici in funzione nella base francese di Dumond d’Urville, in Antartide, nel periodo 1992-1993. Le antenne sono indirizzate in tre direzioni diverse per misurare tre componenti del vento e quindi il profilo del vento orizzontale.

Molti sono i casi in cui il telesondaggio acustico risulta fondamentale per visualizzare e comprendere fenomeni che hanno luogo nello SLA. Due ulteriori esempi sono illustrati nelle figure seguenti. Nel primo il profilo del vento mostra la sovrapposizione di masse di aria di provenienza marina (200 – 700 m) sovrapposte a una brezza di terra proveniente dall’entroterra. Nella parte superiore dello strato di origine marina il vapore d’acqua condensa (tra 600 e 700 m). La formazione di questo strato di nebbia con cielo sereno trasferisce il raffreddamento radiativo al top della nebbia e tale raffreddamento aumenta la densità dell’aria che precipita verso il suolo: si formano così colonne discendenti, in maniera simile a quanto accade nel mare per i salt fingers. Il secondo invece mostra i risultati di un nuovo strumento che costituisce un importante complemento per le misure tradizionali e i campionamenti fatti nelle prime decine di metri dell’atmosfera.

Misure sodar del 17 gennaio 1997 nell'aeroporto militare di Pratica di Mare. In alto l'ecogramma con sovrapposti i profili che sono, nell'ordine, della temperatura potenziale, del rapporto di mescolanza vapore-aria secca, dell'umidità relativa e dell'intensità e direzione del vento. Mentre il profilo del vento è misurato dal sodar, per le altre grandezze sono stati utilizzati i dati di un radiosondaggio.

Misure sodar del 17 gennaio 1997 nell’aeroporto militare di Pratica di Mare. In alto l’ecogramma con sovrapposti i profili che sono, nell’ordine, della temperatura potenziale, del rapporto di mescolanza vapore-aria secca, dell’umidità relativa e dell’intensità e direzione del vento. Mentre il profilo del vento è misurato dal sodar, per le altre grandezze sono stati utilizzati i dati di un radiosondaggio.

Ecogrammi ad alta risoluzione ottenuti nel campo sperimentale dell'ISAC (Istituto di Scienze dell'Atmosfera e del Clima) con un sistema sodar ad alta frequenza realizzato recentemente nell'Istituto. Il primo ecogramma (in alto) visualizza onde, mentre il secondo e il terzo (al centro e in basso) documentano la fase iniziale dello sviluppo di uno SLA convettivo.

Ecogrammi ad alta risoluzione ottenuti nel campo sperimentale dell’ISAC (Istituto di Scienze dell’Atmosfera e del Clima) con un sistema sodar ad alta frequenza realizzato recentemente nell’Istituto. Il primo ecogramma (in alto) visualizza onde, mentre il secondo e il terzo (al centro e in basso) documentano la fase iniziale dello sviluppo di uno SLA convettivo.

Possiamo, però, riassumere in tre i settori in cui questa tecnica trova applicazione: dinamica dei bassi strati atmosferici, trasporto e diffusione di inquinanti, individuazione dei siti adatti alla produzione di energia eolica.

Biografia

Giangiuseppe Mastrantonio ha partecipato alla realizzazione del primo sodar italiano. La sua attività di ricerca ha riguardato la meteorologia dello strato limite atmosferico, la circolazione locale e alla mesoscala, la meteorologia aeroportuale e gli effetti del wind shear sulla sicurezza del volo, lo sviluppo di telesensori della dinamica atmosferica, i processi dei bassi strati atmosferici nelle regioni polari. Ha svolto la sua attività presso l’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del CNR come dirigente di ricerca ed è stato responsabile della sezione di Lecce dell’ISAC. Attualmente in pensione, continua la sua attività collaborando con l’ISAC come associato.


(Contains 1 attachments.)

L’ozono e il riscaldamento globale

Written By: Redazione - Feb• 19•14

L’Artide è la regione del pianeta più sensibile ai cambiamenti del clima, sia dovuti a variabilità naturale che all’influenza antropica. Negli ultimi decenni la temperatura superficiale in Artide è cresciuta circa il doppio rispetto alla scala globale, tanto che si parla di un effetto di amplificazione artica del riscaldamento globale [2]. Le osservazioni mostrano che all’incremento di temperatura a bassa quota è associata una diminuzione delle temperature in bassa stratosfera (in Artide è la regione tra 8 e 20 km di quota) dove, in particolare alle alte latitudini, hanno luogo vari fenomeni importanti per gli equilibri del clima. Tra questi, la diminuzione di ozono è legata strettamente all’evoluzione stagionale della temperatura stratosferica, alla sua variabilità, e alle modificazioni di composizione chimica dell’atmosfera indotte dall’uomo. Ci si aspetta che le modifiche della temperatura associate al riscaldamento globale vadano a interferire con i processi di distruzione primaverile dell’ozono. La comprensione dell’evoluzione futura del sistema richiede misure di lungo periodo nelle difficili condizioni Artiche.

Profilo verticale medio della temperatura. La tropopausa si trova tra 15  e 18 km ai tropici, e tra 8 e 10 km nelle regioni polari.

Profilo verticale medio della temperatura. La tropopausa si trova tra 15 e 18 km ai tropici, e tra 8 e 10 km nelle regioni polari.

Già alla fine degli anni ’80 il gruppo di ricerca diretto da Giorgio Fiocco iniziò un programma dedicato a studiare i fenomeni di distruzione di ozono nella stratosfera Artica. Presso l’Università Sapienza di Roma venne sviluppato un sistema LiDAR (acronimo da Light Detection And Ranging, cfr. articolo a pag. 12), che venne installato a Thule, sulla costa Nord Occidentale della Groenlandia, a 76.5°N, nel Novembre 1990. Le misure avviate nel 1990 sono state progressivamente estese e sono ancora attive nell’ambito di una rete globale per lo studio del clima. I dati sono di grande interesse perché mostrano come potrebbe svilupparsi il fenomeno di distruzione dell’ozono negli anni a venire.

La stazione di misura di Thule

Nel 1985 alcuni studiosi inglesi mostrarono le prime evidenze della forte diminuzione primaverile di ozono nella stratosfera Antartica, che prese il nome di buco dell’ozono [3]. Negli anni successivi, a seguito di varie campagne di misura dedicate, si scoprì che gli ingredienti essenziali per provocare la distruzione di ozono sono l’incremento di composti del cloro introdotti dalle attività antropiche; la presenza di nubi stratosferiche polari (NSP), che si formano grazie alle bassissime temperature raggiunte nella bassa stratosfera polare in inverno e inizio primavera; l’arrivo della radiazione solare, che innesca una serie di reazioni fotochimiche che portano a una velocissima e molto efficace distruzione di ozono alla fine della notte polare. Fu subito evidente che, mentre in Antartide si verificava una notevolissima riduzione (oltre il 90% dell’ozono presente tra 12 e 25 km, nella regione del massimo di concentrazione) ogni anno, la situazione in Artide mostrava minori riduzioni e una fortissima variabilità interannuale. L’Artide, rispetto all’Antartide, presenta una maggiore complessità, che si riflette in temperature più elevate e una variabilità molto più ampia, sia in troposfera che in stratosfera.

Per studiare questi processi alla fine degli anni ’80, Giorgio Fiocco attivò una collaborazione con Torben Jørgensen del Danish Meterological Institute (DMI) e insieme effettuarono un primo sopralluogo alla base di Thule (76.5°N, 68.8°O), sulla costa nord occidentale della Groenlandia, dove il DMI stava iniziando a sviluppare un programma di ricerca. Presso l’Università Sapienza di Roma ebbe subito inizio la fase di progettazione e realizzazione di un sistema lidar, che venne spedito e installato a Thule a Novembre 1990. Altri strumenti sono stati installati in seguito, anche nell’ambito di collaborazioni nazionali (ENEA, INGV e, più recentemente, Università di Firenze) e internazionali (oltre al DMI, Stony Brook University a New York e NCAR, USA). Le attività di ricerca avviate nel 1990 sono state progressivamente incrementate e contribuiscono a una rete globale internazionale per lo studio del clima, la Network for Detection of Atmospheric Composition Changes (NDACC). Negli anni le attività sono state supportate da Unione Europea, Programma Nazionale di Ricerche in Antartide e Ministero dell’Istruzione, dell’Università e della Ricerca.

Foto del lidar di Thule. La struttura nera contiene il telescopio. La presenza di un'apertura sul tetto permette di far passare gli impulsi del laser e di raccogliere i segnali retrodiffusi dall'atmosfera.

Foto del lidar di Thule. La struttura nera contiene il telescopio. La presenza di un’apertura sul tetto permette di far passare gli impulsi del laser e di raccogliere i segnali retrodiffusi dall’atmosfera.

Le misure a Thule erano dedicate principalmente allo studio dei processi che avvengono nella bassa stratosfera polare, e in particolare quelli che portano alla distruzione dell’ozono. Il LiDAR installato a Thule, mostrato in figura, comprende un laser Nd:YAG che emette impulsi di radiazione a 532 nm, nel verde. Questi impulsi sono inviati verticalmente in atmosfera; una parte di questo segnale viene retrodiffuso da molecole e particelle sospese in atmosfera, raccolto da un telescopio da 80 cm di diametro, e inviato su due rivelatori. Poiché l’impulso attraversa vari strati dell’atmosfera e il segnale retrodiffuso viene campionato a tempi diversi dallo sparo del laser, si ottengono profili verticali dell’atmosfera, e in particolare la distribuzione del particolato sospeso e delle nubi. La capacità di rilevare la presenza di particelle anche a quote elevate è particolarmente importante per lo studio delle nubi stratosferiche polari. Il sistema lidar è stato poi progressivamente aggiornato, anche con l’aggiunta di alcuni telescopi, per ottenere misure del profilo di temperatura tra 25 e 75 km di quota, e profili di particolato e nubi in troposfera.

L’evoluzione della stratosfera Artica

L’inverno Artico in stratosfera è caratterizzato dalla formazione di un intenso sistema di bassa pressione (vortice polare), con una circolazione che rimane molto stabile e isolata per periodi estesi di tempo in cui, principalmente a causa dell’assenza della radiazione solare, si raggiungono temperature molto basse. Grazie a queste condizioni all’interno del vortice possono verificarsi modificazioni significative della composizione chimica [4]. All’inizio della primavera l’arrivo della radiazione solare porta, da una parte, a una progressiva distruzione di ozono e dall’altra all’aumento della temperatura e conseguentemente al termine della circolazione invernale, alla rottura del vortice polare, e al rimescolamento delle masse d’aria interne ed esterne al vortice. L’assenza di NSP e la modificazione della composizione chimica portano anche a interrompere la catena di reazioni chimiche che distruggono l’ozono. L’intensità della distruzione di ozono è quindi legata all’intensità del vortice, alla temperatura e alla formazione di NSP, soprattutto nel periodo in cui comincia ad arrivare la radiazione solare. Vari studi, inoltre, mettono in evidenza le forti interconnessioni tra la circolazione stratosferica e troposferica e una possibile influenza dei processi stratosferici sui sistemi meteorologici alle medie latitudini.

Profilo di temperatura misurato a Thule con il lidar il 22 Gennaio 2009 (curve nere). Curva e punti rossi sono relativi alle misure del radiosondaggio effettuato dalla stazione di Eureka (80.0°N, 86.4°O, Canada). La curva blu mostra il profilo climatologico di temperatura del mese di Gennaio. La temperatura osservata raggiunge circa 290 K attorno a 35 km a causa di un riscaldamento stratosferico estremamente intenso, che si è propagato successivamente anche alla bassa stratosfera e ha provocato la rottura anticipata del vortice polare e la interruzione dei processi di distruzione di ozono.

Profilo di temperatura misurato a Thule con il lidar il 22 Gennaio 2009 (curve nere). Curva e punti rossi sono relativi alle misure del radiosondaggio effettuato dalla stazione di Eureka (80.0°N, 86.4°O, Canada). La curva blu mostra il profilo climatologico di temperatura del mese di Gennaio. La temperatura osservata raggiunge circa 290 K attorno a 35 km a causa di un riscaldamento stratosferico estremamente intenso, che si è propagato successivamente anche alla bassa stratosfera e ha provocato la rottura anticipata del vortice polare e la interruzione dei processi di distruzione di ozono.

Profilo di temperatura misurato a Thule con il lidar il 7 Marzo 2010 (curve nere). Curva e punti rossi sono relativi alle misure del radiosondaggio effettuato dalla stazione di Eureka (80.0°N, 86.4°O, Canada). La curva blu mostra il profilo climatologico di temperatura del mese di Marzo. La temperatura osservata nella bassa stratosfera è di quasi 30 K più bassa rispetto ai valori della climatologia. Il verificarsi di temperature così basse ha permesso il prolungamento dell'esistenza del vortice e la formazione di nubi stratosferiche anche nella fase finale dell'inverno, favorendo una massiccia distruzione di ozono.

Profilo di temperatura misurato a Thule con il lidar il 7 Marzo 2010 (curve nere). Curva e punti rossi sono relativi alle misure del radiosondaggio effettuato dalla stazione di Eureka (80.0°N, 86.4°O, Canada). La curva blu mostra il profilo climatologico di temperatura del mese di Marzo. La temperatura osservata nella bassa stratosfera è di quasi 30 K più bassa rispetto ai valori della climatologia. Il verificarsi di temperature così basse ha permesso il prolungamento dell’esistenza del vortice e la formazione di nubi stratosferiche anche nella fase finale dell’inverno, favorendo una massiccia distruzione di ozono.

Durante l’inverno Artico, diversamente dall’Antartide, la struttura del vortice può venire perturbata dalle onde planetarie (strutture dinamiche con lunghezza d’onda orizzontale dell’ordine delle migliaia di chilometri); in particolari situazioni queste ultime possono produrre riscaldamenti improvvisi e la rottura, temporanea o, nei casi più intensi, definitiva del vortice polare.

Grandi sorprese

Questo è ad esempio quello che è successo nel Febbraio 2009, quando si è verificato il riscaldamento stratosferico improvviso più intenso mai registrato, con temperature che hanno raggiunto i 290 K nella media e alta stratosfera [5], come mostrato in figura a sinistra. Questo evento è stato studiato in dettaglio attraverso le misure del lidar e degli altri strumenti presenti a Thule, mostrando che al riscaldamento stratosferico sono associate modificazioni significative nella circolazione dinamica e composizione chimica.

In Artide si osserva una forte variabilità interannuale nell’evoluzione del vortice e nella frequenza dei riscaldamenti stratosferici improvvisi, che sembra essere anche collegata a vari fenomeni a scala globale. Nonostante vari aspetti di questi fenomeni siano ancora non ben compresi, ci si aspetta che la riduzione di composti del cloro, le cui emissioni sono bandite dai protocolli internazionali a partire dagli anni ’90, possa progressivamente riportare l’ozono primaverile polare ai livelli degli anni ’70. D’altra parte, ci si aspetta anche un progressivo raffreddamento della bassa stratosfera legato all’effetto serra. Questo raffreddamento dovrebbe produrre un incremento di NSP e a una amplificazione dei fenomeni di distruzione di ozono, che dovrebbe a sua volta ritardare il ritorno dell’ozono ai livelli degli anni ’70. Questi effetti dovrebbero essere più rilevanti in Artide, dove la formazione di NSP è più variabile e gioca un ruolo maggiormente critico.

In questo contesto, l’inverno 2010-2011 si è rivelato estremamente interessante. La presenza del vortice si è protratta fino alla primavera inoltrata, con condizioni (bassa temperatura, formazione di NSP, presenza di radiazione solare e attivazione delle reazioni fotochimiche) che hanno prodotto una massiccia distruzione di ozono: fino al 40% sui valori integrati su tutta la colonna d’aria e fino all’80% dell’ozono presente tra 18 e 20 km [6]. La figura a destra mostra il profilo di temperatura misurato a Thule il 7 Marzo; nello stesso periodo sono state osservate anche delle NSP, la cui presenza non era mai stata osservata verificarsi con regolarità in questo periodo dell’anno [7]. Il verificarsi di una stagione con queste caratteristiche è estremamente inusuale in Artide, e fornisce indicazione della possibile evoluzione del sistema con il progredire del riscaldamento globale. Lo studio di questi fenomeni richiede la realizzazione di misure, integrando tecniche diverse, per periodi di tempo estesi, e in condizioni ambientali spesso molto difficili.

Bibliografia

  1. NDACC
  2. Serreze M.C. e Francis J.A. The Arctic amplification debate. In Climatic Change, vol. 76(3-4):241–264 (2006)

  3. Farman J., Gardiner B. e Shanklin J. Large losses of total ozone in Antarctica reveal seasonal ClOx/NOx interaction, vol. 315 (1985)
  4. Muscari G., di Sarra A.G., de Zafra R.L., Lucci F., Baordo F., Angelini F. e Fiocco G. Middle atmospheric O3, CO, N2 O, HNO3, and temperature profiles during the warm Arctic winter 2001-2002. In Journal of Geophysical Research, vol. 112(D14) (2007).

  5. Di Biagio C., Muscari G., di Sarra A., de Zafra R.L., Eriksen P., Fiocco G., Fiorucci I. e Fuà D. Evolution of temperature, O3 , CO, and N2 O profiles during the exceptional 2009 Arctic major stratospheric warming as observed by lidar and millimeter-wave spectroscopy at Thule (76.5◦ N, 68.8◦ W), Greenland. In Journal of Geophysical Research, vol. 115(D24) (2010).
  6. Manney G.L., Santee M.L., Rex M., Livesey N.J., Pitts M.C., Veefkind P., Nash E.R., Wohltmann I., Lehmann R., Froidevaux L. et al. Unprecedented Arctic ozone loss in 2011. In Nature, vol. 478:469–475 (2011)

  7. di Sarra A., Cacciani M., Fiocco G., Fuà D. e Jørgensen T. Lidar observations of polar stratospheric clouds over northern Greenland in the period 1990–1997. In Journal of Geophysical Research, vol. 107(D12) (2002).

Biografia

Alcide Giorgio di Sarra è Direttore di Ricerca e responsabile del Laboratorio di Analisi e Osservazioni del Sistema Terra all’ENEA. Le sue attività di ricerca si focalizzano sui processi che regolano il clima e gli effetti prodotti dai cambiamenti nella composizione dell’atmosfera sul bilancio della radiazione solare e infrarossa. Insegna Fisica del Clima presso l’Università di Roma Tre.


(Contains 1 attachments.)

Uno sguardo dall’alto alle tematiche ambientali

Written By: Redazione - Feb• 19•14

La base Ev-K2-CNR (27.95°N, 86.82°E) è situata a una quota di 5050 metri nella valle del Khumbu (Sagamartha National Park), ai piedi del versante nepalese dell’Everest. La sua remota locazione all’interno del parco naturale più alto della Terra fornisce una condizione unica per lo studio dell’atmosfera e in particolare dei processi di trasporto degli inquinanti. Questa base, assieme ad altre dodici stazioni (quattro operative in Italia, cinque in Nepal, due in Pakistan e una in Uganda), completa la rete SHARE (Stations at High Altitude for Research on the Envinroment), un progetto di monitoraggio ambientale e glaciologico di fondamentale importanza per la comprensione dei processi di cambiamento climatico oggi in atto su scala globale.

Industrializzazione asiatica

La struttura è molto lontana da qualsiasi fonte antropica di inquinamento, nei suoi pressi sono presenti esclusivamente dei piccoli villaggi che non superano i mille abitanti; l’area urbana più vicina è quella di Kathmandu (distante circa 200 km) che conta più di un milione di abitanti ed è caratterizzata da un forte inquinamento atmosferico. Durante il periodo pre-monsonico, le innumerevoli valli presenti nel versante sud dell’Himalaya diventano dei canali diretti attraverso i quali masse d’aria caratterizzate dalla forte presenza di inquinanti possono raggiungere quote superiori ai 5000 metri, arrivando a perturbare strati atmosferici molto elevati che solitamente hanno una composizione non contaminata da queste sostanze [2]. Oltre a provenire dalle aree urbane più vicine come quella di Kathmandu, intrusioni di queste masse d’aria avvengono anche nelle zone altamente industrializzate della pianura indiana e dei paesi confinanti come India, Cina e Bangladesh, nei quali la produzione di energia avviene quasi esclusivamente utilizzando combustibili fossili.

Il forte sviluppo economico che negli ultimi decenni ha visto protagonisti alcuni dei paesi asiatici ha portato come inevitabile conseguenza il proliferare della presenza di carbone e di altri inquinanti negli strati atmosferici. Le osservazioni eseguite sul campo tramite satelliti hanno dimostrato che, al giorno d’oggi, le zone che contribuiscono maggiormente alle emissioni di carbone sono quelle dell’Asia meridionale, e in particolare India e Cina. Proprio in questi paesi, soprattutto nei mesi contraddistinti da scarse precipitazioni, è diventata sempre più frequente la formazione di Atmospheric Brown Clouds (ABCs), ovvero estesi strati troposferici caratterizzati dalla forte presenza di aerosol (particelle di dimensioni micrometriche che galleggiano in atmosfera) e di sostanze inquinanti come il black carbon (BC), che in queste nubi arriva ad avere concentrazione tra 1000 e 10000 ng / m3, da confrontarsi con una concentrazione media di 100 e 300 ng / m3 [3]; tale elemento è anche responsabile della caratteristica colorazione molto scura di questo tipo di nubi.

Immagine della base Ev-K2-CNR

Immagine della base Ev-K2-CNR.

Nuvole oscure

Le ABCs sono caratterizzate anche dalla presenza di ossidi di azoto (NOx), monossido di carbonio (CO), biossido di zolfo (SO2) e ammoniaca (NH3). La produzione di queste sostanze è essenzialmente di natura antropica: gas come NOx e CO sono precursori della produzione di ozono e, oltre ad essere inquinanti, sono dei potenti gas serra. Altre sostanze, come SO2 e NH3, sono invece fondamentali per la produzione di aerosol secondari, che avviene tramite processi di ossidazione. Data la presenza di carbone e altri inquinanti, queste nubi hanno un forte impatto sulla qualità dell’aria, la visibilità e il budget energetico della troposfera. Le ABCs infatti hanno spiccate proprietà di assorbimento della radiazione solare e quindi provocano un riscaldamento negli strati atmosferici in cui sono presenti. Al contrario la loro presenza scherma la superficie terrestre dalla radiazione solare producendo una diminuzione a terra di quest’ultima stimata intorno al 10%.

Immagine dal satellite MODIS di una Atmospheric Brown Cloud osservata presso la base Ev-K2-CNR (indicata dal cerchio blu) il 29 aprile 2009

Immagine dal satellite MODIS di una Atmospheric Brown Cloud osservata presso la base Ev-K2-CNR (indicata dal cerchio blu) il 29 aprile 2009.

In generale si può affermare che, in condizioni di cielo sereno, l’irradianza solare (ovvero il flusso radiante incidente su una superficie) che raggiunge la superficie terrestre dipende da quattro parametri: l’angolo zenitale θ che descrive la posizione del sole rispetto alla verticale del punto di osservazione, l’albedo superficiale A che indica il rapporto fra la radiazione riflessa dalla superficie e quella incidente sulla superficie stessa, il contenuto colonnare di vapor d’acqua wv, ovvero la quantità di acqua presente nella colonna di atmosfera al di sopra del punto di osservazione, e lo spessore ottico degli aerosol Ï„ mediante il quale è possibile stimare quanta radiazione solare sia stata assorbita o diffusa da questo tipo di particelle. In generale si ha che

SW(θ,A,wv,τ)=SW0(θ)+Δ SWA(θ)+Δ SWwv(θ)+Δ SWτ(θ),

dove Δ SWA(θ), Δ SWwv(θ) e Δ SWÏ„(θ) sono rispettivamente le perturbazioni a SW0(θ) (ovvero all’irradianza diretta verso il basso nel caso in cui A=0, wv=0 e Ï„=0) generate dalla variazione dell’albedo superficiale, del contenuto di vapor d’acqua e dello spessore ottico degli aerosol [4]. Quest’ultimo può essere definito come l’effetto totale dell’assorbimento della radiazione da parte di ogni particella e che possiamo esprimere sinteticamente con la formula:

τ=∫0lkaρ(s)ds

in cui integriamo la densità ρ(s) del mezzo attraversato per una certa lunghezza l, pesata con il suo coefficiente di assorbimento ka. Lo spessore ottico è di fondamentale importanza per determinare l’interazione fra l’irradianza solare e gli aerosol atmosferici, serve infatti a indicare la trasparenza dell’atmosfera, da cui dipende la quantità di radiazione estinta durante il passaggio attraverso di essa.

Quando queste nubi, attraverso le innumerevoli valli che dalla pianura indiana risalgono fino al massiccio himalayano, arrivano nei pressi della base Ev-K2-CNR, vengono osservate e studiate tramite radiometri (utilizzati per effettuare misure della radiazione solare diretta e diffusa, dello spessore ottico degli aerosol, dell’albedo terrestre e del contenuto colonnare di vapor d’acqua) e fotometri spettrali in grado di determinarne la composizione. Tali eventi si verificano esclusivamente durante la stagione pre-monsonica, a cavallo fra i mesi di marzo e maggio, con intensità e frequenza ancora non ben definita. La presenza di queste nubi produce effetti energetici e radiativi lungo l’altopiano himalayano caratterizzati da una intensità che viene difficilmente raggiunta in altre parti della Terra.

Valori dello spessore ottico degli aerosol misurati presso la base Ev-K2-CNR e corrispondenti perturbazioni radiative prodotte dagli aerosol relative all'anno 2009

Valori dello spessore ottico degli aerosol misurati presso la base Ev-K2-CNR e
corrispondenti perturbazioni radiative prodotte dagli aerosol relative all’anno 2009.

Particelle in sospensione

Nella figura precedente vengono mostrati i valori dello spessore ottico degli aerosol e gli effetti radiativi da questi prodotti presso la base Ev-K2-CNR durante l’anno 2009. Come è possibile osservare dal grafico, per gran parte dell’anno gli aerosol sono caratterizzati da uno spessore ottico molto basso, inferiore a 0,05 e caratteristico dei siti posti ad alta quota. Di conseguenza, considerando l’incertezza con la quale sono state determinate le perturbazioni radiative prodotte dagli aerosol, si può osservare come in media anche le perturbazioni all’irradianza solare prodotte da questo tipo di particolato possano essere considerate nulle. Sono però chiaramente evidenti due eventi distinti, risalenti a i mesi di marzo e aprile, dove lo spessore ottico degli aerosol (Ï„) assume valori elevati, prossimi a 0,25. In corrispondenza di questi eventi, ovvero quando la concentrazione di aerosol in troposfera risulta essere significativa, la perturbazione all’irradianza solare prodotta dagli aerosol (Δ SWÏ„) assume valori rilevanti, con un massimo che è stato stimato intorno a -90 +/- 18 Wm-2, e che corrisponde a una variazione del 12,5% rispetto all’irradianza incontaminata SW0.

Concentrazioni di PM10 e black carbon misurati presso la base Ev-K2-CNR nei giorni 29-30 Aprile e 1 Maggio 2009, in cui si osserva l'arrivo di una ABC nei pressi della stazione

Concentrazioni di PM10 e black carbon misurati presso la base Ev-K2-CNR nei giorni
29-30 Aprile e 1 Maggio 2009, in cui si osserva l’arrivo di una ABC nei pressi della stazione.

Particolati nell’aria

A ulteriore conferma dell’intensità del fenomeno, in figura è possibile osservare le concentrazioni di PM10 (particolato con diametro inferiore a 10 μm) e black carbon (BC) misurate presso la base nei giorni di picco di un evento (29-30 Aprile 2009), quando il PM10 tocca i 60 μg/m3 mentre il BC supera i 3000 ng/m3. Per rendersi conto della veemenza di questi eventi basta pensare che nella città di Roma concentrazioni di PM10 superiori a 50 μg/m3 sono considerate fuori legge e quando vengono raggiunte portano al blocco della circolazione delle automobili!

In questo quadro risulta evidente come lo studio dell’atmosfera nei siti di alta montagna risulti indispensabile per determinare le possibili interazioni fra le attività antropiche e i cambiamenti climatici su scale regionale e globale. Tali ambienti infatti sono caratterizzati da ecosistemi molto particolari ed estremamente delicati, di conseguenza rappresentano dei laboratori ideali nei quali gli effetti prodotti dalle emissioni di natura antropica vengono amplificati e possono quindi essere studiati più facilmente. Inoltre, per quanto riguarda la base Ev-K2-CNR, la presenza di elevate concentrazioni di aerosol in atmosfera, oltre a modificare il bilancio radiativo netto come già visto, può avere importanti implicazioni negli altri processi che vedono coinvolto l’altopiano tibetano come lo scioglimento dei ghiacciai o la circolazione delle correnti monsoniche che caratterizza il clima dell’Asia.

Bibliografia

  1. Base Ev-K2-CNR
  2. Bonasoni P. et al. Atmospheric Brown Clouds in the Himalayas: first two years of continuous observations at the Nepal-Climate Observatory at Pyramid (5079 m). In Atmospheric Chemistry and Physics Discussions, vol. 10(2):4823–4885 (2010)
  3. Ramanathan V. et al. Atmospheric Brown Clouds: Regional Assessment Report with Focus on Asia. Rap. tecn., Stockholm University, Department of Meteorology (2008)
  4. Di Biagio C., Di Sarra A.G., Eriksen P. et al. Effect of albedo, water vapor, and atmospheric aerosols on the cloud-free shortwave radiative budget in the Artic. In Climate Dynamics (2012)

Biografia

Daniele Gasbarra è uno degli ultimi laureati in Geofisica all’Università Sapienza di Roma, prima che i tagli della riforma Gelmini portassero all’estinzione dell’intero corso di laurea. Ha lavorato durante la sua tesi di laurea sull’analisi dei dati provenienti dal laboratorio himalayano Ev-K2-CNR. Attualmente si occupa del monitoraggio e della previsione della qualità dell’aria nella zona di Napoli e provincia presso il CNR-ISAFOM di Ercolano.


(Contains 1 attachments.)

La laurea in Geofisica a Roma

Written By: Redazione - Feb• 19•14

A partire dal 1999 ha preso il via in Italia la riorganizzazione accademica per rispondere agli obiettivi stabiliti nel Processo di Bologna, una riforma internazionale del sistema di istruzione superiore dei paesi membri della Comunità Europea. L’Italia è tra i primi quattro promotori della convenzione “Spazio Europeo dell’Istruzione Superiore”, che garantisce la validità dei titoli di istruzione di livello superiore in tutti i paesi sottoscrittori. Tra gli obiettivi principali di questa iniziativa c’è quello di creare l’offerta di un’ampia base di conoscenze di alta qualità per assicurare lo sviluppo economico e sociale dell’Europa, così da rendere la Comunità Europea più competitiva a livello internazionale e attrarre studenti dai paesi non comunitari. La convenzione permette inoltre la mobilità degli studenti e del mondo accademico in generale, che in questo modo hanno la possibilità di muoversi senza ostacoli con il loro titolo di studi. Pur lasciando una certa autonomia nell’organizzazione universitaria, ai paesi aderenti è stato richiesto di seguire alcuni punti guida, come l’adozione di un sistema con tre cicli di studi, il consolidamento del sistema dei crediti per la mobilità degli studenti, la valutazione della qualità.

L’Italia, a partire dal 1999, ha quindi iniziato il proprio processo di ristrutturazione del sistema universitario istituendo 3 cicli di studi: la Laurea, titolo accademico di 1° ciclo; la Laurea Specialistica/Magistrale, titolo principale del 2° ciclo; i corsi di 3° ciclo, che rilasciano il Dottorato di Ricerca. I corsi di laurea di primo livello hanno lo scopo di fornire allo studente metodi e contenuti scientifici, nonché conoscenze professionali specifiche. I corsi della laurea magistrale hanno invece l’obiettivo di dare una formazione più avanzata, per creare personale qualificato in ambiti specifici. Questo tipo di organizzazione ha permesso agli atenei, e quindi ai dipartimenti, la possibilità di istituire dei percorsi di laurea specialistici per alcuni settori, inserendo all’interno dei vari curricula di studi un numero maggiore di esami caratterizzanti.

Nel dipartimento di Fisica dell’Università Sapienza di Roma questo si è tradotto nell’istituzione di corsi di laurea magistrale anche a carattere applicativo. Nell’A.A. 2005/2006, i curricula previsti dal manifesto di studi della laurea in fisica erano Biosistemi, Elettronico, Fisica della materia, Fisica nucleare e subnucleare, Geofisico, Teorico generale, Storico epistemologico didattico. Negli anni successivi, la riduzione dei fondi destinati all’università ha avuto come conseguenza il non poter assumere nuovi professori all’interno dei dipartimenti, bloccando di fatto il rinnovamento del corpo docente e provocando una cospicua riduzione del numero degli insegnamenti attivati. All’interno del dipartimento di fisica il numero dei docenti presenti (professori ordinari, professori associati e ricercatori) si è ridotto dal 2007 ad oggi da 137 a 112: in certi casi, questa diminuzione si è tradotta nella scomparsa di alcuni curricula, e quindi nella mancata possibilità di specializzarsi in un determinato settore. Nell’A.A. 2012/2013, i curricula sopravvissuti sono solo Biosistemi, Fisica della materia, Fisica nucleare e subnucleare, Teorico generale. Tra quelli scomparsi vi è quindi quello di Geofisica, che prevedeva, dal momento della sua istituzione, i corsi di sismologia, oceanografia, fisica dell’atmosfera e climatologia, ma che negli ultimi anni aveva già perso insegnamenti per carenza di personale docente. Tutto questo a fronte di un crescente interesse a livello nazionale e internazionale sia verso la meteorologia e la climatologia, a seguito degli eventi meteorologici estremi degli ultimi anni, sia verso le problematiche che riguardano la qualità dell’aria ed il trasporto di inquinanti, di fondamentale interesse per la salute pubblica.

I cambiamenti climatici, oggi al centro dell’attenzione e del dibattito scientifico e politico mondiale, sono oggetto di ricerca da parte di istituzioni internazionali come il World Meteorological Organization e l’Intergovernamental Panel on Climate Change, e l’argomento è considerato di così grande rilievo che nella grande maggioranza dei paesi sviluppati esistono percorsi didattici specificamente dedicati al settore della meteorologia: ne sono un esempio il “Bachelor in Meteorology and Climate” presso l’Università di Reading nel Regno Unito, la “School of Meteorology” dell’Università dell’Oklahoma, la Colorado State University e la University of Washington. Un’offerta formativa in cui il nostro paese, invece, manifesta un’endemica carenza, nonostante l’esistenza di molteplici sbocchi professionali che vanno dalle società private di previsione meteorologica alle istituzioni pubbliche nazionali (Servizio Meteorologico dell’Aeronautica Militare, le ARPA regionali, ISPRA) e internazionali (WMO, ECMWF, NCEP), ma anche enti pubblici di ricerca (ENEA, CNR, INGV).

Spinti da questa mancanza e dalla necessità di avere invece delle figure professionali in grado di coprire questi campi, alcuni professori della Sapienza e dell’Università degli Studi de l’Aquila hanno avanzato la proposta di istituire una laurea magistrale in Fisica consorziata tra i due atenei, la “Laurea in Fisica dell’Atmosfera, Meteorologia e Telerilevamento” (FISAMT), con sede amministrativa nell’ateneo aquilano. In questo nuovo percorso, che metterebbe da subito in evidenza il suo aspetto multidisciplinare, l’Università di Roma coinvolgerebbe sia il Dipartimento di Fisica che la facoltà di Ingegneria, Elettronica e Telecomunicazioni (DIET). Il dipartimento di Fisica conta su due gruppi di ricerca che si occupano di telerilevamento atmosferico (Laboratorio di Fisica Terrestre, G24) e meteorologia (The Meteorology Group, G-MET), a cui appartenevano i docenti dei corsi specialistici del vecchio curriculum di geofisica della laurea magistrale. Nel dipartimento di ingegneria (DIET) è invece attivo un gruppo che si occupa di osservazioni di nubi e precipitazioni tramite radar e misure da satellite, ed esiste uno specifico dottorato di ricerca in “Telerilevamento”. Il Dipartimento dell’Università de L’Aquila interessato è invece quello di Scienze Fisiche e Chimiche (DSFC), che possiede ampie e riconosciute competenze in questo settore, valorizzate anche attraverso il CETEMPS (“Centro di eccellenza in Telerilevamento e Modellistica numerica per la Previsione di eventi Severi” fondato nel 2001), ma che a causa del sisma del 2009 e della mancanza di una scuola specifica di settore non riesce ad attirare molti studenti.

L’organizzazione della laurea magistrale FISAMT è stata affidata ad un Comitato Ordinatore che si sta occupando degli aspetti burocratici, economici, logistici e didattici insieme ai dipartimenti dei due atenei. L’istituzione di questo nuovo percorso di studi comunque, non richiederebbe l’assunzione di nuovi docenti da parte degli atenei, perché sarebbe strutturato in maniera tale da coinvolgere i professori e i ricercatori già in servizio nei dipartimenti coinvolti. Il parere favorevole all’istituzione della FISAMT è arrivato anche dall’ASI e dal CNR, che individuano in questo percorso di studi una buona opportunità per colmare un grave vuoto formativo e reperire personale specializzato spendibile nello sviluppo e nella ricerca.

L’auspicio è che la laurea magistrale in Fisica FISAMT venga istituita quanto prima, sia perché sarebbe una grande opportunità per gli studenti e il mondo della ricerca, sia perché possiede tutte le caratteristiche per divenire un altro campo di eccellenza italiana.

Bibliografia

  1. Cerca Università – Docenti
  2. Proposta attivazione LM17
  3. CETEMPS

Biografia

Anna Maria Iannarelli è attualmente studentessa di dottorato presso il gruppo G24 del dipartimento di Fisica dell’Università Sapienza di Roma.


(Contains 1 attachments.)

Strabilianti effetti della risonanza

Written By: Martina Pugliese - Feb• 19•14

Ogni sistema capace di oscillare subisce il fenomeno della risonanza quando una sorgente esterna lo sollecita sulle frequenze di oscillazione che gli sono proprie. Un tipico esempio è l’altalena (modellizzabile come un pendolo, che ha una sua frequenza di oscillazione dovuta alle sue caratteristiche fisiche): una cosa che fanno tutti i bambini e che risulta immediata dopo un po’ di allenamento è imprimerle una spinta nei punti di massima distanza dalla posizione di riposo, per aumentarne gradualmente l’angolo di oscillazione. La risonanza consiste infatti nel trasferimento di energia da un sistema a un altro, in modo tale da incrementare l’ampiezza di oscillazione di quest’ultimo. In musica ciò è fondamentale per il funzionamento di numerosi strumenti musicali, per i quali una componente importante è la cassa di risonanza, o cassa armonica. Essa è strutturata in modo tale da mettersi a vibrare per effetto della vibrazione delle corde stesse, così da produrre un suono che possiamo percepire chiaramente.

Ma la risonanza in musica non si esaurisce con la vibrazione delle casse armoniche degli strumenti. Nei cordofoni infatti, il risultato finale sonoro dovuto al pizzicamento della corda in un punto è dovuto alla frequenza di vibrazione principale e a tutte le sue armoniche, che derivano dai moti di vibrazione secondari della corda stessa e sono a loro volta un effetto della (auto)risonanza. Il tutto mette in oscillazione la cassa armonica e così ne fuoriesce un suono, con la sua peculiare caratteristica timbrica. La frequenza si definisce come il numero di oscillazioni nell’unità di tempo e le armoniche di una frequenza fondamentale sono nient’altro che i multipli interi di essa: la loro presenza per risonanza arricchisce il suono principale.

Questo discorso non è relativo esclusivamente agli strumenti a corda: lo stesso vale infatti per quelli a fiato, dove a vibrare non è una stringa di materiale bensì la colonna d’aria presente nel corpo dello strumento stesso, messa in vibrazione mediante le labbra dell’esecutore. In questo caso la chiusura di fori lungo la lunghezza dello strumento a fiato corrisponde al tener ferma in un punto la corda di un cordofono, generando così la frequenza principale e le sue armoniche. Il ruolo della cassa armonica o del tubo dello strumento determina di fatto la differenza tra uno strumento di qualità e uno più modesto.

Esistono addirittura strumenti che fanno un uso della risonanza più creativo, sfruttandola come elemento cardine della propria struttura. Uno di questi, usato prettamente nel periodo che va dalla seconda metà del diciassettesimo secolo alla prima del diciottesimo, è la viola d’amore. Oltre alle consuete corde, possiede anche un secondo insieme di corde, dette corde simpatiche perché fanno leva sulla risonanza simpatica (l’aggettivo simpatico viene etimologicamente da con + pathos, greco, che sta a indicare la condivisione di un sentire) e che si trovano al di sotto delle prime: l’esecutore mette in movimento le corde superiori e quelle inferiori oscillano per risonanza alle frequenze delle prime, contribuendo al suono. Il principio è lo stesso descritto in precedenza ed è facilmente visibile se si hanno a disposizione due diapason (il diapason è una doppia barra metallica capace di vibrare, emettendo quindi un suono, e si usa solitamente per accordare i cordofoni su quel suono): battendone uno, l’altro, se posto sufficientemente vicino, vibrerà spontaneamente. Analogamente accade con due pendoli. Il periodo di maggiore utilizzo della viola d’amore è stato quello della musica barocca, improntata all’accentuazione di numerosi ornamenti stilistici come virtuosismi, acciaccature nel testo musicale (piccole note o gruppi di note aggiunte come arricchimento a una frase), presenza contemporanea di molti strumenti.

Particolare di una viola d'amore: sono ben evidenti le corde principali e quelle simpatiche.

Particolare di una viola d’amore: sono ben evidenti le corde principali e quelle simpatiche.

In musica la risonanza è dunque fondamentale, ma a pensarci bene caratterizza un qualunque sistema capace di vibrare sotto una sollecitazione. Uno di questi sistemi può essere per esempio un ponte: a seconda delle sue caratteristiche strutturali rischia di spezzarsi per effetto della risonanza. Nel 1940, il ponte Tacoma Narrows Bridge nello stato di Washington crollò sotto l’effetto del semplice… vento. Il vento lo mise in vibrazione alla sua frequenza propria e l’oscillazione in ampiezza superò la soglia di tolleranza del materiale. Similmente, per evitare un analogo risultato, i soldati, trovandosi a dover passare su di un ponte, interrompono il passo di marcia. Non è escluso infatti che quel passo abbia frequenza pari a quella propria del ponte e ciò potrebbe farlo spezzare, come è successo per esempio all’Angers Bridge in Francia nel 1850. Una strabiliante e più recente manifestazione di questo tipo si è avuta nel giorno di inaugurazione del Millennium Bridge a Londra, nel 2000: il ponte andò in risonanza per l’effetto della folla

che lo attraversava, per fortuna questa volta senza danni.

Bibliografia

  1. Fletcher N.N.H. e Rossing T.D. The physics of musical instruments. Springer (1998)
  2. Strogatz S.H., Abrams D.M., McRobie A., Eckhardt B. e Ott E. Theoretical mechanics: Crowd synchrony on the Millennium Bridge. In Nature, vol. 438(7064):43-44 (2005)

Biografia

Martina Pugliese, laureata in Fisica presso l’Università Sapienza di Roma, è attualmente dottoranda in Fisica presso lo stesso ateneo. Si occupa principalmente di modellizzazione di dinamiche di linguaggio, ma suonando da anni il pianoforte, è anche molto interessata al profondo rapporto tra musica e scienza.


(Contains 1 attachments.)

Ci sono più cose in cielo e in terra…

Written By: Alessio Cimarelli - Jun• 25•13

La Scienza è una grande avventura intellettuale che tra alti e bassi ha portato in pochi secoli l’Uomo a una conoscenza e a una capacità di manipolazione della Natura inedite nella storia. All’inizio del XXI secolo siamo solo in un punto imprecisato di questo viaggio, quindi abbiamo tanta strada dietro di noi, ma altrettanta, anzi molta di più, davanti a noi. La banale conseguenza di una visione dinamica della scienza, intesa quindi come processo conoscitivo che ha un suo sviluppo nel tempo, è che in un dato momento saranno molte le cose non conosciute o non controllabili. L’ignoranza nella scienza, però, non è mai un limite, semmai è un’opportunità.

Antonella Succurro, per esempio, ci accompagna sull’orlo del burrone delle frontiere della conoscenza in fisica delle particelle, perennemente in bilico tra il ben noto e sperimentato e la speculazione, tanto affascinante quanto incerta. Il messaggio di LHC è ormai chiaro, “sì, l’Higgs c’è!”, ma non risponde alla domanda: “bene! E oltre?”. È proprio in quell’oltre che si focalizzano oggi tanta passione, tanti sforzi e tanta intelligenza.

Matteo di Giovanni, invece, ribalta la prospettiva e cambia strumento: dai microscopi ai telescopi, per indagare le profondità del cosmo e fare i conti con il problema dell’energia oscura, il cui allegorico colore la dice lunga sul nostro grado di conoscenze in questo ambito: poco o nulla, molti indizi, ma ben poche prove convincenti.

E che dire quando anche la matematica, linguaggio della Natura per eccellenza come la definiva Galileo, a volte è un ostacolo alla conoscenza approfondita di determinati sistemi? È il caso del problema degli N corpi interagenti tra loro, il cui moto è perfettamente descrivibile se sono due, ma impossibile da gestire analiticamente se sono tre o più. Almeno in questo caso, ci rincuora Antonella Marchesiello, la stessa matematica può però aiutarci anche a controllare al meglio l’incertezza e l’approssimazione.

Incertezza e approssimazione che sono alla base delle scienze della Terra, in particolare quando si tratta di terremoti, una questione spesso di tragica attualità in Italia: è in questi casi che diventa fondamentale la cura della comunicazione, perché l’interesse non è solo puramente accademico, ma è condiviso dall’intera società che con la vitalità del pianeta non può fare a meno di farci i conti. Gestire un terremoto, però, è tra i compiti più difficili, ci spiega Warner Marzocchi, anche se ci sono molte strategie adottabili per limitare al massimo i rischi e i danni.

Dunque la Scienza è un viaggio. Non individuale, però, bensì collettivo. Che coinvolge direttamente molti e riguarda tutti, nessuno escluso. Ma non esiste gruppo senza una forma di comunicazione tra le sue varie componenti e forse è proprio qui la chiave di una buona scienza: in una comunicazione diretta, schietta, onesta, appassionata e corretta, che faccia tesoro delle esperienze passate, positive o negative che siano, e sperimenti nuove modalità, nuovi linguaggi, nuove forme: un’occhiata a progetti ed esperimenti come Fisicast e Maddmaths! può fornire molti ottimi spunti.

Senza illusioni da fantascienza, perché sappiamo che ci sono forze in grado di distruggere in poche ore il frutto del lavoro di anni: Città della Scienza a Napoli non esiste materialmente più dal marzo scorso, divorata da un incendio doloso. Dopo l’incredulità, la rabbia, il dispiacere, non resta che fare tesoro delle esperienze passate, positive o negative che siano per l’appunto, consapevoli che l’unico vero carburante per il lungo viaggio della scienza è in fondo costituito da curiosità e passione. Due sentimenti potenti, prorompenti e, per fortuna, ignifughi.

Buona lettura… non solo su carta e su web, ma da oggi anche su iPhone e iPad grazie alla nuovissima h-app!

 

Perennemente in bilico, alla ricerca di qualcosa

Written By: Redazione - Jun• 25•13

Esistono diverse tipologie di ricercati: quelli famosi la cui caccia si guadagna le prime pagine dei giornali a ogni accenno d’indizio, e quelli meno noti ma a cui magari il commissario di turno è particolarmente affezionato. Ad ATLAS1 è lo stesso: la taglia più alta pende sulla testa della superstar della fisica delle particelle, il bosone di Higgs, ma gli archivi sono pieni di fascicoli di altri soliti ignoti.

La scalata al Modello Standard

All’inizio del XX secolo non si conoscevano molte particelle: c’erano giusto gli elettroni, i protoni, i neutroni, insomma la materia di tutti i giorni. Nel 1936 iniziò quella che possiamo chiamare una rivoluzione del settore, quando una serie di nuove particelle cominciò a spuntare, seguendo l’esempio delle prime a essere state scoperte, il muone e il neutrino [3]. I fisici delle particelle si trovarono spiazzati di fronte a tale affluenza, tanto che negli anni ’60 si parlava di uno zoo di particelle.

Ci pensarono, indipendentemente, Murray Gell-Mann e George Zweig a mettere ordine, ipotizzando per la prima volta l’esistenza di componenti più fondamentali degli ormai schedati protoni e neutroni: i quark [4]. Quella che sembrava una semplice categorizzazione delle nuove particelle in base alle loro proprietà osservate sperimentalmente trovò poi una teorizzazione precisa negli anni ’60 con la formulazione del Modello Standard.

Modello standard

Figura 1 – Schema delle particelle descritte nel Modello Standard.

Al momento questa è la migliore teoria che descrive le particelle fondamentali, i mattoncini che costituiscono la materia, e le tre forze (forte, debole ed elettromagnetica) che governano l’universo insieme alla forza gravitazionale. Secondo il modello, le particelle si dividono in due grandi categorie, quark e leptoni, ognuna delle quali è composta da 6 particelle organizzate a coppie in 3 generazioni, o famiglie. La prima famiglia di quark è composta dai quark up e down, seguiti da charm e strange nella seconda famiglia e top e bottom nella terza. Nel settore dei leptoni le famiglie sono costituite da elettrone, muone e tau accompagnati dai rispettivi neutrini (cfr. Fig. 1).

Le interazioni tra queste particelle sono descritte tramite lo scambio di altre particelle, i bosoni vettori, mediatori delle diverse forze: il fotone è responsabile della forza elettromagnetica, i bosoni W e Z della forza debole e i gluoni della forza forte. La materia ordinaria è composta dalle particelle stabili, che fanno parte della prima generazione di quark e leptoni. Gli elementi delle generazioni successive, invece, sono stati tutti osservati nei raggi cosmici o come prodotti nei laboratori. Nel Modello Standard si descrivono le particelle della stessa generazione insieme, ma questo crea un problema con la massa, dal momento che anche le particelle della stessa generazione hanno masse diverse fra loro. All’epoca, infatti, i fisici teorici Abdus Salam, Sheldon Glashow e Steven Weinberg erano in grado di spiegare elegantemente le interazioni elettrodeboli tra le particelle. Il loro modello, però, come detto, mancava di un meccanismo che attribuisse alle particelle fondamentali, quark e leptoni, la massa.

Ed è qui, più di cinquant’anni fa, che inizia la caccia all’ormai famigerato bosone quando Peter Higgs, Francois Englert e Robert Brout postularono l’esistenza di un nuovo campo2, quindi un nuovo bosone vettore la cui interazione con le particelle ne determina la massa: ovvero quanto più queste
interagiscono con il bosone di Higgs, tanto più sono massive. Il Modello Standard ha descritto e predetto con grande accuratezza molti processi poi verificati sperimentalmente, mancava solo l’ultimo tassello, proprio il bosone di Higgs.

Quando il 4 luglio 2012, a quasi vent’anni dall’ultima scoperta nella fisica delle particelle [5], venne annunciata l’osservazione di un nuovo bosone [6,7], dalle proprietà consistenti con l’identikit del bosone di Higgs, si può immaginare l’emozione degli addetti ai lavori. Ma se anche fosse lui, come anche le ultimissime osservazioni lasciano pensare, se anche fosse finita la caccia cinquantennale a questo pezzo grosso, in commissariato ci sono pile e pile di fascicoli da analizzare.

L’orlo del burrone, ovvero la nuova fisica

Il meccanismo di attribuzione della massa non è (era?) l’unico problema del Modello Standard. Se, infatti, da un lato le sue predizioni sono state confermate con una precisione altissima dai dati sperimentali, dall’altro si potrebbero osservare incosistenze ai regimi di energie come quelle che si investigano ora a LHC, dove i protoni si scontrano a energie pari a 8 TeV3. I fisici teorici si sono spesi abbondantemente nel tentativo di formulare teorie più generali, inserendo il Modello Standard in modelli di nuova fisica, di cui il nostro caro vecchio modello sarebbe una specie di approssimazione estremamente valida a basse energie, come se il nostro Aspromonte fosse in realtà solo la base di una montagna ben più alta di cui, però, non vediamo la cima.

Chi si nasconderà lì? Come fare a capire se i sospetti dei teorici sono fondati, se le loro descrizioni dei ricercati attendibili? Ci sono taglie consistenti che pendono sulla testa di un buon numero di nuove particelle, con il piccolo dettaglio che, ad oggi, non sappiamo se queste esistono veramente. Come si procede quindi? Semplice, si considerano due scenari, due ipotesi, una con e una senza l’indiziato, e ci si chiede cosa possa esserci di diverso nei due casi. Si cerca una traccia, possibilmente in una zona dove ci si aspetta non passino in molti (vogliamo orme il più pulite e definite possibili!).

Particolare di ATLAS

Figura 2 – Un particolare del rilevatore ATLAS installato a LHC. Credit: CERN.

La banda della quarta generazione

Ad esempio, come si potrebbe cercare un’eventuale quarta generazione di quark? Alcuni teorici hanno insinuato il dubbio che questa banda potrebbe spiegare diverse questioni che non tornano nel Modello Standard, quindi è d’obbligo investigarla! Se questo settimo quark si comportasse come il quark top l’unica differenza tra i due sarebbe la loro massa, essendo il nostro ricercato decisamente più pesante. O, almeno, questo è quanto ci aspettiamo, dal momento che i nascondigli dove particelle con masse inferiori potevano nascondersi sono già stati setacciati durante la ricerca del quark top. Purtroppo i nostri informatori non sanno predire quanto più pesante debba essere il settimo quark, l’unica soluzione è testare diverse eventualità. Serve, quindi, una strategia valida in generale assumendo semplicemente che la massa del nuovo quark sia maggiore di quella del top.

Nell’analisi svolta da ATLAS [8] si è sfruttata la caratteristica cinematica per cui due particelle prodotte in una collisione ad alta energia ne ricevono una certa quantità che in parte viene investita nella loro massa e in parte nella loro quantità di moto. Quindi se l’energia di partenza è la stessa, particelle più pesanti andranno più piano. Seguendo questa pista possiamo ricostruire la massa delle particelle, la firma migliore per poter distinguere il nostro ricercato tra la folla.

Non basta, però, un singolo avvistamento, potrebbe essere una svista, una particella nota un po’ cammuffata. Ad aiutarci a definire una soglia accettabile di sicurezza è la statistica. Dopo aver definito due distribuzioni4 che si comportano una come l’ipotesi con e l’altra come l’ipotesi senza quarta generazione, si va a vedere come si posiziona in relazione a loro un parametro estratto dai dati sperimentali. Se le due distribuzioni sono abbastanza distinte sarà possibile affermare che i fatti propendono per una o per l’altra ipotesi in base a dove si piazza il nostro parametro. In particolare, in fisica si considera un dato statisticamente significativo quando il parametro si comporta nello stesso modo nel 95% dei casi. Ciò significherebbe che è molto poco probabile che la consistenza con una certa ipotesi sia casuale, come, nel nostro esempio, si è infine rivelato poco probabile il settimo quark.

E allora si archivi il fascicolo della banda della quarta generazione e si inizi a compilare il file dei prossimi sospettati, i quark vettoriali, con cui dovrebbe essere possibile descrivere l’interazione con i bosoni vettori in un modo differente da quello utilizzato nel Modello Standard. Ma che non ci si scordi di quel cassetto! Qualcuno potrebbe un giorno venire a chiedere di loro, magari per un avvistamento, magari mentre cercava qualcos’altro. È il bello della scienza, di quell’inevitabile 5% di incertezza che si ha sempre quando si vuole escludere qualcosa.

Note

  1. L’esperimento ATLAS (A Toroidal LHC ApparatuS) raccoglie e analizza le collisioni protone-protone prodotte dall’acceleratore LHC (Large Hadron Collider) al CERN di Ginevra. Ne fanno parte circa 4000 scienziati provenienti da tutto il mondo.
  2. Il campo è una perturbazione dello spazio-tempo che descrive l’interazione tra particelle: una particella produce un campo e ogni particella che si trova in questo campo subisce una forza. Il campo non è soltanto un oggetto matematico. Nella teoria della relatività, infatti, non è possibile un’interazione istantanea tra particelle distanti, poiché l’interazione non può propagarsi a una velocità superiore alla velocità della luce. È necessario un mediatore, un campo, con cui le particelle interagiscono punto per punto.
  3. Quest’energia, la più alta mai raggiunta in collisionatori di particelle, se convertita in Joule, l’unità di misura del lavoro, non è più così impressionante: si parla più o meno dell’energia di una zanzara in volo. La cosa che fa la differenza in questo caso è lo spazio in cui è concentrata quest’energia, confinata all’interno dei protoni.
  4. Con il termine distribuzione si intende la descrizione matematica di come si pensa che le misure siano distribuite in un intervallo di possibili valori.

Bibliografia

    1. ATLAS Collaboration website
    2. Una panoramica sul Modello Standard
    3. Neddermeyer S.H. e Anderson C.D. Note on the nature of 

      cosmic-ray particles. In Phys. Rev., vol. 51:884 (mag 1937)

    4. Cowan C.L. et al. Detection of the Free Neutrino. In Science, vol. 124:103 (lug. 1956)
    5. CDF Collaboration. Observation of top quark production in anti-p p collisions with the collider detector at Fermilab. In Phys. Rev. Lett., vol. 74:2626 (apr. 1995)
    6. ATLAS Collaboration. Observation of a new particle in the 

      search for the standard model higgs boson with the atlas detector 

      at the LHC.

      In Phys. Lett. B, vol. 716:103 (2012)

    7. CMS Collaboration. Observation of a new boson at a mass of 

      125 GeV with the CMS experiment at the LHC. In Phys. Lett. B,

      vol. 716:30 (2012)

    8. ATLAS Collaboration. In Phys. Lett. B, vol. 718:1284 (2012). arXiv:1210.5468
    9. UA2 Collaboration. Evidence for Z_0 -> e+ e- at the CERN anti-p p Collider. In Phys. Lett. B, vol. 129:130 (1983)

Biografia

Antonella Succurro, si è laureata nel 2009 all’Università degli Studi di Pavia con una tesi sulla ricerca di particelle supersimmetriche all’esperimento ATLAS del CERN. È attualmente dottoranda presso l’Istituto di Fisica delle Alte Energie (IFAE) di Barcellona e continua a lavorare su ricerche di nuova fisica ad ATLAS. Al liceo voleva fare l’Accademia di Belle Arti…


(Contains 1 attachments.)