MINISTERO DELL'ISTRUZIONE, DELL'UNIVERSITÀ E DELLA RICERCA
DIPARTIMENTO PER L'UNIVERSITÀ, L'ALTA FORMAZIONE ARTISTICA, MUSICALE E COREUTICA E PER LA RICERCA SCIENTIFICA E TECNOLOGICA
PROGRAMMI DI RICERCA SCIENTIFICA DI RILEVANTE INTERESSE NAZIONALE
RICHIESTA DI COFINANZIAMENTO (DM n. 30 del 12 febbraio 2004)

PROGETTO DI UNA UNITÀ DI RICERCA - MODELLO B
Anno 2004 - prot. 2004025857_005
PARTE I

1.1 Tipologia del programma di ricerca
Interuniversitario 


Aree scientifico disciplinari
Area 02: Scienze fisiche (100%) 
 
 


1.2 Durata del Programma di Ricerca

 

24 Mesi  


1.3 Coordinatore Scientifico del Programma di Ricerca

PARISI  GIORGIO  Giorgio.Parisi@roma1.infn.it 
FIS/02 - Fisica teorica, modelli e metodi matematici 
Università degli Studi di ROMA "La Sapienza" 
Facoltà di SCIENZE MATEMATICHE FISICHE e NATURALI 
Dipartimento di FISICA 


1.4 Responsabile Scientifico dell'Unità di Ricerca

TRIPICCIONE  RAFFAELE 
Professore Ordinario  26/06/1956  TRPRFL56H26D612W 
FIS/02 - Fisica teorica, modelli e metodi matematici 
Università degli Studi di FERRARA 
Facoltà di SCIENZE MATEMATICHE FISICHE e NATURALI 
Dipartimento di FISICA 
0532-974244
(Prefisso e telefono)
 
0532-974210
(Numero fax)
 
tripiccione@fe.infn.it
(Email)
 


1.5 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca


Testo italiano

Raffaele Tripiccione si e' laureato in fisica nel 1980.
- 1981 - 1982: Scuola di perfezionamento in Fisica della Scuola Normale Superiore.
- 1981 - 1982: visitatore del gruppo teorico di Fermilab.
- 1984 - 1990: ricercatore dell' INFN.
- 1990 - 1998: primo ricercatore dell' INFN.
- 1998 - 2000: dirigente di ricerca dell' INFN.
- 2000 - : professore ordinario di fisica all' Universita' di Ferrara.
Principali areee di ricerca:
- fenomenologia delle particelle elementari, soprattuto riguardo alla fenomenologia dei collider adronici
- astroparticle physics, con particolare riguardo alla rivelazione dei monopoli magnetici.
- teorie di gauge sul reticolo: azioni improved, approccio allo scaling, transizioni di fase a temperatura finita, spettro di massa di glueball e stati adronici.
- fisica statistica dei fluidi in regime turbolento, soprattuto per quanto riguarda le leggi di scala delle funzioni di correlazione delle velocita'
- fisica statistica della turbolenza convettiva
- sviluppo di sistemi di calcolo massicciamente paralleli per la simulazione numerica di teorie di gauge sul reticolo, per la simulazione di dei sistemi fluidi e per l' analisi dei segnali.


Testo inglese
Raffaele Tripiccione obtained his degree in physics (summa cum laude) from the University of Pisa in 1980.
- 1981 - 1982: Post-graduate student at the Scuola Normale Superiore (Pisa)
- 1981 - 1982: Visitor at the theory group at Fermilab.
- 1984 - 1990: Research associate (Ricercatore) at Istituto nazionale di Fisica Nucleare (INFN).
- 1990 - 1998: Senior Research Associate (Primo ricercatore) at INFN
- 1998 - 2000: Reasearch Leader (Dirigente di Ricerca) at INFN.
- 2000 - : Full professor of physics at the University of Ferrara.
Main research interests:
- Phenomenology of elementary particles, with special interests in hadronic collider phenomenology.
- astroparticle physics, with main interests in magnetic monopole detection.
- Lattice Gauge Theory: improved lattice actions, approach to scaling, phase transitions at finite temperature, mass spectrum of glueballs and hadronic states.
- statistical physics and turbulent fluid dynamics, with special interests in scaling laws of velocity correlation functions.
- statistical properties of convective turbulence.
- development of massively parallel processing systems optimized for the numerical simulation of lattice gauge theories, fluid dynamics simulation and signal analysis.


1.6 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca

 

1. TRIPICCIONE R.; ET AL (2003). Matched filters for coalescing binaries detection on massively parallel computers COMPUTER PHYSICS COMMUNICATIONS. (vol. 152 pp. 295-306)  
2. TRIPICCIONE R.; BIFERALE L; CALZAVARINI E; TOSCHI F (2003). Universality of anisotropic fluctuations from numerical simulations of turbulent flows EUROPHYSICS LETTERS. (vol. 64 pp. 461)  
3. TRIPICCIONE R.; E. CALZAVARINI; F. TOSCHI (2002). Evidences of Bolgiano-Obhukhov scaling in three-dimensional Rayleigh-Benard convection PHYSICAL REVIEW E. (vol. 66 pp. 16304)  
4. TRIPICCIONE R. (2001). LGT simulations on APE machines COMPUTER PHYSICS COMMUNICATIONS. (vol. 139 pp. 55-63)  
5. TRIPICCIONE R.; BENZI R.; TOSCHI F. (1998). On the Heat Transfer in Rayleigh Benard Systems JOURNAL OF STATISTICAL PHYSICS. (vol. 93 pp. 901-918)  


1.7 Risorse umane impegnabili nel Programma dell'Unità di Ricerca




1.7.1 Personale universitario dell'Università sede dell'Unità di Ricerca

Personale docente

Cognome  Nome  Dipartimento   Qualifica  Settore Disc.  Mesi Uomo 
1° anno  2° anno 
1. TRIPICCIONE  Raffaele  Dip. FISICA  Prof. Ordinario  FIS/02  10  7 
2. CANESCHI  Luca  Dip. FISICA  Prof. Ordinario  FIS/02  6  6 
  TOTALE              16  13 


Altro personale


Nessuno

1.7.2 Personale universitario di altre Università

Personale docente
Nessuno

Altro personale


Nessuno

1.7.3 Titolari di assegni di ricerca

Cognome  Nome  Dipartimento  Data di inizio del contratto  Durata
(in anni) 
Mesi Uomo 
1° anno  2° anno 
1. DAMIANI   Chiara   Dip. FISICA  03/09/2003     9  9 
TOTALE               


1.7.4 Titolari di borse


Nessuno

1.7.5 Personale a contratto da destinare a questo specifico programma

Qualifica  Costo previsto  Mesi Uomo  Note 
1° anno  2° anno 
1. Assegnista  30.900  10  11   
2. Altre tipologie  10.000  4  4  laureato 
  TOTALE  40.900  14  15    


1.7.6 Personale extrauniversitario indipendente o dipendente da altri Enti

Cognome  Nome  Nome dell'ente  Qualifica  Mesi Uomo 
1° anno  2° anno 
1. Schifano  Fabio  INFN  ricercatore  9  9 
  TOTALE          





PARTE II

2.1 Titolo specifico del programma svolto dall'Unità di Ricerca


Testo italiano

Tecniche computazionali e sistemi di calcolo parallelo per la fisica statistica ed i sistemi complessi


Testo inglese
Computational techniques and massively parallel computing systems for statistical physics and complex systems


2.2 Settori scientifico-disciplinari interessati dal Programma di Ricerca

 

FIS/02 - Fisica teorica, modelli e metodi matematici 


2.3 Parole chiave


Testo italiano

MECCANICA STATISTICA ; SISTEMI DI SPIN ; METODI MONTE CARLO ; CALCOLATORI DEDICATI


Testo inglese
STATISTICAL MECHANICS ; SPIN SYSTEMS ; MONTE CARLO METHODS ; DEDICATED COMPUTERS


2.4 Base di partenza scientifica nazionale o internazionale


Testo italiano

Le simulazioni numeriche sono da anni ampiamente utilizzate in parecchie aree della fisica teorica, in quei casi in cui la complessita' del sistema studiato non permette di otenere predizioni significative con tecniche di calcolo analitiche. In questi casi le tecniche numeriche contribuiscono, insieme all' analisi di situazioni particolarmente semplici, o allo studio di modelli semplificati, ad ottenere una piu' completa comprensione del sistema studiato e per ottenere predizioni quantitative.
In alcuni casi, l' approccio numerico e' stato portato all' estremo, con lo sviluppo di sistemi di calcolo dedicati, in campi in cui i vantaggi forniti ne giustifichino lo sforzo (in termini di investimento umano e di fondi richiesti). Esempi in questo senso sono forniti nel campo delle teorie di gauge sul reticolo[1], della dinamica di sistemi gravitazionali[2], della simulazione dei fluidi[3], dello studio Monte Carlo di sistemi di spin[4].

Quasi tutti i partecipanti a questa unita' di ricerca hanno contribuito allo sviluppo ed alla utilizzazione di sistemi di calcolo dedicati, dando contributi in parecchie aree diverse:
- il progetto APE ha prodotto varie generazioni di sistemi di calcolo massicciamente parallelo, utilizzati per la simulazione numerica delle teorie di gauge sul reticolo. L' ultima versione di APE (apeNEXT) e' attualmente in fase di test e mettera' a disposizione a breve una potenza di calcolo di parecchi Tflops.
-tecniche derivate dalla Lattice Boltzmann Equation (LBE) sono state utilizzate per la soluzione numerica di sistemi fluidi, descritti dalle equazioni di Navier-Stokes. Questa tecnica di calcolo ben si adatta a calcolatori massicciamente paralleli. Dall' analisi dei risultati di simulazione ottenuti, sono state derivate importanti proprieta' di scala dei sistemi turbolenti, anche in regime convettivo.
-Sono state studiate tecniche di calcolo parallelo per l' analisi di segnali di onde gravitazionali, rilevabili da rivelatori interferometrici.
-Gruppi in stretto contatto con la nostra unita' di ricerca hanno sviluppato sistemi dedicati (la macchina SUE), semplici ma estremamente potenti, per la simulazione di sistemi di spin

L' ultimo dei punti sopra esposti sara' particolarmente rilevante nel presente contesto:
Molte proprieta' fisiche di sistemi di spin-glass all' equilibrio sono oggi ragionevolmente ben comprese[5], mentre molti sono ancora i problemi aperti nell' area della dinamica del sistema fuori dall' equilibrio, come, ad esempio, effetti di memoria. Questo fatto ha una immediata rilevanza per quanto riguarda le tecniche e gli strumenti di studio numerico da utilizzare.La tecnica numerica utilizzata finora e' stata infatti quella di simulare un numero assai elevato di repliche del sistema, ognuna delle quali veniva interpretata come un elemento dell' ensemble statistico, su cui operare medie statistiche. Con questa tecnica, si poteva utilizzare efficacemente un grande numero di processori indipendenti di relativamente bassa potenza di calcolo unitario. Per lo studio della dinamica di sistemi fuori equilibrio, e' invece necessario realizzare un numero relativamente minore di motori di calcolo di piu' elevate prestazioni, in grado di seguire l' evoluzione di un singolo sistema su tempi fisici molto piu' lunghi.


Testo inglese
Simulation methods have been commonplace since several decades in many areas of theoretical physics, in all cases where the complexity of the system under investigation does not allow to obtain analytical results in physically interesting situations. In these cases, numerical results nicely go along with analytical estimates made on simpler (toy) models or under crude approximation schemes, and often provide a detailed understanding of the physical processes as well as accurate predictions.

In some cases, the approach outlined above has been pushed to the extreme, as several groups of physicists have developed their own computational systems, in situations in which the advantages of this approach justified the corresponding investment in terms of needed resources (above all, man power).Examples of such efforts include (but are not limited to) Lattice Gauge Theories[1], Gravitational dynamics[2], turbulent fluid dynamics[3], Spin systems (Ising models and spin-glasses)[4].

Members of the present project, working at several of the universities involved, have worked, very often in important roles, in the development of several projects of the type mentioned above, such as:

- the APE project has developed several versions of the massively parallel APE processor, tailored to Lattice Gauge Theory Simulations. The latest APE version (apeNEXT) is currently under test and is expected to provide multi-Tflops performance in the near future.

- the Lattice Boltzmann Equation approach (LBE) has been used to solve the Navier-Stokes equation in a turbulent regime on massively parallel processors. Important scaling properties of the system, also in the case of coupling to temperature have been exhibited and explained.

- Techniques for massively parallel analysis of signals coming from sources of gravitational waves have been considered and the use of APE-like machines for the purpose has been proposed.

- Very simple yet extremely powerful systems (the SUE machine), based on reconfigurable hardware, have been developed to simulate Ising or Spin-Glass systems by a research group strictly connected with tis research unit.

The latter item, described above, is particularly relevant in the present contest:
from the physical point of view, while many features of the system have been reasonably well understood at equilibrium[5], lots of open problems remain in the area of non-equilibrium dynamics, including, for instance, memory effects. This has immediate conssequences on the used simulation methods: so far, the properties of equilibrium systems have mainly been studied by simulating a very large number of replicas of the physical system on a large set of simulation engines and averaging all results.Non equilibrium dynamics, on the other hand requires much larger computing power and requires that each replica of the system be followed for much longer (physical) time: this open new challenges in the development of simulation engines.


2.4.a Riferimenti bibliografici

[1]N. H. Christ et al., IEEE Transaction on Computers 33 (1984) 344.
A. Hoogland et al., J. Comp. Phys. 51 (1983) 250.
F. Bodin et al., COMPUTER PHYSICS COMMUNICATIONS, 147 (2002) 402.
R. Tripiccione, PARALLEL COMPUTING. 25 (1999) 1297.

[2] A. Bartoloni et al., INT. JOURNAL OF MOD. PHYSICS C4 (1993) 993.

[3] E. Calzavarini et al., COMPUTER PHYSICS COMMUNICATIONS, 152 (2003) 295.

[4] A. Cruz et al., cond-mat/0004080

[5] G. Parisi, cond-mat/0301157


2.5 Descrizione del programma e dei compiti dell'Unità di Ricerca


Testo italiano

Come discusso in precedenza, nel recente passato sono stati sviluppati ed utilizzati con successo macchine dedicate alla simulazione di sistemi di spin e spin-glass. In questa area specifica uno sforzo di sviluppo limitato porta a risultati egregi. Ad asempio, il sistema SUE sviluppato 5 anni fa e' in grado di realizzare l' update di uno spin ogni 0.2 ns. Queta prestazione ' comparabile con quella ottenibile oggi con l' impiego simultaneo di una farm di circa 30 personal computer di alte prestazioni di tecnologia odierna, molto piu' sofisticata di quella disponibile cinque anni fa.

Utilizzando i supporti tecnologici odierni, si puo' ragionevolmente stimare che una nuova generazione di sistema di simulazione dedicato per la simulazione degli spin-glass potrebbe raggiungere prestazioni circa 1000 volte superiori a quelle di SUE (maggiori dettagli su questo numero verranno dati in seguito). Si puo' quindi immaginare di realizzare un sistema dedicato con un livello di prestazioni di un ordine di grandezza superiore a quello ottenibile realisticamente con sistemi di calcolo tradizionali (ad esempio, equivalente all' uso combinato di 10000 PC).
E' bene notare che un simile progetto e giustificato solo da un progresso molto elevato nelle prestazioni ottenibili, in quanto non sarebbe ragionevole investire risorse (umane e materiali) per un obbiettivo comparabile con quello raggiungibile con minor sforzo utilizzando calcolatori tradizionali.

Lo scopo principale di questa unita' di ricerca e' lo sviluppo della architettura di un sistema di simulazione di spin-glass in grado di raggiungere il livello di performance sopra accennato e di realizzare (ed utilizzare per simulazioni fisiche) un piccolo prototipo (ad esempio pari al' 1% del sistema definitivo). Questa attivita' veraa' svolta in stretta collaborazione con altre unita apartenenti al presente PRIN e con il Dipartimento di Fisica dell' Universita' di Saragozza (dove si e' svolto in gran parte lo sviluppo di SUE). Va detto chiaramente che non rientra nel presente progetto la realizzazione del sistema completo, ma che e' ragionevole aspettarsi che tale realizzazione possa essere completata o tramite un successivo PRIN o tramite il supporto di altri enti di ricerca.

Il sistema SUE e' basato sull' utilizzo di Complex Programmable Logic Devices (CPLD). Si pensa di utilizzare lo stesso approccio nel nuovo progetto, in quanto permette un tempo di sviluppo molto breve e gestibile da un gruppo relativamente ristretto di persone in possesso del relativo know-how, che, nel presente caso, deriva dalla attivita' di sviluppo di apeNEXT.

Come accennato in precedenza, il nostro obbiettivo e' un aumento di prestazioni di un fattore 1000, che puo' essere ottenuto come prodotto di tre fattori approssimativamente 10, e cioe:
- un fattore 10x associato ad un corrispondente incremento della frequenza di clock
- un fattore 10x associato ad un incremento di densita', ottenibile istallando in ogni singolo dispositivo CPLD dieci macchine di update delle variabili di spin. Questo aspetto dipende in maniera importante dalla possibilita' di includere la memoria all' interno della CPLD.
- infine un ultimo fattore 10x, ottenibile incrementando corrispondentemente il numero di processori utilizzati.Questa crescita non e' particolarmente difficile da ottenere, in quanto l' attuale dimensione della attuale macchina SUE e' assai compatta, dell' ordine di 3 o 4 PC desktop.

L' attivita' da svolgere puo' essere suddivisa nella maniera seguente:
1) analisi dei miglioramenti architetturali da apportare a SUE. Questa attivita' e' basata soprattutto su motivazioni fisiche, quali, ad esempio:
+ la possibilita' di usare condizioni al contorno diverse da quelle elicoidali (che sono le uniche supportate da SUE).
+ l' uso dei elementi di accoppiamento piu' generali di quelli del modello di Edwards-Anderson.
+ la possibilita' di simulare modelli diversi (ad esempio, il modello xy).

2) Simulazione logica della architettura di calcolo selezionata, con l' obbiettivo di realizzare velocemente un reference-model dell' oggetto da realizzare per controllarne la correttezza logica ed effetturne un debugging accurato. Notiamo che questo passo potra' essere svolto utilizzando pesantemente apeNEXT e cluster di PC.

3)Sviluppo dettagliato del progetto del core della macchina di calcolo, utilizzando una appropriata versione di CPLD.

4) Costruzione di un prototipo e di una interfaccia ad un calcolatore ospite. PEr quanto riguarda tutte le componenti diverse dal core
di calcolo, che dovra' essere realizzato ex-novo, pensiamo di ri-utilizzare componenti gia esistenti, per ridurre il tempo di sviluppo ed i costi.

5)Test del prototipo, fino a realizzare simulazioni fisiche realistiche, acnhe se su piccola scala.


Testo inglese
As briefly outlined in the previous section, dedicates simulation engines of Ising and spin-glass models have been recently developed and succesfully used. In this context, limited investment brings large revenues: for instance, the SUE system described above and developed about 5 years ago, updates one spin on average every 0.2 ns. This corresponds to the processing power of about 30 high-end personal computers. It must be stressed that the latter take advantage of technology made available 5 years after the SUE system was developed.

The above mentioned technology advances on the other hand can be used to develop a new generation of a dedicated spin-glass system: a performance increase of a factor 1000 (more on this figure later on in this document) can be expected, so a dedicated simulation engine with ten times more performance than reasonably possible on conventional computer systems (as an example, a system equivalent to about 10000 PC's) in the next few years can be envisaged. Note that large leaps in performance, as the one outlined above, are a must for these kind of projects: It makes sense to spend large resources (human and otherwise) only if the targeted goal is well beyond what is available with more traditional approaches.

The main goal of the present project is the development of the architecture of a new generation Ising model/Spin Glass simulation engine capable to reach the performance level described above, and the actual realization of a prototype (with a computing power of the order of approxinmately 1% of the target performance). This activity should be carried out in close collaboration with other Universities belonging to this project and with the Physics Department of the University of Zaragoza (where a large fraction of SUE development has been carried out). It must be clearly stressed that the goal of the present project is not the commissioning of a full system: it is however reasonable to expect that such further developments can be supported by future PRIN projects and/or by other funding agencies, in Italy and abroad.

The SUE system was based on Complex Programmable Logic Devices (CPLD). This approach should be kept for the new development, since it allows a very fast development schedule and can be managed by a small number of people with the required know-how: this know-how is made available by members of the apeNEXT development team. As discussed above we envisage a performance increase of the order of 1000, to be obtained as a combination of three independent factors of 10x:
- one 10x factor is given by a corresponding increase of clock frequency (from 50 Mhz to 500 Mhz)
- one more 10x factor is associated to density, allowing of the order of ten update-machines to be built into each processor (this improvement includes the possibility to embed memory inside the processor).
- a final factor 10x is obtained by simply building ten times more processors. This is not a formidable task, since the presently available SUE machine has a physical size of 3-4 desktop PC.

The steps to be carried out are as follows:
1) Analysis of the logical improvements to the computing engine to be considered. This task is mainly motivated by physical considerations: for instance:
+boundary conditions other than elicoidal (as available in SUE) may be considered
+more general couplings that those used by the Edwards-Anderson model may be welcome
+other models (e.g.,the xy model) might be tried.
Also an effort must be done to devise a fully parallel system, in order to build the fastest possible simulator for a single replica of the physical system, so non-equilibrium simulations are made simpler. Note that more versions of the system, optimized to the requirements of different models, may be considered.

2) Simulation of the selected logical architecture, in order to provide a quick reference model of the expected system and allow extensive debugging, including real physics simulations. Note that
apeNEXT machines and already available PC clusters can be used for this purpose.

3) Detailed logical design of the core of the processing engine, using suitable target CPLD devices.

4) Construction of the prototype and of the interface to some host computer system. Apart from the main simulation engine, that needs a complete re-development, all other parts of the system may re-use previously developed blocks, in order to reduce the development time.

5) Test of the prototype, including real-life (although small scale) physics simulations.


2.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta con valore patrimoniale superiore a 25.000 Euro


Testo italiano

anno di acquisizione  Descrizione 
1. 2004  Calcolatore parallelo apeNEXT. Un prototipo e' attualmente in fase di test a Ferrara 
2. 2003  Cluster di PC. Il cluster e' dotato di 20 processori interconnessi tramite gbit-ethernet 


Testo inglese
anno di acquisizione  Descrizione 
1. 2004  apeNEXT massively parallel computer. A prototype is currently under test at Ferrara 
2. 2003  PC cluster. This cluster has 20 processors, connected by a gbit-ethernet interconnection 



2.7 Descrizione delle Grandi attrezzature da acquisire (GA)


Testo italiano


Nessuna

Testo inglese

Nessuna

2.8 Mesi uomo complessivi dedicati al programma

    Numero  Mesi uomo
1° anno 
Mesi uomo
2° anno 
Totale mesi uomo 
Personale universitario dell'Università sede dell'Unità di Ricerca  2  16  13  29 
Personale universitario di altre Università  0  0  0  0 
Titolari di assegni di ricerca  1  9  9  18 
Titolari di borse  Dottorato  0       
Post-dottorato  0       
Scuola di Specializzazione  0       
Personale a contratto  Assegnisti  1  10  11  21 
Borsisti  0       
Dottorandi  0       
Altre tipologie  1  4  4  8 
Personale extrauniversitario  1  9  9  18 
TOTALE     48  46  94 



PARTE III


3.1 Costo complessivo del Programma dell'Unità di Ricerca


Testo italiano

Voce di spesa  Spesa in Euro  Descrizione 
Materiale inventariabile  5.000  Personal computer di supporto 
Grandi Attrezzature     
Materiale di consumo e funzionamento  15.000  Costi di sviluppo per i prototipi 
Spese per calcolo ed elaborazione dati     
Personale a contratto  40.900  Assegno di ricerca di durata biennale e contratti di breve durata (per un totale di 8 mesi uomo) 
Servizi esterni  15.000  Attivita' di sviluppo esterna legata al progetto dei prototipi 
Missioni  5.000  Incontri con altri membri della collaborazione 
Pubblicazioni     
Partecipazione / Organizzazione convegni  3.000  Partecipazione a conferenze in Italia e all' estero. 
Altro      
TOTALE 83.900    


Testo inglese
Voce di spesa  Spesa in Euro  Descrizione 
Materiale inventariabile  5.000  Personal computers and related hardware 
Grandi Attrezzature     
Materiale di consumo e funzionamento  15.000  Prototype development cost 
Spese per calcolo ed elaborazione dati     
Personale a contratto  40.900  1 Post-doc grant (Assegno di ricerca) for 2 years. Short term contracts (up 8 8 person-months) 
Servizi esterni  15.000  External development services for prototypes 
Missioni  5.000  Meeting with fellow members of the project 
Pubblicazioni     
Partecipazione / Organizzazione convegni  3.000  Conferences and workshops, in Italy and abroad 
Altro      
TOTALE 83.900    



3.2 Costo complessivo del Programma di Ricerca

     Descrizione 
Costo complessivo del Programma dell'Unità di Ricerca  83.900   
Fondi disponibili (RD)  5.000  fondi di ricerca locali per il 2004 e per il 2003 
Fondi acquisibili (RA)  20.000  fondi virtuali di ricerca locali per il 2004 (15000 Euro)
contributo dell' INFN (5000 Euro)
 
Cofinanziamento di altre amministrazioni     
Cofinanziamento richiesto al MIUR  58.900   


3.3.1 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di Ateneo (RD e RA)

SI



(per la copia da depositare presso l'Ateneo e per l'assenso alla diffusione via Internet delle informazioni riguardanti i programmi finanziati e la loro elaborazione necessaria alle valutazioni; legge del 31.12.96 n° 675 sulla "Tutela dei dati personali")




Firma _____________________________________   Data 19/03/2004 ore 11:31