MINISTERO DELL'ISTRUZIONE, DELL'UNIVERSITÀ E DELLA RICERCA
DIPARTIMENTO PER L'UNIVERSITÀ, L'ALTA FORMAZIONE ARTISTICA, MUSICALE E COREUTICA E PER LA RICERCA SCIENTIFICA E TECNOLOGICA
PROGRAMMI DI RICERCA SCIENTIFICA DI RILEVANTE INTERESSE NAZIONALE
RICHIESTA DI COFINANZIAMENTO (DM n. 30 del 12 febbraio 2004)
PROGETTO DI UNA UNITÀ DI RICERCA - MODELLO B
Anno 2004 - prot. 2004025857_005
PARTE I
1.1 Tipologia del programma di ricerca
Aree scientifico disciplinari
Area 02: Scienze fisiche (100%) |
|
|
1.2 Durata del Programma di Ricerca
24 Mesi
1.3 Coordinatore Scientifico del Programma di Ricerca
PARISI |
GIORGIO |
Giorgio.Parisi@roma1.infn.it |
FIS/02 - Fisica teorica, modelli e metodi matematici |
Università degli Studi di ROMA "La Sapienza" |
Facoltà di SCIENZE MATEMATICHE FISICHE e NATURALI |
Dipartimento di FISICA |
1.4 Responsabile Scientifico dell'Unità di Ricerca
TRIPICCIONE |
RAFFAELE |
Professore Ordinario |
26/06/1956 |
TRPRFL56H26D612W |
FIS/02 - Fisica teorica, modelli e metodi matematici |
Università degli Studi di FERRARA |
Facoltà di SCIENZE MATEMATICHE FISICHE e NATURALI |
Dipartimento di FISICA |
0532-974244 (Prefisso e telefono) |
0532-974210 (Numero fax) |
tripiccione@fe.infn.it (Email) |
1.5 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca
Testo italiano
Raffaele Tripiccione si e' laureato in fisica nel 1980.
- 1981 - 1982: Scuola di perfezionamento in Fisica della Scuola Normale Superiore.
- 1981 - 1982: visitatore del gruppo teorico di Fermilab.
- 1984 - 1990: ricercatore dell' INFN.
- 1990 - 1998: primo ricercatore dell' INFN.
- 1998 - 2000: dirigente di ricerca dell' INFN.
- 2000 - : professore ordinario di fisica all' Universita' di Ferrara.
Principali areee di ricerca:
- fenomenologia delle particelle elementari, soprattuto riguardo alla fenomenologia dei collider adronici
- astroparticle physics, con particolare riguardo alla rivelazione dei monopoli magnetici.
- teorie di gauge sul reticolo: azioni improved, approccio allo
scaling, transizioni di fase a temperatura finita, spettro di massa di
glueball e stati adronici.
- fisica statistica dei fluidi in regime turbolento, soprattuto per
quanto riguarda le leggi di scala delle funzioni di correlazione delle
velocita'
- fisica statistica della turbolenza convettiva
- sviluppo di sistemi di calcolo massicciamente paralleli per la
simulazione numerica di teorie di gauge sul reticolo, per la
simulazione di dei sistemi fluidi e per l' analisi dei segnali.
Testo inglese
Raffaele Tripiccione obtained his degree in physics (summa cum laude) from the University of Pisa in 1980.
- 1981 - 1982: Post-graduate student at the Scuola Normale Superiore (Pisa)
- 1981 - 1982: Visitor at the theory group at Fermilab.
- 1984 - 1990: Research associate (Ricercatore) at Istituto nazionale di Fisica Nucleare (INFN).
- 1990 - 1998: Senior Research Associate (Primo ricercatore) at INFN
- 1998 - 2000: Reasearch Leader (Dirigente di Ricerca) at INFN.
- 2000 - : Full professor of physics at the University of Ferrara.
Main research interests:
- Phenomenology of elementary particles, with special interests in hadronic collider phenomenology.
- astroparticle physics, with main interests in magnetic monopole detection.
- Lattice Gauge Theory: improved lattice actions, approach to scaling,
phase transitions at finite temperature, mass spectrum of glueballs and
hadronic states.
- statistical physics and turbulent fluid dynamics, with special interests in scaling laws of velocity correlation functions.
- statistical properties of convective turbulence.
- development of massively parallel processing systems optimized for
the numerical simulation of lattice gauge theories, fluid dynamics
simulation and signal analysis.
1.6 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca
1. |
TRIPICCIONE R.; ET AL (2003). Matched filters for coalescing binaries detection on massively parallel computers COMPUTER PHYSICS COMMUNICATIONS. (vol. 152 pp. 295-306) |
2. |
TRIPICCIONE R.; BIFERALE L; CALZAVARINI E; TOSCHI F (2003). Universality of
anisotropic fluctuations from numerical simulations of turbulent flows EUROPHYSICS LETTERS. (vol. 64 pp. 461) |
3. |
TRIPICCIONE R.; E. CALZAVARINI; F. TOSCHI (2002). Evidences of Bolgiano-Obhukhov scaling in three-dimensional Rayleigh-Benard convection PHYSICAL REVIEW E. (vol. 66 pp. 16304) |
4. |
TRIPICCIONE R. (2001). LGT simulations on APE machines COMPUTER PHYSICS COMMUNICATIONS. (vol. 139 pp. 55-63) |
5. |
TRIPICCIONE R.; BENZI R.; TOSCHI F. (1998). On the Heat Transfer in Rayleigh Benard Systems JOURNAL OF STATISTICAL PHYSICS. (vol. 93 pp. 901-918) |
1.7 Risorse umane impegnabili nel Programma dell'Unità di Ricerca
1.7.1 Personale universitario dell'Università sede dell'Unità di Ricerca
Personale docente
nº |
Cognome |
Nome |
Dipartimento |
Qualifica |
Settore Disc. |
Mesi Uomo |
1° anno |
2° anno |
1. |
TRIPICCIONE |
Raffaele |
Dip. FISICA |
Prof. Ordinario |
FIS/02 |
10 |
7 |
2. |
CANESCHI |
Luca |
Dip. FISICA |
Prof. Ordinario |
FIS/02 |
6 |
6 |
|
TOTALE |
|
|
|
|
16 |
13 |
Altro personale
Nessuno
1.7.2 Personale universitario di altre Università
Personale docente
Nessuno
Altro personale
Nessuno
1.7.3 Titolari di assegni di ricerca
nº |
Cognome |
Nome |
Dipartimento |
Data di inizio del contratto |
Durata (in anni) |
Mesi Uomo |
1° anno |
2° anno |
1. |
DAMIANI |
Chiara |
Dip. FISICA |
03/09/2003 |
|
9 |
9 |
TOTALE |
|
|
|
|
|
9 |
9 |
1.7.4 Titolari di borse
Nessuno
1.7.5 Personale a contratto da destinare a questo specifico programma
nº |
Qualifica |
Costo previsto |
Mesi Uomo |
Note |
1° anno |
2° anno |
1. |
Assegnista |
30.900 |
10 |
11 |
|
2. |
Altre tipologie |
10.000 |
4 |
4 |
laureato |
|
TOTALE |
40.900 |
14 |
15 |
|
1.7.6 Personale extrauniversitario indipendente o dipendente da altri Enti
nº |
Cognome |
Nome |
Nome dell'ente |
Qualifica |
Mesi Uomo |
1° anno |
2° anno |
1. |
Schifano |
Fabio |
INFN |
ricercatore |
9 |
9 |
|
TOTALE |
|
|
|
9 |
9 |
PARTE II
2.1 Titolo specifico del programma svolto dall'Unità di Ricerca
Testo italiano
Tecniche computazionali e sistemi di calcolo parallelo per la fisica statistica ed i sistemi complessi
Testo inglese
Computational techniques and massively parallel computing systems for statistical physics and complex systems
2.2 Settori scientifico-disciplinari interessati dal Programma di Ricerca
FIS/02 - Fisica teorica, modelli e metodi matematici |
2.3 Parole chiave
Testo italiano
MECCANICA STATISTICA ; SISTEMI DI SPIN ; METODI MONTE CARLO ; CALCOLATORI DEDICATI
Testo inglese
STATISTICAL MECHANICS ; SPIN SYSTEMS ; MONTE CARLO METHODS ; DEDICATED COMPUTERS
2.4 Base di partenza scientifica nazionale o internazionale
Testo italiano
Le simulazioni numeriche sono da anni ampiamente
utilizzate in parecchie aree della fisica teorica, in quei casi in cui
la complessita' del sistema studiato non permette di otenere predizioni
significative con tecniche di calcolo analitiche. In questi casi le
tecniche numeriche contribuiscono, insieme all' analisi di situazioni
particolarmente semplici, o allo studio di modelli semplificati, ad
ottenere una piu' completa comprensione del sistema studiato e per
ottenere predizioni quantitative.
In alcuni casi, l' approccio numerico e' stato portato all' estremo,
con lo sviluppo di sistemi di calcolo dedicati, in campi in cui i
vantaggi forniti ne giustifichino lo sforzo (in termini di investimento
umano e di fondi richiesti). Esempi in questo senso sono forniti nel
campo delle teorie di gauge sul reticolo[1], della dinamica di sistemi
gravitazionali[2], della simulazione dei fluidi[3], dello studio Monte
Carlo di sistemi di spin[4].
Quasi tutti i partecipanti a questa unita' di ricerca hanno contribuito
allo sviluppo ed alla utilizzazione di sistemi di calcolo dedicati,
dando contributi in parecchie aree diverse:
- il progetto APE ha prodotto varie generazioni di sistemi di calcolo
massicciamente parallelo, utilizzati per la simulazione numerica delle
teorie di gauge sul reticolo. L' ultima versione di APE (apeNEXT) e'
attualmente in fase di test e mettera' a disposizione a breve una
potenza di calcolo di parecchi Tflops.
-tecniche derivate dalla Lattice Boltzmann Equation (LBE) sono state
utilizzate per la soluzione numerica di sistemi fluidi, descritti dalle
equazioni di Navier-Stokes. Questa tecnica di calcolo ben si adatta a
calcolatori massicciamente paralleli. Dall' analisi dei risultati di
simulazione ottenuti, sono state derivate importanti proprieta' di
scala dei sistemi turbolenti, anche in regime convettivo.
-Sono state studiate tecniche di calcolo parallelo per l' analisi di
segnali di onde gravitazionali, rilevabili da rivelatori
interferometrici.
-Gruppi in stretto contatto con la nostra unita' di ricerca hanno
sviluppato sistemi dedicati (la macchina SUE), semplici ma estremamente
potenti, per la simulazione di sistemi di spin
L' ultimo dei punti sopra esposti sara' particolarmente rilevante nel presente contesto:
Molte proprieta' fisiche di sistemi di spin-glass all' equilibrio sono
oggi ragionevolmente ben comprese[5], mentre molti sono ancora i
problemi aperti nell' area della dinamica del sistema fuori dall'
equilibrio, come, ad esempio, effetti di memoria. Questo fatto ha una
immediata rilevanza per quanto riguarda le tecniche e gli strumenti di
studio numerico da utilizzare.La tecnica numerica utilizzata finora e'
stata infatti quella di simulare un numero assai elevato di repliche
del sistema, ognuna delle quali veniva interpretata come un elemento
dell' ensemble statistico, su cui operare medie statistiche. Con questa
tecnica, si poteva utilizzare efficacemente un grande numero di
processori indipendenti di relativamente bassa potenza di calcolo
unitario. Per lo studio della dinamica di sistemi fuori equilibrio, e'
invece necessario realizzare un numero relativamente minore di motori
di calcolo di piu' elevate prestazioni, in grado di seguire l'
evoluzione di un singolo sistema su tempi fisici molto piu' lunghi.
Testo inglese
Simulation methods have been commonplace since
several decades in many areas of theoretical physics, in all cases
where the complexity of the system under investigation does not allow
to obtain analytical results in physically interesting situations. In
these cases, numerical results nicely go along with analytical
estimates made on simpler (toy) models or under crude approximation
schemes, and often provide a detailed understanding of the physical
processes as well as accurate predictions.
In some cases, the approach outlined above has been pushed to the
extreme, as several groups of physicists have developed their own
computational systems, in situations in which the advantages of this
approach justified the corresponding investment in terms of needed
resources (above all, man power).Examples of such efforts include (but
are not limited to) Lattice Gauge Theories[1], Gravitational
dynamics[2], turbulent fluid dynamics[3], Spin systems (Ising models
and spin-glasses)[4].
Members of the present project, working at several of the universities
involved, have worked, very often in important roles, in the
development of several projects of the type mentioned above, such as:
- the APE project has developed several versions of the massively
parallel APE processor, tailored to Lattice Gauge Theory Simulations.
The latest APE version (apeNEXT) is currently under test and is
expected to provide multi-Tflops performance in the near future.
- the Lattice Boltzmann Equation approach (LBE) has been used to solve
the Navier-Stokes equation in a turbulent regime on massively parallel
processors. Important scaling properties of the system, also in the
case of coupling to temperature have been exhibited and explained.
- Techniques for massively parallel analysis of signals coming from
sources of gravitational waves have been considered and the use of
APE-like machines for the purpose has been proposed.
- Very simple yet extremely powerful systems (the SUE machine), based
on reconfigurable hardware, have been developed to simulate Ising or
Spin-Glass systems by a research group strictly connected with tis
research unit.
The latter item, described above, is particularly relevant in the present contest:
from the physical point of view, while many features of the system have
been reasonably well understood at equilibrium[5], lots of open
problems remain in the area of non-equilibrium dynamics, including, for
instance, memory effects. This has immediate conssequences on the used
simulation methods: so far, the properties of equilibrium systems have
mainly been studied by simulating a very large number of replicas of
the physical system on a large set of simulation engines and averaging
all results.Non equilibrium dynamics, on the other hand requires much
larger computing power and requires that each replica of the system be
followed for much longer (physical) time: this open new challenges in
the development of simulation engines.
2.4.a Riferimenti bibliografici
[1]N. H. Christ et al., IEEE Transaction on Computers 33 (1984) 344.
A. Hoogland et al., J. Comp. Phys. 51 (1983) 250.
F. Bodin et al., COMPUTER PHYSICS COMMUNICATIONS, 147 (2002) 402.
R. Tripiccione, PARALLEL COMPUTING. 25 (1999) 1297.
[2] A. Bartoloni et al., INT. JOURNAL OF MOD. PHYSICS C4 (1993) 993.
[3] E. Calzavarini et al., COMPUTER PHYSICS COMMUNICATIONS, 152 (2003) 295.
[4] A. Cruz et al., cond-mat/0004080
[5] G. Parisi, cond-mat/0301157
2.5 Descrizione del programma e dei compiti dell'Unità di Ricerca
Testo italiano
Come discusso in precedenza, nel recente passato
sono stati sviluppati ed utilizzati con successo macchine dedicate alla
simulazione di sistemi di spin e spin-glass. In questa area specifica
uno sforzo di sviluppo limitato porta a risultati egregi. Ad asempio,
il sistema SUE sviluppato 5 anni fa e' in grado di realizzare l' update
di uno spin ogni 0.2 ns. Queta prestazione ' comparabile con quella
ottenibile oggi con l' impiego simultaneo di una farm di circa 30
personal computer di alte prestazioni di tecnologia odierna, molto piu'
sofisticata di quella disponibile cinque anni fa.
Utilizzando i supporti tecnologici odierni, si puo' ragionevolmente
stimare che una nuova generazione di sistema di simulazione dedicato
per la simulazione degli spin-glass potrebbe raggiungere prestazioni
circa 1000 volte superiori a quelle di SUE (maggiori dettagli su questo
numero verranno dati in seguito). Si puo' quindi immaginare di
realizzare un sistema dedicato con un livello di prestazioni di un
ordine di grandezza superiore a quello ottenibile realisticamente con
sistemi di calcolo tradizionali (ad esempio, equivalente all' uso
combinato di 10000 PC).
E' bene notare che un simile progetto e giustificato solo da un
progresso molto elevato nelle prestazioni ottenibili, in quanto non
sarebbe ragionevole investire risorse (umane e materiali) per un
obbiettivo comparabile con quello raggiungibile con minor sforzo
utilizzando calcolatori tradizionali.
Lo scopo principale di questa unita' di ricerca e' lo sviluppo della
architettura di un sistema di simulazione di spin-glass in grado di
raggiungere il livello di performance sopra accennato e di realizzare
(ed utilizzare per simulazioni fisiche) un piccolo prototipo (ad
esempio pari al' 1% del sistema definitivo). Questa attivita' veraa'
svolta in stretta collaborazione con altre unita apartenenti al
presente PRIN e con il Dipartimento di Fisica dell' Universita' di
Saragozza (dove si e' svolto in gran parte lo sviluppo di SUE). Va
detto chiaramente che non rientra nel presente progetto la
realizzazione del sistema completo, ma che e' ragionevole aspettarsi
che tale realizzazione possa essere completata o tramite un successivo
PRIN o tramite il supporto di altri enti di ricerca.
Il sistema SUE e' basato sull' utilizzo di Complex Programmable Logic
Devices (CPLD). Si pensa di utilizzare lo stesso approccio nel nuovo
progetto, in quanto permette un tempo di sviluppo molto breve e
gestibile da un gruppo relativamente ristretto di persone in possesso
del relativo know-how, che, nel presente caso, deriva dalla attivita'
di sviluppo di apeNEXT.
Come accennato in precedenza, il nostro obbiettivo e' un aumento di
prestazioni di un fattore 1000, che puo' essere ottenuto come prodotto
di tre fattori approssimativamente 10, e cioe:
- un fattore 10x associato ad un corrispondente incremento della frequenza di clock
- un fattore 10x associato ad un incremento di densita', ottenibile
istallando in ogni singolo dispositivo CPLD dieci macchine di update
delle variabili di spin. Questo aspetto dipende in maniera importante
dalla possibilita' di includere la memoria all' interno della CPLD.
- infine un ultimo fattore 10x, ottenibile incrementando
corrispondentemente il numero di processori utilizzati.Questa crescita
non e' particolarmente difficile da ottenere, in quanto l' attuale
dimensione della attuale macchina SUE e' assai compatta, dell' ordine
di 3 o 4 PC desktop.
L' attivita' da svolgere puo' essere suddivisa nella maniera seguente:
1) analisi dei miglioramenti architetturali da apportare a SUE. Questa
attivita' e' basata soprattutto su motivazioni fisiche, quali, ad
esempio:
+ la possibilita' di usare condizioni al contorno diverse da quelle elicoidali (che sono le uniche supportate da SUE).
+ l' uso dei elementi di accoppiamento piu' generali di quelli del modello di Edwards-Anderson.
+ la possibilita' di simulare modelli diversi (ad esempio, il modello xy).
2) Simulazione logica della architettura di calcolo selezionata, con l'
obbiettivo di realizzare velocemente un reference-model dell' oggetto
da realizzare per controllarne la correttezza logica ed effetturne un
debugging accurato. Notiamo che questo passo potra' essere svolto
utilizzando pesantemente apeNEXT e cluster di PC.
3)Sviluppo dettagliato del progetto del core della macchina di calcolo, utilizzando una appropriata versione di CPLD.
4) Costruzione di un prototipo e di una interfaccia ad un calcolatore
ospite. PEr quanto riguarda tutte le componenti diverse dal core
di calcolo, che dovra' essere realizzato ex-novo, pensiamo di
ri-utilizzare componenti gia esistenti, per ridurre il tempo di
sviluppo ed i costi.
5)Test del prototipo, fino a realizzare simulazioni fisiche realistiche, acnhe se su piccola scala.
Testo inglese
As briefly outlined in the previous section,
dedicates simulation engines of Ising and spin-glass models have been
recently developed and succesfully used. In this context, limited
investment brings large revenues: for instance, the SUE system
described above and developed about 5 years ago, updates one spin on
average every 0.2 ns. This corresponds to the processing power of about
30 high-end personal computers. It must be stressed that the latter
take advantage of technology made available 5 years after the SUE
system was developed.
The above mentioned technology advances on the other hand can be used
to develop a new generation of a dedicated spin-glass system: a
performance increase of a factor 1000 (more on this figure later on in
this document) can be expected, so a dedicated simulation engine with
ten times more performance than reasonably possible on conventional
computer systems (as an example, a system equivalent to about 10000
PC's) in the next few years can be envisaged. Note that large leaps in
performance, as the one outlined above, are a must for these kind of
projects: It makes sense to spend large resources (human and otherwise)
only if the targeted goal is well beyond what is available with more
traditional approaches.
The main goal of the present project is the development of the
architecture of a new generation Ising model/Spin Glass simulation
engine capable to reach the performance level described above, and the
actual realization of a prototype (with a computing power of the order
of approxinmately 1% of the target performance). This activity should
be carried out in close collaboration with other Universities belonging
to this project and with the Physics Department of the University of
Zaragoza (where a large fraction of SUE development has been carried
out). It must be clearly stressed that the goal of the present project
is not the commissioning of a full system: it is however reasonable to
expect that such further developments can be supported by future PRIN
projects and/or by other funding agencies, in Italy and abroad.
The SUE system was based on Complex Programmable Logic Devices (CPLD).
This approach should be kept for the new development, since it allows a
very fast development schedule and can be managed by a small number of
people with the required know-how: this know-how is made available by
members of the apeNEXT development team. As discussed above we envisage
a performance increase of the order of 1000, to be obtained as a
combination of three independent factors of 10x:
- one 10x factor is given by a corresponding increase of clock frequency (from 50 Mhz to 500 Mhz)
- one more 10x factor is associated to density, allowing of the order
of ten update-machines to be built into each processor (this
improvement includes the possibility to embed memory inside the
processor).
- a final factor 10x is obtained by simply building ten times more
processors. This is not a formidable task, since the presently
available SUE machine has a physical size of 3-4 desktop PC.
The steps to be carried out are as follows:
1) Analysis of the logical improvements to the computing engine to be
considered. This task is mainly motivated by physical considerations:
for instance:
+boundary conditions other than elicoidal (as available in SUE) may be considered
+more general couplings that those used by the Edwards-Anderson model may be welcome
+other models (e.g.,the xy model) might be tried.
Also an effort must be done to devise a fully parallel system, in order
to build the fastest possible simulator for a single replica of the
physical system, so non-equilibrium simulations are made simpler. Note
that more versions of the system, optimized to the requirements of
different models, may be considered.
2) Simulation of the selected logical architecture, in order to provide
a quick reference model of the expected system and allow extensive
debugging, including real physics simulations. Note that
apeNEXT machines and already available PC clusters can be used for this purpose.
3) Detailed logical design of the core of the processing engine, using suitable target CPLD devices.
4) Construction of the prototype and of the interface to some host
computer system. Apart from the main simulation engine, that needs a
complete re-development, all other parts of the system may re-use
previously developed blocks, in order to reduce the development time.
5) Test of the prototype, including real-life (although small scale) physics simulations.
2.6 Descrizione delle attrezzature già disponibili
ed utilizzabili per la ricerca proposta con valore patrimoniale
superiore a 25.000 Euro
Testo italiano
nº |
anno di acquisizione |
Descrizione |
1. |
2004 |
Calcolatore parallelo apeNEXT. Un prototipo e' attualmente in fase di test a Ferrara |
2. |
2003 |
Cluster di PC. Il cluster e' dotato di 20 processori interconnessi tramite gbit-ethernet |
Testo inglese
nº |
anno di acquisizione |
Descrizione |
1. |
2004 |
apeNEXT massively parallel computer. A prototype is currently under test at Ferrara |
2. |
2003 |
PC cluster. This cluster has 20 processors, connected by a gbit-ethernet interconnection |
2.7 Descrizione delle Grandi attrezzature da acquisire (GA)
Testo italiano
Nessuna
Testo inglese
Nessuna
2.8 Mesi uomo complessivi dedicati al programma
|
|
Numero |
Mesi uomo 1° anno |
Mesi uomo 2° anno |
Totale mesi uomo |
Personale universitario dell'Università sede dell'Unità di Ricerca |
2 |
16 |
13 |
29 |
Personale universitario di altre Università |
0 |
0 |
0 |
0 |
Titolari di assegni di ricerca |
1 |
9 |
9 |
18 |
Titolari di borse |
Dottorato |
0 |
|
|
|
Post-dottorato |
0 |
|
|
|
Scuola di Specializzazione |
0 |
|
|
|
Personale a contratto |
Assegnisti |
1 |
10 |
11 |
21 |
Borsisti |
0 |
|
|
|
Dottorandi |
0 |
|
|
|
Altre tipologie |
1 |
4 |
4 |
8 |
Personale extrauniversitario |
1 |
9 |
9 |
18 |
TOTALE |
|
6 |
48 |
46 |
94 |
PARTE III
3.1 Costo complessivo del Programma dell'Unità di Ricerca
Testo italiano
Voce di spesa |
Spesa in Euro |
Descrizione |
Materiale inventariabile |
5.000 |
Personal computer di supporto |
Grandi Attrezzature |
|
|
Materiale di consumo e funzionamento |
15.000 |
Costi di sviluppo per i prototipi |
Spese per calcolo ed elaborazione dati |
|
|
Personale a contratto |
40.900 |
Assegno di ricerca di durata biennale e contratti di breve durata (per un totale di 8 mesi uomo) |
Servizi esterni |
15.000 |
Attivita' di sviluppo esterna legata al progetto dei prototipi |
Missioni |
5.000 |
Incontri con altri membri della collaborazione |
Pubblicazioni |
|
|
Partecipazione / Organizzazione convegni |
3.000 |
Partecipazione a conferenze in Italia e all' estero. |
Altro |
|
|
TOTALE |
83.900 |
|
Testo inglese
Voce di spesa |
Spesa in Euro |
Descrizione |
Materiale inventariabile |
5.000 |
Personal computers and related hardware |
Grandi Attrezzature |
|
|
Materiale di consumo e funzionamento |
15.000 |
Prototype development cost |
Spese per calcolo ed elaborazione dati |
|
|
Personale a contratto |
40.900 |
1 Post-doc grant (Assegno di ricerca) for 2 years. Short term contracts (up 8 8 person-months) |
Servizi esterni |
15.000 |
External development services for prototypes |
Missioni |
5.000 |
Meeting with fellow members of the project |
Pubblicazioni |
|
|
Partecipazione / Organizzazione convegni |
3.000 |
Conferences and workshops, in Italy and abroad |
Altro |
|
|
TOTALE |
83.900 |
|
3.2 Costo complessivo del Programma di Ricerca
|
|
Descrizione |
Costo complessivo del Programma dell'Unità di Ricerca |
83.900 |
|
Fondi disponibili (RD) |
5.000 |
fondi di ricerca locali per il 2004 e per il 2003 |
Fondi acquisibili (RA) |
20.000 |
fondi virtuali di ricerca locali per il 2004 (15000 Euro)
contributo dell' INFN (5000 Euro) |
Cofinanziamento di altre amministrazioni |
|
|
Cofinanziamento richiesto al MIUR |
58.900 |
|
3.3.1 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di Ateneo (RD e RA)
SI
(per la copia da depositare presso l'Ateneo e per l'assenso alla
diffusione via Internet delle informazioni riguardanti i programmi
finanziati e la loro elaborazione necessaria alle valutazioni; legge
del 31.12.96 n° 675 sulla "Tutela dei dati personali")
Firma _____________________________________ |
Data 19/03/2004 ore 11:31 |