* MINISTERO DELL'ISTRUZIONE, DELL'UNIVERSITÀ E DELLA RICERCA DIPARTIMENTO PER L'UNIVERSITÀ, L'ALTA FORMAZIONE ARTISTICA, MUSICALE E COREUTICA E PER LA RICERCA SCIENTIFICA E TECNOLOGICA PROGRAMMI DI RICERCA SCIENTIFICA DI RILEVANTE INTERESSE NAZIONALE RICHIESTA DI COFINANZIAMENTO (DM n. 287 del 23 febbraio 2005) PROGETTO DI UNA UNITÀ DI RICERCA - MODELLO B Anno 2005 - prot. 2005022072_004 * PARTE I 1.1 Programma di Ricerca afferente a 1. *Area Scientifico Disciplinare*/ / 02: Scienze fisiche 100% ------------------------------------------------------------------------ 1.2 Durata del Programma di Ricerca 24 Mesi ------------------------------------------------------------------------ 1.3 Coordinatore Scientifico del Programma di Ricerca *PARISI* *GIORGIO* *Giorgio.Parisi@roma1.infn.it* *FIS/02 - Fisica teorica, modelli e metodi matematici* *Università degli Studi di ROMA "La Sapienza"* *Facoltà di SCIENZE MATEMATICHE FISICHE e NATURALI * *Dipartimento di FISICA * ------------------------------------------------------------------------ 1.4 Responsabile Scientifico dell'Unità di Ricerca *TRIPICCIONE* *RAFFAELE* *Professore Ordinario* *26/06/1956* *TRPRFL56H26D612W* *FIS/02 - Fisica teorica, modelli e metodi matematici* *Università degli Studi di FERRARA* *Facoltà di SCIENZE MATEMATICHE FISICHE e NATURALI * *Dipartimento di FISICA * *0532-974244* (Prefisso e telefono) *0532-974210* (Numero fax) *tripiccione@fe.infn.it* (Indirizzo posta elettronica) ------------------------------------------------------------------------ 1.5 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca *Testo italiano* Raffaele Tripiccione si e' laureato in fisica a Pisa nel 1980. - 1980 - 1982: Scuola di perfezionamento in fisica della Scuola Normale Superiore. - 1981 - 1982: visitatore del gruppo teorico di Fermilab - 1984 - 1990: ricercatore dell' Istituto nazionale di Fisica Nucleare (INFN). - 1990 - 1998: primo ricercatore dell' INFN. - 1998 - 2000: dirigente di ricerca dell' INFN. - 2000 - : professore ordinario di Fisica teorica all' Universita' di Ferrara. Ha lavorato principalmente nelle seguenti aree di ricerca: - fenomenologia delle particelle elementari, con particolare riguardo alla fisica dei collider adronici. - astroparticle physics, con particolare riguardo alla rivelazione di monopoli magnetici. - teorie di gauge sul reticolo: azioni improved, approccio allo scaling, transizione di fase a temperatura finita, spettro di massa di glueballs e di stati adronici. - fisica statistica dei fluidi in regime turbolento, soprattutto per quanto riguarda le leggi di scala delle funzioni di correlazione. - fisica statistica della turbolenza convettiva. - sviluppo di sistemi di calcolo dedicati per la simulazione numerica di teorie di gauge sul reticolo, di sistemi fluidi in regime turbolento e di sistemi di spin. *Testo inglese* Raffeele Tripiccione obtained his degree in physics (summa cum laude)from the University of Pisa in 1980. - 1980 - 1982: post-graduate student at teh Scuola Normale Superiore (Pisa) - 1981 - 1982: visitor at the theory group at Fermilab. - 1984 - 1990: Research associate (Ricercatore) at Istituto Nazionale di Fisica Nucleare (INFN), in Pisa. - 1990 - 1998: Senior Research Associate (Primo Ricercatore) at INFN, Pisa - 1998 - 2000: Research Leader (Dirigente di Ricerca) at INFN, Pisa - 2000 - : Full professor of physics at the University of Ferrara Over the years, Raffaele Tripiccione has focused on the following main research lines: - Phenomenology of elementary particles, with special interests in the phenomenology of hadronic colliders. - Astropaticle Physics: main interests in detection of magnetic monopoles. - Lattice Gauge Theories: main interest areas in improved actions,approach to scaling, phase-transitions at finite temperature, the mass specturm of glueball states and hadron states. - statistical physics and turbulent flows: main interest in the scaling properties of correlation functions of velocity fields. - statistical properties of convective turbulence. - development of massively parallel computer systems for the simulation of lattice gauge theories, fluid dynamics flows and spin-systems. ------------------------------------------------------------------------ 1.6 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca 1. TRIPICCIONE R. (in stampa). Strategies for dedicated computing for Lattice Gauge Theories. /COMPUTER PHYSICS COMMUNICATIONS. / ISSN: 0010-4655 in corso di stampa. 2. L. BIFERALE, E. CALZAVARINI, A. S. LANOTTE, F. TOSCHI, TRIPICCIONE R. (2004). Universality of anisotropic turbulence. /PHYSICA. A. / vol. 338 pp. 194 ISSN: 0378-4371 3. TRIPICCIONE R., BIFERALE L, CALZAVARINI E, TOSCHI F (2003). Universality of anisotropic fluctuations from numerical simulations of turbulent flows. /EUROPHYSICS LETTERS. / vol. 64 pp. 461 ISSN: 0295-5075 4. TRIPICCIONE R., ET AL (2003). Matched filters for coalescing binaries detection on massively parallel computers. /COMPUTER PHYSICS COMMUNICATIONS. / vol. 152 pp. 295-306 ISSN: 0010-4655 5. TRIPICCIONE R., BILARDI G (2003). Calcolatori, HArdware dei. In AUTORI VARI /Dal XX al XXI secolo: problemi e prospettive, Supplemento all' Enciclopedia del Novecento/ ROMA: Istituto dell' Enciclopedia Italiana 6. TRIPICCIONE R., E. CALZAVARINI, F. TOSCHI (2002). Evidences of Bolgiano-Obhukhov scaling in three-dimensional Rayleigh-Benard convection. /PHYSICAL REVIEW E. / vol. 66 pp. 16304 ISSN: 1063-651X 7. TRIPICCIONE R., F. BODIN, ET AL. (2002). APE computers: past, present and future. /COMPUTER PHYSICS COMMUNICATIONS. / vol. 147 pp. 402-409 ISSN: 0010-4655 8. TRIPICCIONE R. (2001). LGT simulations on APE machines. /COMPUTER PHYSICS COMMUNICATIONS. / vol. 139 pp. 55-63 ISSN: 0010-4655 9. TRIPICCIONE R. (1999). APEmille. /PARALLEL COMPUTING. / vol. 25 pp. 1297 ISSN: 0167-8191 10. TRIPICCIONE R., BENZI R., TOSCHI F. (1998). On the Heat Transfer in Rayleigh Benard Systems. /JOURNAL OF STATISTICAL PHYSICS. / vol. 93 pp. 901-918 ISSN: 0022-4715 11. TRIPICCIONE R., T. LIPPERT, K. SCHILLING, F. TOSCHI, S. TRENTMANN, R. TRIPICCIONE (1998). FFT for the APE Parallel Computer. /INTERNATIONAL JOURNAL OF MODERN PHYSICS C. / vol. 8 pp. 875 ISSN: 0129-1831 12. TRIPICCIONE R., BENZI R., BIFERALE L., TROVATORE E. (1997). (1+1) Dimensional turbulence. /PHYSICS OF FLUIDS. / vol. 9 pp. 2355 ISSN: 1070-6631 13. BENZI R., MASSAIOLI F., SUCCI S., TRIPICCIONE R. (1997). Simulations of Thermal Convection with the Lattice Boltzmann Equation. Atti dei Convegni Lincei: Boltzmann's Legacy 150 years after his birth. (vol. 131 pp. 41). 14. TRIPICCIONE R., R. BENZI, L. BIFERALE, M. V. STRUGLIA (1997). Self-scaling properties of velocity circulation in shear flows. /PHYSICAL REVIEW E. / vol. 55 pp. 3739 ISSN: 1063-651X 15. BENZI R., TRIPICCIONE R. (1997). La Simulazione al Calcolatore della Convezione Turbolenta. /LE SCIENZE. / vol. 343 pp. 36 ISSN: 0036-8083 16. TRIPICCIONE R., R. BENZI, ET. AL. (1996). Generalized Scaling in Fully Developed Turbulence. /PHYSICA D-NONLINEAR PHENOMENA. / vol. D96 pp. 162 ISSN: 0167-2789 17. TRIPICCIONE R., BENZI R., BIFERALE L., CILIBERTO S., STRUGLIA M.V. (1996). Generalized Scaling in fully developed turbulence. /PHYSICA D-NONLINEAR PHENOMENA. / vol. D96 pp. 162 ISSN: 0167-2789 18. TRIPICCIONE R., R. BENZI, F. MASSAIOLI, S. SUCCI (1994). Scaling Behaviour of the velocity and temperature correlation functions in 3D convective turbulence. /EUROPHYSICS LETTERS. / vol. 28 pp. 231 ISSN: 0295-5075 19. TRIPICCIONE R., R. BENZI, F. MASSAIOLI, S. SUCCI, S. CILIBERTO (1994). `On the scaling of the velocity and temperature structure functions in Rayleigh Benard Convection. /EUROPHYSICS LETTERS. / vol. 25 pp. 341 ISSN: 0295-5075 20. TRIPICCIONE R., R. BENZI, ET AL. (1993). Extended Self Similarity in turbulent flows. /PHYSICAL REVIEW E. / vol. 48 pp. 29 ISSN: 1063-651X ------------------------------------------------------------------------ 1.7 Risorse umane impegnabili nel Programma dell'Unità di Ricerca 1.7.1 Personale universitario dell'Università sede dell'Unità di Ricerca ** *Personale docente* nº Cognome Nome Dipartimento Qualifica Settore Disc. Mesi Uomo 1° anno 2° anno 1. TRIPICCIONE Raffaele Dip. FISICA Prof. Ordinario FIS/02 10 5 2. CANESCHI Luca Dip. FISICA Prof. Ordinario FIS/02 9 9 * * *TOTALE * * * * * * * * * *19 * *14 * *Altro personale* Nessuno ------------------------------------------------------------------------ 1.7.2 Personale universitario di altre Università ** *Personale docente* Nessuno *Altro personale* Nessuno ------------------------------------------------------------------------ 1.7.3 Titolari di assegni di ricerca Nessuno ------------------------------------------------------------------------ 1.7.4 Titolari di borse Nessuno ------------------------------------------------------------------------ 1.7.5 Personale a contratto da destinare a questo specifico programma nº Qualifica Costo previsto Mesi Uomo Note 1° anno 2° anno 1. Altre tipologie 36.000 10 2 Contratto a progetto 2. Assegnista 18.000 5 7 * * *TOTALE * *54.000 * *15 * *9 * * * ------------------------------------------------------------------------ 1.7.6 Personale extrauniversitario indipendente o dipendente da altri Enti nº Cognome Nome Nome dell'ente Qualifica Mesi Uomo 1° anno 2° anno 1. Schifano Fabio INFN Ricercatore 9 9 * * *TOTALE * * * * * * * *9 * *9 * PARTE II 2.1 Titolo specifico del programma svolto dall'Unità di Ricerca *Testo italiano* Tecniche computazionali e sistemi di calcolo parallelo per la fisica statistica ed i sistemi complessi. *Testo inglese* Computational techniques and massively parallel computing systems for statistical mechanics and complex systems ------------------------------------------------------------------------ 2.2 Settori scientifico-disciplinari interessati dal Programma di Ricerca FIS/02 - Fisica teorica, modelli e metodi matematici ------------------------------------------------------------------------ 2.3 Parole chiave *Testo italiano* MECCANICA STATISTICA ; DINAMICA DEI FLUIDI ; SISTEMI DI SPIN ; METODI MONTE CARLO ; CALCOLATORI DEDICATI *Testo inglese* STATISTICAL MECHANICS ; FLUID DYNAMICS ; SPIN SYSTEMS ; MONTE CARLO METHODS ; DEDICATED COMPUTERS ------------------------------------------------------------------------ 2.4 Base di partenza scientifica nazionale o internazionale *Testo italiano* Le simulazioni numeriche sono da anni ampiamente utilizzate in parecchie aree della fisica teorica, in quei casi in cui la complessita' del sistema studiato non permette di ottenere predizioni significative con tecniche di calcolo analitiche. In questi casi le tecniche numeriche contribuiscono ad ottenere una piu' completa comprensione del sistema studiato e per ottenere predizioni quantitative, complementando de integrando i risultati ottenuti dall' analisi di situazioni particolarmente semplici e dello studio di modelli semplificati. In alcuni casi, l' approccio numerico e' stato portato all' estremo, con lo sviluppo di sistemi di calcolo dedicati, ovviamente nelle aree in cui i vantaggi ottenibili giustificano lo sforzo relativo (in termini di investimento umano e di fondi richiesti). Esempi significativi in questo senso si possono riscontrare nelle aredd delle teorie di gauge sul reticolo [1]. della dinamica dei sistemi gravitazionali [2], della simulazione dei fluidi [3] e dello studio Monte Carlo di sistemi di spin [4]. Molti partecipanti a questo progetto hanno contribuito, nel corso degli anni, allo sviluppo ed alla utilizzazione di sistemi di calcolo dedicati, fornendo importanti contributi in diverse aree: - il progetto APE ha prealizzato varie successive generazioni di sistemi di calcolo massicciamente parallelo , utilizzate per la simulazione numerica delle teorie di gauge sul reticolo. L' ultima generazione di APE (apeNEXT) e' in fase di completamento in questo periodo, e mettera' a disposizione a breve potenze di calcolo dell' ordine di parecchi TFlops. - Sono state studiate tecniche di calcolo parallelo per l' analisi di segnali di onde gravitazionali dovute a coalesecenza di binarie e rivelabili tramite esperimenti di tipo interferometrico.[5] - tecniche di calcolo numerico derivate dalla Lattice Boltzmann Equation (LBE) sono state utilizzzate per la suluzione numerica delle equazioni di Navier-Stokes che descrivo il moto di un fluido. Questa tecnica di calcolo si adatta molto bene ad essere utilizzata con calcolatori massicciamente paralleli. Dall' analisi dei risultati delle simulazioni svolte, sono state derivate importanti proprieta' di scala dei sistemi turbolenti, anche in regime di turbolenza convettiva. - Gruppi in stretto contatto con la nostra unita' di ricerca hanno sviluppato sistemi di calcolo dedicati (il processore SUE) di struttura estremamente semplice ma estremamente potenti per la simulazione Monte Carlo di sistemi di spin.[6] Gli ultimi due sempi sopra citati sono particolarmente rilevante in questa sede. Per quanto riguarda lo studio delle proprieta' statistiche dei fluidi turbolenti, la simulazione numerica, condotta nel nostro caso utilizando anche sistemi di calcolo dedicati, ha svolto un ruolo importante nello studio delle proprieta' statistiche di sistemi in moto turbolento convettivo. In collaborazione stretta con il gruppo di Roma II, abbiamo infatti: - precisato il ruolo del modello di Bolgiano-Obukhov che descrive le proprieta' di scaling dei campi di velocita' e temperatura di un sistema convettivo.[7] - esaminato le proprieta' di universalita' tra diversi tipi di forzamento della turbolenza (incluso il forzamento convettivo) per quanto riguarda i settori non-isotropi delle funzioni di correlazione. [8] - investigato le proprieta' di trasporto di calore di una cella convettiva in funzione del numero di Rayleigh nel cosiddetto "regime asintotico". [9] Per quanto riguarda la simulazione ad altissime prestazioni di sistemi di spin, molte proprieta' fisiche di sistemi di spin-glass all' equilibrio sono oggi ragionevolmente ben comprese [10]. Molti sono invece i problemi ancora aperti nell' area della dinamica dei sistemi fuori dall' equilibrio, come, ad esempio, effetti di memoria. Questa situazione ha una immediata rilevanza per quanto riguarda le tecniche e gli strumenti di studio numerico da utilizzare. Le tecniche numeriche finora utilizzate, infatti, prevedono di simulare un numero assai elevato di repliche del sistema, ognuna delle quali viene interpretata come un elemento dell' ensemble statistico, su cui operare operazioni di media statistica. A questo scopo e' possibile utilizzare efficacemnte un grande numero di processori di calcolo ognuno dei quali fornisce una potenza di calcolo relativamente modesta ed opera indipendentemente dagli altri. Per lo studio della dinamica dei sistemi fuori equilibrio, invece e' necessario seguire l' evoluzione di una singola replica del sistema (o di un numero ridotto di repliche) su scale di tempi fisici molto piu' lunghe. Per raggiungere questo obbiettivo, e' necessario avere a disposizione un numero relativamente didotto di motori di calcolo, ognuno dei quali ragiunge pero' prestazioni estremamnte elevate. *Testo inglese* Numerical simulations have been widely used in recent years in many areas of theoretical physics, in contexts in which the complexity of the systems that one wants to study does not allow to obtain significant predictions with analytical techniques. In these cases numerical techniques help to gain a more thorough understanding of the behaviour of the systems we want to study, and complement results that may be obtained in simplified situations or using toy models. In some cases the numerical approach has been pushed to the level of building special computer systems strnongly optimized for the numerical simulation of just one ( or a very limited class of) physical models. Significant examples in this field are found in the areas of lattice gauge theories[1], the dynamics of large self-gravitating systems[2], fluid dynamics [3] and Monte Carlo simulation of spin systems[4]. Several members of this project have worked for the development and the exploitation of dedicated computer systems, that have been used in quite a few computational areas: - the APE project has developed several generations of massively parallel computer systems, mainly used for Monte Carlo simulation lf lattice gauge theories. The latest version APE system (apeNEXT) is in its final development stage at this time: computing power of the order of several Tflops will be available for physics in the next 6 to 9 months. - Parallel numerical techniques, particularly suited for APE or other machines with similar structure, have been developed for the analysis of the gravitational-wave signals originating from the coalescenze of binary stars and detectable by interferometric antennas. - numerical techniques, derived from the Lattice Boltzmann Equation (LBE) approach have been developed and used to solve the equations of motion of an incompressible fluid. This numerical technique is very well suited for parallel processing. Analyses of the simulation results in this area have helped obtain relevant results on the scaling properties of fluids in the turbulent regime, especially in the case of convective turbulence. - a group of collaborators in Spain has developed a dedicated very high performance simulation engine (the SUE processor) for Monte Carlo studies of spin systems [6]. The last two points above are particularly relevant for this project. In the area of the study of the statistical properties of turbulent fluids, numerical simulations, heavily using dedicated computer systems, have produced several relevant results in the area of convective turbulence. In collaboration with the group in Rome II, we have: - shown the relevance of the Bologiano-Obukhov model, that predicts the scaling exponents appropriate for the correlation functions of the velocity and temperature fields in a convective system, such as a Rayleigh-Benard cell [7]. - studied the universality properties of the scaling laws for turbulent flows associated to different forcing mechanisms, even for the non-isotropic sectors of the correlation functions [8]. - studied the behaviour of the Nusselt number, that measures the heat transport across a convective cell, in the so-called asymptotic regime of convective turbulence [9]. In the area of the high-performance Monte Carlo simulations of spin systems, several properties of spin-glass models are now reasonably well understood at equilibrium [10]. Several problems are still wide open if one wants to study the dynamics of these systems out of equilibrium. Memory effects are a case in point. The study of the dynamics out of equilibrium brings forward several challenges from the point of view of the most appropriate simulation engines. Numerical techniques used sofar, in fact, usually involve simulating a large number of replicas, on which statistical averages are then carried out. This approach makes it possible to effectively use a large number of independent processors. If out of equilibrium properties are to be studied, on the other hand, it is necessary to follow the time evolution of a much smaller number of replicas for very long periods of time. This makes it necessary to use a small number of simulation engines, whose performance is large enough to follow the long-time dynamics within reasonable time limits. ------------------------------------------------------------------------ 2.4.a Riferimenti bibliografici [1] N. H. Christ et al., IEEE Tansaction on Computers, 33 (1984) 344. A. Hoogland et al., J. Comp. Phys. 51 (1983) 250 F. Bodin et al., Comp. Phys. Comm., 147 (2002) 402 R. Tripiccione, Parallel Computing 25 (1999) 1297. [2] J. Makino et al., Proceedings of Supercomputing2002, IEEE Press (2003). [3] A. Bartoloni et al., Int. J. of Mod. Phys.C4 (1993) 993. [4] A. Cruz et al., cond-mat/0004080 [5] E. Calzavarini, R. Tripiccione et al., Comp. Phys. Comm 152 (2003) 205 [6] A. Cruz et al., Comp. Phys. Comm. 133 (2001) 165. [7] E. Calzavarini, F. Toschi, R. Tripiccione, Phys. Rev. E66 (2002) 16304. F. Toschi, E. Calzavarini, R. Tripiccione, Advances in Turbulence IX (2002) 275. [8] L. Biferale, E. Calzavarini, F. Toschi, R. Tripiccione, Europhysics Letters, 64 (2003) 461. L. Biferale, E. Calzavarini, A. S. Lanotte, F. Toschi, R. Tripiccione, Physica A338 (2004) 194. [9] E. Calzavarini, D. Lohse, F. Toschi and R. Tripiccione, "Rayleigh and Prandtl number scaling in the bulk of Rayleigh-Benard turbulence", Physics of Fluids, in press. [10] S. Jimenez et al., J. Phys. A 36 (2003) 10755 ------------------------------------------------------------------------ 2.5 Descrizione del programma e dei compiti dell'Unità di Ricerca *Testo italiano* Il ruolo di questa unita' di ricerca e' quello di mettere a disposione gli strumenti e le metodologie di calcolo necessari per uno studio accurato di sistemi di fluidi in moto turbolento e per la simulazione ad altissima performance di sistemi di spin. Per quanto riguarda lo studio di fluidi in moto turbolento l' area in cui intendiamo lavorare e' quella dello studio del trasporto turbolento di particelle inerziali (leggere (bolle) e pesanti), in stretta collaborazione con il gruppo di Roma II, utilizzando anche programmi di simulazione parzialmente sviluppati a Ferrara, ed in grado di seguire milioni di bolle nel campo di un fluido turbolento, ed includenti il feed-back delle bolle sul moto del fluido stesso. Si tratta di un area, come nel passato quella della turbolenza convettiva, in cui le simulazioni numeriche permettono l' accesso, sia pure in maniera approssimata, a quantita' la cui misura sperimentale e' estremamente difficile. Le misure che pensiamo di effettuare si rivolgeranno inizialmente alle proprieta' di singola particella (distribuzioni delle velocita' e delle accelerazioni della particella nella sua traiettoria) e quindi alle proprieta' statistiche a due e piu' particelle. Particolarmente interessante sara' poi lo studio degli effetti delle particelle leggere sulla dinamica a grande scala di flussi con mean-flow, quali ad esempio il Kolmogorov flow. Per quanto riguarda lo sviluppo di sistemi di calcolo di altissime prestazioni per la simulazione di sistemi di spin, abbiamo accennato nella sezione precedente che uno sforzo di sviluppo relativamente limitato puo' condurre a risultati di altissime prestazioni. A titolo di esempio, il sistema SUE, sviluppato all' Universita' di Saragozza circa 5 anni fa, e' in grado di realizzare l' update di uno spin in meida ogni 200 ps. Questo livello di prestazione e' paragonabile a quello ottenbile utilizzando una farm di circa 30 personal computer di alte prestazioni di tecnologia odierna, molto piu' sofisticata di quella disponibile 5 anni fa. Utilizzando i supporti tecnologici disponibili oggi, si puo' ragionevolente stimare che una nuova generazione di sistemi di simulazione dedicati per sistemi di tipo spin-glass potrebbe raggiungere prestazioni piu' di mille volte superiori a quelle di SUE (1 spin update ogni circa 0.1 ps, maggiori dettagli sono dati nel seguito). E' quindi oggi immaginabile realizzare un sistema di calcolo dedicato con un livello di prestazioni di almeno un ordine di grandezza superiori a quanto ci si puo' attendere con un sistema di calcolo tradizionale di grandissime proporzioni (prestazioni equivalenti a quelle ottenibili, in principio, utilizzando contemporaneamente parecchie decine di migliaia di PC). E' importante notare che un simile proetto e' giustificato solo da un progresso veramente elevato nelle prestazioni ottenibili, in quanto non sarebbe ragionevole investire risorse (umane e materiali) per un obbiettivo solo di poco migliore di quello ottenibile tramite sistemi di calcolo tradizionali. Uno degli obbiettivi principali di questa unita' di ricerca e' lo sviluppo di tecniche e di sistemi di simulazione di sistemi statistici in grado di raggiungere il livello di performance sopra accennato, di generalizzare l' utilizzo di tali tecniche ad altri sistemi fisici e di realizzare una serie di studi statistici preliminari che verfichino l' efficienza di tale strumento di calcolo, utilizzando un piccolo prototipo. Questa attivita' viene svolta in stretta collaborazione con altre unita' appartenenti al presente PRIN e con l' Universita' di Saragozza e con il BIFI di Saragozza. Va detto chiaramente che non rientra nel progetto di questo PRIN la realizzazione esplicita ed ingegneristica del nuovo sistema di calcolo dedicato (che chiamiamo Super SUE, SSUE). Tale attivita' verra' svolta principalmente a Saragozza. utilizzando fondi del tutto esterni a questo progetto, disponibili presso il BIFI. Il ruolo del nostro gruppo sara' piuttosto quello di affinare gli algoritmi di simulazione praticabili per una ampia classe di modelli, di ottimizzarli per la prevista architettura di calcolo, e di verificarne la efficienza numerica e statistica. Il "vecchio" sistema SUE e' basato sull' utilizzo di Field Programmable Gate Arrays (FPGA). Si tratta di componenti elettroniche che possono essere configurate di volta in volta per effettuare una voluta sequenza di operazioni logiche. In questo modo si realizza un sistema su silicio personalizzato per svolgere "in hardware" tutti e soli i passi di un determinato algoritmo. Il risultato e' che tutta la capacita' di elaborazione disponibile sul chip e' dedicata al calcolo che si vuole realizzare. Alcuni risultati preliminari portano a stimare con ragionevole certezza che un singolo chip FPGA di ultima generazione puo' realizzare una simulazione Monte Carlo del modello di Anderson di dimensioni 32^3 realizzando (in media) uno spin update in 20 ps. A livello architetturale, quindi SSUE intende utilizzare quindi un piccolo numero di FPGA connesse tra di loro in una griglia bidimensionale per simulare sistemi molto grandi (ad esempio 80^3). Utilizzando sistemi che globalmente contengono O(200) FPGA si realizza quindi uno spin update in media ogni 0.1 ps. Per quanto riguarda l' attivita' di sviluppo di tale sistema, il gruppo di Ferrara si propone di svolgere le seguenti attivita': - semplificazione degli algoritmi di calcolo per la simulazione Monte Carlo del modello di Anderson. - realizzazione su calcolatori tradizionali degli stessi algoritmi di simulazione che verranno utilizzati da SSUE per verificare la correttezza (su piccoli volumi) dei risultati ottenuti. - analisi di generalizzazione dei sistemi che potranno essere simulati da SSUE. Ad eesmpio si potra' esaminare la possibilita' che i link tra gli spin siano sistribuiti gaussianamente, oppure si cerchera' di simulare su SSUE un modello di ferromagente di Heisenberg. Notiamo per inciso che il sistema SSUE, il cui livello di prestazione e' stato sopra indicato, avra' anche un rapporto prestazioni costo estremamente favorevole, per cui pensiamo di sottoporre SSUE al Gordon-Bell Award che premia annualmente il sistema di calcolo con il miglior rapporto prestazioni-costo (a titolo di confronto, stimiamo che un sistema di calcolo basato su personal computers avrebbe un rapporto prezzo prestazioni comparabile con SSUE se ogni PC costasse circa 40 Euro). Completato il ciclo di sviluppo di SSUE, ci proponiamo di istallare a Ferrara un sistema SSUE di dimensioni medio piccole (ad esempio, 64 processori) e di collaborare alla realizzazione di: - usa simulazione all' equilibrio di un sistema tri-dimesionale di grandi dimensioni (ad esempio 64^4) per riesaminare con maggior precisione la struttura della transizione di fase della teoria. -realizzare una serie di simulazioni su sistemi fuori dall' equilibrio per esaminare questioni legate alla memoria ed alla rejuvenation del sistema. *Testo inglese* The main role that we would like to play in this project is the development of the tools and computing methodologies necessary for an accurate study of the properties of turbulent flows and for extremely high accuracy Monte Carlo simulations of spin systems. In the area of turbulence, we plan to interact closely with the group of Rome II, focusing on the study of the turbulent transport of (heavy and light (bubbles) ) particles. We plan to use also a computer code (already developed in collaboration with Rome II) able to follow the dynamics of millinos of bubbles moving in the background of a turbulent fluid, and including feedback to the motion of the fluid itself. This is an area (like convective turbulence that we have heavily investigated in recent years) where numerical simulations are able to provide data for observables whose experimental measurement is extremely difficult. The quantities that we would like to study are both single particle properties (such as the distribution functions of velocity and acceleration for the particle along its trajectory) and statistical correlation properties of two or more particles. We also want to study the effects at large scales of light particles on the dynamics of systems with a mean flow, such as the Kolmogorov flow. We now consider the Monte Carlo simulation of spin systems. In the previous section we have mentioned that extremely powerful simulation engines can be developed in this specific area with a relatively small effort. As an example, the SUE system was developed five years ago at the University of Zaragoza. SUE is able to update one spin on average every 200 ps. This level of performance can be now obtained by a cluster of about 30 carefully programmed high-end personal computers that use technology available in late 2004 (that is 5 years after SUE was developed). It can be quickly estimated that a new generation of simulation engines for spin systems, using technology available today, should be able to reach a level of performance more that three orders of magnitudes higher than SUE (e.g., one spin-update every 0.1 ps, see later for details). This level of performance would be obtainable by assembling and connecting together a number of personal computers of the order of 10000, a formidable effort indeed. One of the goal of our project is therefore the development of simulation engines with the level of performance discussed above, and able to work not only for spin-glasses, but for a more general class of related systems. We also plan to use a small prototype of such a system for preliminary physics studies. This project will be carried out in close collaboration with the Rome I group, with the University of Zaragoza and with BIFI (also in Zaragoza). We want to spell out clearly that the work performed within this PRIN does not involve the actual development of the new dedicated machine (called SSUE, for Super-SUE). Actual development will be in fact performed mainly in Spain, using funds available to BIFI. Our role will be biased towards the areas of identifying the best simulation models (both for spin-glasses and for related systems), tailoring them to a strongly hardwired system, and verifying their numerical and statistical correctness and efficiency. The "old" SUE system used Field Programmable Gate Arrays (FPGA's). FPGA's are special chips that can be quickly configured to perform a specific sequence of logic operations. This approach is able to produce a silicon system optimally tailored to perform all (and only) the computational steps of a given algorithm. The computational advantage of this approach is that all hardware resources are used for the planned computation. Preliminary tests indicate that just one latest-generation FPGA-based processor is able to simulate the Anderson model on a lattice of 32^3 points, performing one spin update (on average) every 20 ps. At the computer architectural level, SSUE plans to use a small number of FPGA-based processors assembled at the edges of a 2-dimensional grid, with enough memory to accomodate a very large lattice (e.g., 80^3 lattice sites). A large system (containing globally O(200) FPGA processors) achieves our target of one spin update every 0.1 ps. The work that we plan to perform in Ferrara for the development of SSUE involves the following: - tailoring of algorithms for Monte Carlo simulations to the specific features of SSUE. - cross-check of the simulation algorithms developed for SSUE on traditional computer clusters to validate (on small systems) the results that will be obtained by SSUE. - analysis of a larger class of physical systems that can be simulated on SSUE. Areas that we want to investigate include spin systems in which the link values have a gaussian distribution as well as an attempt to simulate the Heisenberg ferro-magnet. As a side remark, we expect that the price performance ratio of the SSUE system will be extremely low (the same price performance ratio on a PC-based system would imply that the price of each PC is of the order of 40 Euros. We then plan to submit SSUE for the Gordon Bell award, given every year to the computer system with the best price-performance ratio. As soon as te development process for SSUE is completed, we plan to have in Ferrara a relatively small size SSUE sytem (containing e.g. 64 processors) and to use it for: - equilibrium simulation of a very large (e.g., 64^3 sites) three dimensional spin-glass systems, in order to study in more details the critical properties of the system. - initial long time-scale simulations for systems out of equilibrium, looking at the memory properties and re-juvenation issues of the system. ------------------------------------------------------------------------ 2.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta con valore patrimoniale superiore a 25.000 Euro *Testo italiano* nº anno di acquisizione Descrizione 1. 2004 Sistema di calcolo parallelo apeNEXT 2. 2003 Cluster di PC con 20 nodi di calcolo *Testo inglese* nº anno di acquisizione Descrizione 1. 2004 apeNEXT massively parallel computer 2. 2003 Medium size PC cluster (20 processing nodes) 2.7 Descrizione delle Grandi attrezzature da acquisire (GA) *Testo italiano* nº Descrizione valore presunto percentuale di utilizzo per il programma 1. Sistema di calcolo SSUE di piccole dimensioni 70.000 90 *Testo inglese* nº Descrizione valore presunto percentuale di utilizzo per il programma 1. Small size SSUE system 70.000 90 ------------------------------------------------------------------------ 2.8 Mesi uomo complessivi dedicati al programma *Testo italiano* Numero Mesi uomo 1° anno Mesi uomo 2° anno Totale mesi uomo *Personale universitario dell'Università sede dell'Unità di Ricerca* 2 19 14 33 *Personale universitario di altre Università* 0 0 0 0 *Titolari di assegni di ricerca* 0 *Titolari di borse* Dottorato 0 Post-dottorato 0 Scuola di Specializzazione 0 *Personale a contratto* Assegnisti 1 5 7 12 Borsisti 0 Dottorandi 0 Altre tipologie 1 10 2 12 *Personale extrauniversitario* 1 9 9 18 *TOTALE * * * *5 * *43 * *32 * *75 * *Testo inglese* Numero Mesi uomo 1° anno Mesi uomo 2° anno Totale mesi uomo *University Personnel* 2 19 14 33 *Other University Personnel* 0 0 0 0 *Work contract (research grants, free lance contracts)* 0 *PHD Fellows & PHD Students* PHD Students 0 Post-Doctoral Fellows 0 Specialization School 0 *Personnel to be hired* Work contract (research grants, free lance contracts) 1 5 7 12 PHD Fellows & PHD Students 0 PHD Students 0 Other tipologies 1 10 2 12 *No cost Non University Personnel* 1 9 9 18 *TOTALE * * * *5 * *43 * *32 * *75 * PARTE III 3.1 Costo complessivo del Programma dell'Unità di Ricerca *Testo italiano* Voce di spesa Spesa in Euro Descrizione Materiale inventariabile 6.000 Personal computer per analisi Grandi Attrezzature 70.000 Sistema SSUE di piccole dimensioni Materiale di consumo e funzionamento 4.000 costi telefonici, software, minute spese Spese per calcolo ed elaborazione dati Personale a contratto 54.000 1 collaboratore senior con contratto a progetto ed 1 assegno di ricerca di durata annuale Servizi esterni Missioni 5.000 incontri con gli altri membri della collaborazione Pubblicazioni Partecipazione / Organizzazione convegni 2.000 contributo all' organizzazione di un mini-worshop relativo all' attivita' della progetto Altro *TOTALE* *141.000 * * * *Testo inglese* Voce di spesa Spesa in Euro Descrizione Materiale inventariabile 6.000 Personal computers for data analysis Grandi Attrezzature 70.000 Small size SSUE system Materiale di consumo e funzionamento 4.000 Telephone costs, software, purchase of minor items Spese per calcolo ed elaborazione dati Personale a contratto 54.000 1 senior project member hired as "contratto a progetto" and 1 post-doc position for one year Servizi esterni Missioni 5.000 meetings and visits within the collaboration Pubblicazioni Partecipazione / Organizzazione convegni 2.000 contribution to the organization of a mini-workshop on the results of the project Altro *TOTALE* *141.000 * * * 3.2 Costo complessivo del Programma di Ricerca Descrizione Costo complessivo del Programma dell'Unità di Ricerca 141.000 Fondi disponibili (RD + RA) /comprensivi dell'8% max per spese di gestione/ 42.300 Fondi locali pari a 7300 Euro. Fondi acquisibili dall' Universita' di Ferrara in caso di approvazione del progetto pari a 30000 Euro Fondi acquisibili da parte dell' INFN in caso di approvazione del progetto pari a 5000 Euro Cofinanziamento di altre amministrazioni *Cofinanziamento richiesto al MIUR* 98.700 3.3.1 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di Ateneo (RD e RA) SI /(per la copia da depositare presso l'Ateneo e per l'assenso alla diffusione via Internet delle informazioni riguardanti i programmi finanziati e la loro elaborazione necessaria alle valutazioni; D. Lgs, 196 del 30.6.2003 sulla "Tutela dei dati personali")/ Firma _____________________________________ Data 04/04/2005 ore 13:02