Projekte

stilisiertes Bild vom Hochhaus
1 2 3

Die nachfolgenden Projektbeschreibungen sind dem Univis entnommen.

Eigenwertlöser für dünn besetzte Matrixprobleme:Skalierbare Software für Exascale-Anwendungen (ESSEX)

Projektleitung:Prof. Dr. Gerhard Wellein
Beteiligte:Dr. Georg Hager, Prof. Dr. Bruno Lang, Dr. Achim Basermann, Prof. Dr. Holger Fehske
Förderer:
DFG SPP1648
Mitwirkende
Institutionen:
Lehrstuhl Theoretische Physik II, Ernst-Moritz-Arndt-Universität Greifswald
Arbeitsgruppe Angewandte Informatik, Bergische Universität Wuppertal
Simulations- und Softwaretechnik, Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Stichwörter:Skalierbare Eigenwertlöser für dünn besetzte Matrizen, dünn besetzte lineare Algebra, skalierbare Vorkonditionierer, Performance Engineering, Fehlertoleranz, Exascale
Laufzeit:1.1.2013 - 31.12.2015
Inhalt und Ziele:Das ESSEX-Projekt untersucht die rechnergestützte Behandlung großer dünn besetzter Eigenwertprobleme und entwickelt Programmierkonzepte sowie numerische Methoden zu ihrer Lösung. Den neuen Herausforderungen der Exascale-Architekturen hinsichtlich extremer Parallelität, Energieeffizienz und Ausfallsicherheit begegnet das Projekt durch einen übergreifenden Software-Entwicklungsprozess in den drei Projektebenen Kernroutinen – Algorithmen – Anwendungen. Zentrale Triebfedern dieser Entwicklung sind das MPI+X-Programmiermodell, ein ganzheitliches Konzept zum Performance Engineering und fortgeschrittene Mechanismen zur Fehlertoleranz. Klassische Krylov-, Jacobi-Davidson- und moderne FEAST-Verfahren werden zusammen mit fortschrittlichen skalierbaren Vorkonditionierern für den Einsatz auf Exascale-Maschinen weiterentwickelt. Die Software-Lösungen des ESSEX-Projektes werden in einer Sammlung Exascale-fähiger Algorithmen und Bausteine (ESSR: Exascale Sparse Solver Repository) zusammengefasst.
Kontakt:Wellein, Gerhard
Telefon 09131 85 28136, Fax 09131 302941, E-Mail: Gerhard.Wellein@rrze.uni-erlangen.de
Publikationen:
  1. Shahzad, Faisal ; Wittmann, Markus ; Kreutzer, Moritz ; Zeiser, Thomas ; Hager, Georg ; Wellein, Gerhard:
    A survey of checkpoint/restart techniques on distributed memory systems.
    In: Parallel Processing Letters 23 (2013), Nr. 04, S. 1340011-1340030
    [doi>10.1142/S0129626413400112]
  2. Shahzad, Faisal ; Wittmann, Markus ; Zeiser, Thomas ; Hager, Georg ; Wellein, Gerhard:
    An Evaluation of Different I/O Techniques for Checkpoint/Restart.
    In: IEEE (Veranst.):
    Parallel and Distributed Processing Symposium Workshops PhD Forum (IPDPSW), 2013 IEEE 27th International
    (2013 IEEE 27th International Parallel and Distributed Processing Symposium Workshops & PhD Forum, Boston, MA, USA, May 20-24, 2013).
    n.a. : IEEE Digital Library, 2013, S. 1708-1716.
    Stichwörter: fault tolerance, asynchronous checkpointing, multi-stage checkpointing, checkpoint/restart, MPI
    [doi>10.1109/IPDPSW.2013.145]
  3. Pieper, Andreas ; Schubert, Gerald ; Wellein, Gerhard ; Fehske, Holger:
    Effects of disorder and contacts on transport through graphene nanoribbons.
    In: Phys. Rev. B 88 (2013), S. 195409
    [doi>10.1103/PhysRevB.88.195409]
  4. Shahzad, Faisal ; Wittmann, Markus ; Kreutzer, Moritz ; Zeiser, Thomas ; Hager, Georg ; Wellein, Gerhard:
    PGAS implementation of SpMVM and LBM with GPI.
    In: Weiland, M. ; Jackson, A. ; Johnson, N. (Hrsg.) : Proceedings of the 7th International Conference on PGAS Programming Models
    (The 7th International Conference on PGAS Programming Models, Edinburgh, Scotland, UK, Oct. 3-4, 2013).
    Edinburgh : The University of Edinburgh, 2013, S. 172-184. - ISBN 978-0-9926615-0-2
  5. Kreutzer, Moritz ; Hager, Georg ; Wellein, Gerhard ; Fehske, Holger ; Bishop, Alan R.:
    A unified sparse matrix data format for efficient general sparse matrix-vector multiplication on modern processors with wide SIMD units.
    In: SIAM Journal on Scientific Computing 36 (2014), Nr. 5, S. C401–C423
    [doi>10.1137/130930352]
  6. Pieper, A. ; Heinisch, R. L. ; Wellein, Gerhard ; Fehske, H.:
    Dot-bound and dispersive states in graphene quantum dot superlattices.
    In: Phys. Rev. B 89 (2014), S. 165121
    [doi>10.1103/PhysRevB.89.165121]
  7. Alvermann, Andreas ; Basermann, Achim ; Fehske, Holger ; Galgon, Martin ; Hager, Georg ; Kreutzer, Moritz ; Krämer, Lukas ; Lang, Bruno ; Pieper, Andreas ; Röhrig-Zöllner, Melven ; Shahzad, Faisal ; Jonas, Thies ; Wellein, Gerhard:
    ESSEX: Equipping Sparse Solvers for Exascale.
    In: Lopes, Luis (Hrsg.) : Euro-Par 2014: Parallel Processing Workshops.
    Bd. 8806. Lecture Notes in Computer Science : SpringerLink, 2014, (Lecture Notes in Computer Science), S. 577-588.
  8. Röhrig-Zöllner, M. ; Thies, J. ; Kreutzer, Moritz ; Alvermann, A. ; Pieper, A. ; Basermann, A. ; Hager, Georg ; Wellein, Gerhard ; Fehske, H.:
    Increasing the performance of the Jacobi-Davidson method by blocking.
    In: Siam Journal on Scientific Computing. SIAM Society for Industrial and Applied Mathematics. DLR Portal ISSN 1064-8275 (2015), S. 1-27
  9. Kreutzer, Moritz ; Pieper, Andreas ; Hager, Georg ; Wellein, Gerhard ; Alvermann, Andreas ; Fehske, Holger:
    Performance Engineering of the Kernel Polynomal Method on Large-Scale CPU-GPU Systems.
    In: IEEE (Veranst.):
    Proceedings of the 2015 IEEE International Parallel and Distributed Processing Symposium (IPDPS)
    (Parallel and Distributed Processing Symposium (IPDPS), 2015 IEEE International, Hyderabad, May 25-29, 2015).
    2015, S. 417-426.
    [doi>10.1109/IPDPS.2015.76]

Eine fehler-tolerante Umgebung für peta-scale MPI-Löser

Projektleitung:Prof. Dr. Gerhard Wellein
Beteiligte:Dipl.-Inf. Michael Meier, Dr. Thomas Zeiser
Förderer:
Bundesministerium für Bildung und Forschung
Mitwirkende
Institutionen:
Institut für rechnergestützte Modellierung im Bauingenieurwesen
Höchstleistungsrechenzentrum Stuttgart
NEC Deutschland GmbH
Platform Comuting GmbH
Professur für Biomechanik, Universität Duisburg-Essen
Stichwörter:HPC, Fehlertoleranz, Höchstleistungsrechner
Laufzeit:1.6.2011 - 31.5.2014
Inhalt und Ziele:Mit der zunehmenden Größe eines HPC-Systems steigt die statistische Wahrscheinlichkeit für Hardwareausfälle stark an. Damit massiv parallele Simulationsprogramme auch auf Peta- und künftigen Exa-Flopsystemen stabil laufen können, ist die Entwicklung von Fehlertoleranzmechanismen auf System- und Anwendungsebene zwingend erforderlich. Das FETOL-Projekt erarbeitet Lösungsansätze, welche innovative, hierarchische Diagnostik- und Recovery-Mechanismen mit vertretbarem zusätzlichen Ressourcen- und Rechenzeitaufwand kombinieren und so Fehlertoleranz für ausgewählte Ausfallszenarien erreichen. Das MPI-Programmierparadigma bleibt dabei weitgehend erhalten, um Eingriffe in die Kern-Algorithmen und Datenstrukturen bestehender Anwendungen zu beschränken. Ausgewählte Codes aus den Bereichen Computational Fluid Dynamics (CFD) und Molekulardynamik (MD) sowie Standard-HPC-Cluster dienen als Demonstrationsplattform für die prototypischen Entwicklungen auf Anwendungs- und Middleware-/Systemsoftware-Ebene.
Zentrale Aufgabenpakete des RRZE/der Professur für Höchstleistungsrechnen sind: (1) Bereiststellung, Konfiguration und Betrieb einer Clustertestumgebung, (2) Untersuchung und Optimierung der Checkpoint-Restart-Eigenschaften sowie der Fehlertoleranz von Molekulardynamik-Simulationen. Ferner wirkt das RRZE mit bei (a) den Tests der Jobmanager-Software und (b) Optimierung der CFD-Anwendungen. Die gewonnenen Erkenntnisse sollen in Lehrveranstaltungen einfließen, über das Kompetenznetzwerk für technisch-wissenschaftliches Hoch- und Höchstleistungsrechnen in Bayern (KONWIHR) sowie über die Gauss-Allianz verbreitet und beim Betrieb der RRZE-Produktionsclusters ausgenutzt werden.
Kontakt:Wellein, Gerhard
Telefon 09131 85 28136, Fax 09131 302941, E-Mail: Gerhard.Wellein@rrze.uni-erlangen.de

EXASTEEL

Projektleitung:Prof. Dr. Axel Klawonn
Beteiligte:Prof. Dr. Oliver Rheinbach, Prof. Dr. Gerhard Wellein, Prof. Dr. Daniel Balzani, Prof. Dr. Jörg Schröder
Förderer:
DFG SPP 1648
Mitwirkende
Institutionen:
AG Numerische Mathematik / Numerische Simulation, Universität zu Köln
Institute of Mechanics, Universität Duisburg-Essen
Institut für Mechanik und Flächentragwerke
Institut für Numerische Mathematik und Optimierung
Laufzeit:1.1.2013 - 31.12.2015
Inhalt und Ziele:ln EXASTEEL werden Algorithmen und Software zur Simulation dreidimensionaler Multiskalenprobleme aus den Materialwissenschaften entwickelt, die geeignet sein werden für die zukünftigen Exascale-Supercomputer. Die Eigenschaften moderner Hochleistungsstähle werden durch das komplexe Zusammenspiel der einzelnen Komponenten auf der Mikroskala bestimmt. Direkte numerische Homogenisierungsmethoden, wie zum Beispiel das FE"2-Verfahren, können das Materialdesign und die Analyse moderner Stähle erheblich verbessern. Mit Hilfe eines solchen Ansatzes können die lokalen Feldgleichungen mit einer hohen Auflösung und Genauigkeit berechnet werden, was wiederum für die Vorhersage von Materialversagen benötigt wird. Die Durchführung der Skalenseparation in der FE"2-Methode verlangt für realistische 3DProbleme die Entwicklung neuer, ultra-skalierbarer und robuster Algorithmen und Löser, welche in einer neuen Anwendungssoftware zusammengeführt werden müssen. Die entsprechenden Algorithmen müssen speziell für den effizienten Einsatz auf den zu erwartenden, zukünftigen Hardwarekonfigurationen entworfen werden. Dazu soll der direkte Multiskalenansatz (FE"2) mit neuen, hocheffizienten, parallelen Löseralgorithmen kombiniert werden. Für letztere soll ein hybrider Algorithmenansatz gewählt werden, der nichtüberlappende, parallele (FETI) Gebietszerlegungsverfahren mit effizienten, parallelen Mehrgittervorkonditionierern kombiniert. Ein umfassender Performance-Engineering-Ansatz wird unter der Anleitung des Antragstellers Weilein implementiert. Dies soll einen systematische Optimierung und Parallelisierung über alle Softwareebenen sicherstellen. Das Projekt baut auf eine parallele Simulationssoftware für komplexe, nichtlineare Strukturmechanikprobleme auf, die von den Antragstellern Schröder, Balzani und Klawonn, Rheinbach entwickelt wurde. Sie basiert auf der Anwendungssoftware FEAP (Finite Element Analysis Program, R. Taylor, UC Berkeley). Innerhalb einer neu entwickelten Softwareumgebung wurde FEAP mit einem FETI-DP-Gebietszerlegungsverfahren, basierend auf PETSc und hypre (Lawrence Livermore National Laboratory), kombiniert, um, z. B. parallele Simulationen nichtlinearer biomechanischer Probleme durchzuführen. Das angestrebte "Scale-bridging" für realistische, anspruchsvolle Ingenieuranwendungen in 3D erfordert eine Rechnerkapazität, wie sie erst durch Exascale-Computer zur Verfügung stehen wird.
Kontakt:Wellein, Gerhard
Telefon 09131 85 28136, Fax 09131 302941, E-Mail: Gerhard.Wellein@rrze.uni-erlangen.de
Publikationen:
  1. Klawonn, A. ; Lanser, M. ; Rheinbach, O. ; Stengel, Holger ; Wellein, Gerhard:
    Hybrid MPI/OpenMP Parallelization in FETI-DP Methods.
    In: Mehl, M. et al. (Hrsg.) : Recent Trends in Computational Engineering - CE2014.
    Bd. 105. - : Springer Link, 2015, (Lecture Notes in Computational Science and Engineering), S. 67-84. - ISBN 978-3-319-22997-3
    [doi>10.1007/978-3-319-22997-3_4]

High-Performance Computing in Computer-Aided Drug Design (HPC)

Projektleitung:Prof. Dr. Gerhard Wellein, apl. Prof. Dr. Tim Clark
Beteiligte:apl. Prof. Dr. Tim Clark, Prof. Dr. Dirk Zahn, Prof. Kast, TU-Dortmund, Sanofi-Aventis Deutschland GmbH, Dr.-Ing. Jan Eitzinger, Dr. Thomas Zeiser
Stichwörter:HPC; Computer-Aided Drug Design
Laufzeit:1.9.2011 - 31.8.2014
Inhalt und Ziele:hpCADD soll einen neuen und nachhaltigen Rahmen für Computer-Aided Drug Design (CADD) mit Fokus auf eine spätere industrielle Nutzung erstellen. Es werden neue Methoden implementiert, um (a) physikalische Modelle umzusetzen, für die nun erstmalig ausreichend Rechenleistung verfügbar ist, (b) einen realitätsnahen Umgang mit 3D Molekülstrukturen zu erlauben, (c) zuverlässige Aussagen über biologische Aktivität und chemische Eigenschaften zu liefern und (d) die Effizienz des CADD in der Industrie zu verbessern. Steigende Rechenleistung wird nicht zur Beschleunigung etablierter aber oftmals ungenauer Verfahren genutzt, sondern soll durch systematische Optimierung physikalischer Prinzipien die Ergebnisqualität auf ein neues Niveau bringen. Begleitet und geleitet werden die Arbeiten von prototypischen Umsetzungen und Tests in der Pharma-Industrie.
Zentrale Aufgaben des RRZE in diesem Projekt sind die Portierung und Optimierung von beispielsweise EMPIRE sowie das nachhaltige Design der Applikationspakete für homogene/heterogene Multi-Core-Rechner, wie auch die Workflowintegration in professionellen Rechnerumgebungen.
Die Arbeiten sind eingebunden in Aktivitäten des Kompetenznetzwerk für technisch-wissenschaftliches Hoch- und Höchstleistungsrechnen in Bayern (KONWIHR) sowie die Gauss-Allianz (GA).
Kontakt:Wellein, Gerhard
Telefon 09131 85 28136, Fax 09131 302941, E-Mail: Gerhard.Wellein@rrze.uni-erlangen.de

Likwid Lightweight Performance Tools

Projektleitung:Dr.-Ing. Jan Eitzinger
Beteiligte:Dr.-Ing. Jan Eitzinger, Dipl.-Inf. Michael Meier, Dr. Georg Hager
Förderer:
Likwid High Performance Programming
Mitwirkende
Institutionen:
Leibnitz Rechenzentrum (LRZ) Garching
Stichwörter:Software Werkzeug; Profiling; Optimierung
Beginn:26.5.2009
Inhalt und Ziele:Im Rahmen des LIKWID Projekts werden leicht zu benutzende Kommandozeilen Werkzeuge fuer das Linux Betriebssytem entwickelt. Alle LIKWID Werkzeuge haben den Zweck Programmiere dabei zu unterstuetzen leistungsfaehige Software zu entwickeln.
LIKWID umfasst die folgenden Programme:
likwid-topology: Zeigt die Topologie eines Rechenknotens
likwid-perfctr: Messung von Hardware Performance Countern auf x86 Prozessoren
likwid-features: Ermoeglicht das Ausschalten der Hardware Prefetcher auf Intel Core 2 Prozessoren
likwid-pin: Pinnen con Threads und Prozessen auf dedizierte Rechenresourcen (unterstuetzt pthreads, Intel OpenMP und gcc OpenMP)
likwid-bench: Mikrobenchmarking Umgebung fuer die Entwicklung von Assembler Kerneln
likwid-mpirun: Wrapper zum pinnen von MPI und Hybrid (MPI/OpenMP) Programmen. Einbindung von likwid-perfctr Messungen
likwid-perfscope: Erlaubt live plotten von likwid-perfctr Ergebnissen
likwid-powermeter: Programm um den Stromverbrauch auf Intel SandyBridge Prozessoren zu messen
Kontakt:Eitzinger, Jan
Telefon 09131 85-28911, Fax 09131 302941, E-Mail: jan.treibig@fau.de
Publikationen:
  1. Eitzinger, Jan ; Hager, Georg ; Wellein, Gerhard ; Meier, Michael:
    LIKWID performance tools.
    In: Innovatives Supercomputing in Deutschland (InSiDE) 8 (2010), Nr. 1, S. 50-53
  2. Eitzinger, Jan ; Hager, Georg ; Wellein, Gerhard:
    LIKWID: A Lightweight Performance-Oriented Tool Suite for x86 Multicore Environments.
    In: - (Hrsg.) : Proceedings of PSTI2010, the First International Workshop on Parallel Software Tools and Tool Infrastructures
    (39th International Conference on Parallel Processing Workshops, San Diego, CA, USA, 13-16 September).
    IEEE : icppw, 2010, S. 207-216. - ISBN 978-0-7695-4157-0
    [doi>10.1109/ICPPW.2010.38]

OMI4papps: Optimierung, Modellierung und Implementierung hoch skalierbarer Anwendungen

Projektleitung:Prof. Dr. Gerhard Wellein
Beteiligte:Dr.-Ing. Jan Eitzinger, Dr. Matthias Brehm, Dr. Volker Weinberg
Förderer:
KONWIHR II/III
Mitwirkende
Institutionen:
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
Regionales Rechenzentrum Erlangen
Stichwörter:multi-core; parallel computing; high performance computing; ccNUMA; performance modeling
Laufzeit:1.9.2008 - 31.12.2015
Inhalt und Ziele:Der technologisch getriebene Wandel von immer schnelleren Einzelprozessoren hin zu Mehrkernprozessoren mit moderater Einzelprozessorleistung vollzieht sich gerade in voller Breite: vom Desktop bis hin zum Supercomputer. Insbesondere für zeitkritische numerische Simulationen hat dies zur Folge, dass die Rechenleistung auch langfristig nur durch neue numerische Methoden oder aber konsequente Optimierung sowie massive Parallelisierung zu erreichen ist. Das rechnernahe "tunen" der Programme für hohe parallele Rechenleistung erfordert jedoch Spezialkenntnisse, die nur sehr wenige Forschergruppen selbst aufbauen und langfristig halten können. Das vorliegende KONWIHR-II Projekt OMI4papps adressiert genau diesen Problembereich, indem es Experten Know-How in der Optimierung und Parallelisierung von Programmen an zentraler Stelle für alle bayerischen HPC Forschergruppen zur Verfügung stellt. Insbesondere ist eine enge Zusammenarbeit mit anderen KONWIHR-II Projekten sowie Nutzern des HLRB-II am LRZ vorgesehen.
Die HPC Gruppen in Erlangen und Garching besitzen langfristige und ausgewiesene Expertise zur Parallelisierung und Optimierung von Anwendungscodes auf allen gängigen (massiv) parallelen Rechner. Darüber hinaus bestehen enge Partnerschaften mit Industriepartnern wie Intel, die den ständigen Zugriff auf die neuesten, für das High Performance Computing relevanten Rechnerarchitekturen sowie Softwarekomponenten garantieren.
Kontakt:Wellein, Gerhard
Telefon 09131 85 28136, Fax 09131 302941, E-Mail: Gerhard.Wellein@rrze.uni-erlangen.de
Publikationen:
  1. Hager, Georg ; Stengel, Holger ; Zeiser, Thomas ; Wellein, Gerhard:
    RZBENCH: performance evaluation of current HPC architechtures using low-level and application benchmarks.
    In: Wagner, Siegfried ; Steinmetz, Matthias ; Bode Arndt ; Brehm Matthias (Hrsg.) : High Performance Computing in Science and Engineering, Garching/Munich 2007: Transactions of the Third Joint HLRB and KONWIHR Status and Result Workshop, Dec. 3-4, 2007, Leibniz Supercomputing Centre, Garching/Munich, Germany.
    Bd. V. Berlin, Heidelberg : Springer, 2009, (Mathematics and Statistics), S. 485-501. - ISBN 978-3-540-69181-5
    [doi>10.1007/978-3-540-69182-2_39]
  2. Eitzinger, Jan ; Hager, Georg ; Wellein, Gerhard:
    Complexities of Performance Prediction for Bandwidth-Limited Loop Kernels on Multi-Core Architectures.
    In: Wagner, Siegfried ; Steinmetz, Matthias ; Bode, Arndt ; Müller, Markus Michael (Hrsg.) : High Performance Computing in Science and Engineering, Garching/Munich 2009
    (Transactions of the Fourth Joint HLRB and KONWIHR Review and Results Workshop, Leibniz Supercomputing Centre, Garching/Munich, Germany, Dec. 8-9, 2009). Bd. 1.
    Berlin Heidelberg : Springer-Verlag, 2010. - ISBN 978-3-642-13871-3
    [doi>10.1007/978-3-642-13872-0_1]
  3. Wittmann, Markus ; Hager, Georg ; Eitzinger, Jan ; Wellein, Gerhard:
    Leveraging shared caches for parallel temporal blocking of stencil codes on multicore processors and clusters.
    In: Parallel Processing Letters (PPL) 20 (2010), Nr. 4, S. 359-376
    Stichwörter: temporal blocking; multi-halo exchange; multicore; shared caches; stencil algorithm
    [doi>10.1142/S0129626410000296]
  4. Eitzinger, Jan ; Wellein, Gerhard ; Hager, Georg:
    Efficient multicore-aware parallelization strategies for iterative stencil computations.
    In: Journal of Computational Science 2 (2011), Nr. 2, S. 130–137
    [doi>10.1016/j.jocs.2011.01.010]
  5. Eitzinger, Jan ; Hager, Georg:
    Introducing a Performance Model for Bandwidth-Limited Loop Kernels.
    In: Wyrzykowski, Roman ; Dongarra, Jack ; Karczewski, Konrad ; Wasniewski, Jerzy (Hrsg.) : Parallel Processing and Applied Mathematics
    (8th International Conference, PPAM 2009 , Revised Selected Papers, Part I, Wroclaw, Poland, September 13-16, 2009). Bd. 6067.
    Berlin Heidelberg : Springer-Verlag, 2010, S. 615-624. (Lecture Notes in Computer Science)
    [doi>10.1007/978-3-642-14390-8_64]
  6. Hager, Georg ; Wellein, Gerhard:
    Introduction to High Performance Computing for Scientists and Engineers.
    Chapman & Hall/ : CRC Press, 2010.
    - 356 Seiten. ISBN 978-1-4398-1192-4
  7. Hammer, Julian ; Hager, Georg ; Eitzinger, Jan ; Wellein, Gerhard:
    Automatic Loop Kernel Analysis and Performance Modeling With Kerncraft.
    In: - (Hrsg.) : Proceedings of the 6th International Workshop on Performance Modeling, Benchmarking, and Simulation of High Performance Computing Systems
    (SC15 The International Conference for High Performance Computing, Networking, Storage and Analysis, Austin, TX, USA, November 15-20, 2015).
    New York, NY, USA : ACM, 2015, S. 1-11. (Lecture Notes in Computer Science) - ISBN 978-1-4503-4009-0
    [doi>10.1145/2832087.2832092]
  8. Malas, T. ; Hager, Georg ; Ltaief, H. ; Stengel, Holger ; Wellein, Gerhard ; Keyes, D.:
    Multicore-optimized wavefront diamond blocking for optimizing stencil updates.
    In: SIAM Journal on Scientific Computing 37 (2015), Nr. 4, S. C439-C464
    Stichwörter: Software and High-Performance Computing
    [doi>10.1137/140991133]

Verbundprojekt SKALB -- Lattice-Boltzmann-Methoden für skalierbare Multi-Physik-Anwendungen

Projektleitung:Prof. Dr. Gerhard Wellein
Beteiligte:Dr. Georg Hager, Dr. Thomas Zeiser, Johannes Habich, M. Sc., Dr. Markus Wittmann
Förderer:
Bundesministerium für Bildung und Forschung
Mitwirkende
Institutionen:
Lehrstuhl für Systemsimulation Erlangen-Nürnberg
Institut für rechnergestützte Modellierung im Bauingenieurwesen TU Braunschweig
Höchleistungsrechen- Zentrum Stuttgart
Technische Universität Dortmund
IANUS-Simulation
Stichwörter:Lattice-Boltzmann; CFD; HPC
Laufzeit:1.1.2009 - 31.12.2011
Inhalt und Ziele:Ziel des vom BMBF geförderten Projekts SKALB (Lattice-Boltzmann-Methoden für skalierbare Multi-Physik-Anwendungen) ist die effiziente Implementierung und Weiterentwicklung von Lattice-Boltzmann basierten Strömungslösern zur Simulation komplexer Multi-Physik-Anwendungen auf Rechnern der Petascale-Klasse. Die Lattice-Boltzmann Methode ist ein akzeptiertes Lösungsverfahren im Bereich der numerischen Strömungsmechanik. Als zentraler Vorteil der Methode ist die prinzipielle Einfachheit des numerischen Verfahrens zu nennen, so dass sich sowohl komplexe Strömungsgeometrien wie poröse Medien oder Metallschäume als auch direkte numerische Simulationen (DNS) zur Untersuchung turbulenter Strömungen effizient berechnen lassen. Im Projekt SKALB sollen Lattice-Boltzmann-Applikationen für die neue Klassen massivst paralleler heterogener und homogener Supercomputer methodisch und technisch weiterentwickelt werden. Das RRZE bringt seine langjährige Erfahrung auf dem Gebiet der Performancemodellierung und effizienten Implementierung von Lattice-Boltzmann-Methoden auf einem breiten Spektrum moderner Rechner ein und beschäftigt sich darüberhinaus mit neuen Programmieransätzen für Multi-/Manycore Prozessoren. Der am RRZE weiterentwickelte Applikationscode soll gemeinsam mit der AG Prof. Schwieger zur massiv parallelen Simulation von Strömungen in porösen Medien eingesetzt werden.
Kontakt:Wellein, Gerhard
Telefon 09131 85 28136, Fax 09131 302941, E-Mail: Gerhard.Wellein@rrze.uni-erlangen.de
Publikationen:
  1. Wellein, Gerhard ; Hager, Georg ; Zeiser, Thomas ; Wittmann, Markus ; Fehske, Holger:
    Efficient temporal blocking for stencil computations by multicore-aware wavefront parallelization.
    In: - (Hrsg.) : Proceedings of 2009 33rd Annual IEEE International Computer Software and Applications Conference
    (COMPSAC 2009, Seattle, USA, Juli 20 -24, 2009).
    IEEE Computer Society : IPSJ/IEEE SAINT Conference, DOI 10.1109/COMPSAC.2009.82, 2009, S. 579-586.
  2. Habich, Johannes ; Zeiser, Thomas ; Hager, Georg ; Wellein, Gerhard:
    Enabling temporal blocking for a lattice Boltzmann flow solver through multicore aware wavefront parallelization.
    Vortrag: ParCFD 2009 Conference, NASA AMES,
    Moffet Field (CA, USA), 19.Mai.2009
  3. Zeiser, Thomas ; Hager, Georg ; Wellein, Gerhard:
    The world's fastest CPU and SMP node: Some performance results from the NEC SX-9.
    In: - (Hrsg.) : Proceedings of the IEEE International Symposium on Parallel&Distributed Processing 2009
    (23rd IEEE International Parallel and Distributed Processing Symposium (IPDPS), Roma, 25-29 Mai).
    IEEE Computer Society : ipdps, 2009, S. 1-8. - ISBN 978-1-4244-3751-1
    [doi>10.1109/IPDPS.2009.5161089]
  4. Habich, Johannes ; Zeiser, Thomas ; Hager, Georg ; Wellein, Gerhard:
    Performance analysis and optimization strategies for a D3Q19 lattice Boltzmann kernel on nVIDIA GPUs using CUDA.
    In: - (Hrsg.) : Advances in Engineering Software
    (PARENG 2009). Bd. 42, 5. Aufl.
    ScienceDirect : Elsevier, 2011, S. 266-272.
    Stichwörter: CFD; GPU; Lattice Boltzmann; HPC; STREAM benchmarks; CUDA
    [doi>10.1016/j.advengsoft.2010.10.007]
  5. Eitzinger, Jan ; Wellein, Gerhard ; Hager, Georg:
    Efficient multicore-aware parallelization strategies for iterative stencil computations.
    In: Journal of Computational Science 2 (2011), Nr. 2, S. 130–137
    [doi>10.1016/j.jocs.2011.01.010]
  6. Feichtinger, Christian ; Habich, Johannes ; Köstler, Harald ; Hager, Georg ; Rüde, Ulrich ; Wellein, Gerhard:
    A flexible Patch-based lattice Boltzmann parallelization approach for heterogeneous GPU-CPU clusters.
    In: Parallel Computing 37 (2011), Nr. 9, S. 536-549