Wie Supercomputer unser tägliches Leben beeinflussen

 

 

 

Supercomputers200x160

Wie Supercomputer unser tägliches Leben beeinflussen

Von hoch über den Wolken bis tief unter der Erde

von Jean-Pierre Panziera, Chief Technology Director für HPC, Bull

 

 

Mein Kollege Xavier Vigouroux hat vor kurzem die Geschichte der Supercomputer und insbesondere ihren Fortschritt auf dem Weg zur Leistungsgleichheit mit dem menschlichen Gehirn beschrieben. Es mag weit hergeholt klingen, aber Supercomputer verändern bereits jetzt den Alltag eines jeden.

 

Diese unglaublichen Rechner spielen bei allem eine entscheidende Rolle, von der Wettervorhersage bis hin zum Design von verkehrssichereren Autos und kostengünstiger zu betreibenden Flugzeugen. An was für spannenden Themen arbeiten die Forscher und Ingenieure heute?

 

Alterungsprozesse und ihr Zusammenwirken mit Krankheiten verstehen

Genbehandlung und personalisierte Medizin sind heute als wichtige Instrumente anerkannt. Aber der dramatische Anstieg an biomedizinischer Information bedarf einer gewaltigen Zunahme an Verarbeitungskapazität, um diese Daten zu analysieren. Der Datenumfang beim Europäischen Bioinformatik-Institut hat sich zum Beispiel in den zwei Jahren bis 2011 fast verdoppelt. Heute erhält das Institut über 4,6 Millionen Datenanfragen pro Tag.

 

Um das Verhältnis zwischen den Grundbausteinen des menschlichen Organismus oder den Krankheitsbeginn von Leiden wie Alzheimer besser zu verstehen, simulieren Forscher die am Prozess beteiligten Moleküle. Die digitale Simulation ist zu einem unerlässlichen Instrument geworden und beinhaltet das Abscannen von mehreren tausend Molekülen, um das Zusammenspiel zwischen ihnen vorauszusagen und ihr Kollektivverhalten genau einzuschätzen.

 

Exploration und Bohrung nach neuen Energiequellen

Das Hauptanwendungsgebiet von hochleistungsfähigen Computern (HPC) in der Öl- und Gasindustrie ist die seismische Abbildung. Bei dieser Technik werden Schallwellen ausgesendet und von Felsstrukturen unter der Oberfläche reflektiert, um die mögliche Anwesenheit neuer Energieressourcen zu offenbaren. Allerdings befinden sich Öl- und Gasfelder in immer größerer Tiefe unter der Oberfläche, so dass deren Exploration immer kostspieliger wird. Eine Explorationsbohrung in extremen Bedingungen vor der Küste kann viele Millionen Euro kosten. Mit seismischen Abbildungen verbessert man die Chance, eine erfolgreiche Bohrung vorzunehmen, aber um die akustischen Signale auszuwerten benötigt man enorme Verarbeitungskapazitäten.

 

Das sind nur einige Beispiele von den Möglichkeiten, die Supercomputer eröffnen. Aber um die nächsten Herausforderungen in Wissenschaft, Industrie und Gesellschaft zu bewältigen, werden wir Rechner entwickeln müssen, die mehr Vorgänge pro Sekunde als je zuvor abarbeiten können.

 

Führend im extremen Computer-Wettlauf

Mit unserem Exascale-Programm stellen wir uns diesen technischen Herausforderungen. Wir entwickeln die nächste Generation von Supercomputern in Europa, damit wir mit der Verarbeitung von enormen Dateien in bislang ungekanntem Ausmaß beginnen können. Sie bestehen aus einer Reihe von Servern mit ultra-hoher Speicherkapazität, damit unsere Exascale-Supercomputer eine Trillion (d.h. 1018 Abläufe pro Sekunde abarbeiten können. Damit werden sie tausendmal leistungsfähiger sein als gegenwärtige Systeme!

 

Um das Ausrollen unseres Exascale-Programms zu unterstützen, sind wir eine Partnerschaft mit europäischen Labors wie dem französischen „Kommissariat für Atomenergie und alternative Energien“ (CEA) eingegangen. Das CEA hat ein Forschungs- und Entwicklungsprogramm eingerichtet, um die Schlüsseltechnologien zur Entwicklung und zum Bau wettbewerbsfähiger Supercomputer bis zum Jahre 2020 zu identifizieren. In diesem Rahmen haben wir gemeinsam die ersten Petaflop-Supercomputer entwickelt, die 2010 in Europa konzipiert und hergestellt wurden.

 

Bis 2020 werden Supercomputer weiterhin eine wichtige Rolle bei der Bewältigung der industriellen, wissenschaftlichen und gesellschaftlichen Herausforderungen spielen, von der Nanowissenschaft und Genomforschung bis hin zur Klimaforschung, in der Luft- und Raumfahrt sowie im Energiesektor. Wir beobachten neue Ansätze, die uns dabei helfen, größere Rechnerkapazitäten zu schaffen, von Parallelrechnern zu Software. Mit unserem Exascale-Programm wollen wir einen aktiven Beitrag zur Entwicklung der neuen Technologien leisten.

 

Jean-Pierre Panziera

Jean-Pierre Panziera ist Leitender Technischer Direktor für HPC bei Bull, wo er für zukünftige HPC-Entwicklungen zuständig ist. Er begann seine Karriere bei Elf-Aquitaine als Entwickler für seismische Datenverarbeitung und arbeitete dann 20 Jahre lang bei SGI, zuerst als HPC-Anwendungsspezialist und später als leitender Ingenieur. Jean-Pierre Panziera hat einen Hochschulabschluss in Ingenieurwissenschaften von der Ecole Nationale Supérieure des Mines de Paris.

Nehmen Sie mit uns Kontakt auf.

Atos Austria
trans-1-px
Unser Internetauftritt nutzt cookies. Wenn Sie weiterhin auf dieser Website surfen sind Sie damit einverstanden, dass wir Cookies nutzen, um die Nutzung unserer
Internetseiten zu messen und Verbesserungsmöglichkeiten zu erkennen. Wenn Sie nicht einverstanden sind, können Sie die Cookies in Ihrem Webbrowser abschalten.
Erklärungen dazu finden Sie in unserer Privacy Policy
Ich stimme zu Mehr Informationen