Was hat dein Computer mit Klimasimulationen, Virologie und Gravitationswellen zu tun?

Die Welt wird immer schlauer. Wir können nicht nur das Wetter von morgen voraussagen, sondern auch berechnen, wie sich unter welcher Annahme der Treibhausgasemissionen das Erdklima in den nächsten Jahrzehnten und Jahrhunderten entwickeln wird. Verändert man nur einen Wert in einem gigantischen Datensatz, wird das Ergebnis ein völlig anderes sein. Simulationen werden häufig eingesetzt, wo reale Experimente zu aufwändig, zu gefährlich oder ethisch nicht vertretbar wären. Neben dem prominenten Beispiel des Weltklimas, bei dem wir uns gerade schon in einem aus dem Ruder laufenden Realexperiment befinden, sind hier Medikamententests zu nennen. Überall, wo man nicht auf Anhieb eine explizite Lösung findet, kommen iterative Verfahren zum Einsatz, oder vereinfacht gesagt: Systematisches Ausprobieren. Dazu gibt es Computer. Hatte der erste Computer noch die Größe eines Kleiderschranks und die Rechenleistung eines Taschenrechners, so kann der größte Supercomputer der Welt mittlerweile 122 300 000 000 000 000 (122,3·1015) Rechenoperationen („Floating point operations“) pro Sekunde ausführen. Alle diese Computer haben jedoch zwei Nachteile: Sie für ein Forschungsprojekt anzumieten ist sehr teuer, außerdem benötigen sie eine große Menge an elektrischer Energie, ein großer Teil davon für die Kühlung. Nicht nur für die Forschung wird diese Rechenleistung benötigt: Auch die Datenströme für Social Media und Streamingdienste laufen über Rechner. Und die Suche im Internet macht letztlich auch nichts anderes als ausprobieren, welche Seiten im World wide Web mit dem Suchbegriff übereinstimmen. Aber auch etwas banales wie eine E-mail verursacht einen Datenstrom, benötigt Energie und verursacht damit etwa 4 g CO₂-Äquivalente. Das wird natürlich größer, wenn ein Anhang dabei ist. Die größten Datenströme verursachen gestreamte Videos. Dabei braucht dein Rechner zuhause während du eine E-mail schreibst, Musik hörst oder die BUNDjugend-Website besuchst, nur ein Bruchteil seines Prozessors. Eigentlich kein Problem. Wenn man sich aber überlegt, wie viele Rechner das betrifft und dass die Herstellung der Hardware einiges an Energie kostet, versteht man leicht, dass viele private Rechner zuhause einen Supercomputer ergeben. Auf diese Weise könnte man auch Forschungsprojekten ohne große Fördermittel den Zugang zu Rechenleistung ermöglichen. Und dadurch, dass in Wohnräumen die Wärme meist durchaus willkommen ist, wird weniger Energie für die Kühlung benötigt.

Die Universität Berkeley in Kalifornien hat zum Beispiel eine Plattform entwickelt, die man sich als Programm herunterladen kann. Als Nutzer*in hat man die volle Kontrolle, wie wiel Rechenleistung zur Verfügung gestellt wird. So ist es zum Beispiel auf einem Laptop nicht sinnvoll, im Akkubetrieb zu rechnen. All dies wird berücksichtigt. Einplatinencomputer wie der Raspberry Pi haben eine besonders effiziente Hardware-Struktur (Für die Klugscheißer*innen unter euch: „ARM-Architektur“), brauchen aufgrund ihrer kleinen Rechenleistung allerdings recht lange für die Aufgaben. Was mich besonders fasziniert ist, dass man auch die Rechenleistung einer Spielkonsole nutzen kann. Mein Computer forscht während ich dieses schreibe übrigens gerade an einem Heilmittel gegen COVID-19 und zukünftige Pandemien.

Mehr zu BOINC im Speziellen: https://boinc.berkeley.edu
Mehr zu Distributed Computing im Allgemeinen: https://www.rechenkraft.net/
BOINC auf der Playstation: https://www.rechenkraft.net/wiki/Kategorie:PS3

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert