Rechenzentren stehen immer wieder wegen ihres hohen Stromverbrauchs und einer schlechten Energiebilanz in der Kritik. Betreiber müssen Wege finden, das anhaltende Datenwachstum in Einklang mit Nachhaltigkeitszielen zu bringen. Das kann nur gelingen, wenn sie an ihrer Effizienz arbeiten. Jeff Wittich, Chief Product Officer von Ampere, zeigt, welche Rolle dabei innovative Prozessorarchitekturen spielen.
Server gelten Studien zufolge als die größten Stromverbraucher innerhalb der IT-Welt. Für Unternehmen, die „Green-IT“ anstreben, also den Betrieb ihrer digitalen Infrastrukturen effizienter und somit umweltfreundlicher gestalten wollen, sollten Server daher ein erster Ansatzpunkt sein. Neben Nachhaltigkeit sprechen auch die hohen Energiekosten für Effizienzsteigerungen in Rechenzentren.
Dazu kommen noch Druck und Einschränkungen seitens der Öffentlichkeit und der Gesetzgeber. Das Forschungszentrum für Energieeffizienz der Europäischen Union hat einen Rahmen zur Bewertung der Energieeffizienz von Rechenzentren veröffentlicht. Der Bewertungsrahmen für Rechenzentren soll dabei helfen festzustellen, ob Rechenzentren die Anforderungen der Europäischen Taxonomie für nachhaltige Aktivitäten erfüllen. Die Region Amsterdam, bekannt als europäischer Digital-Hub, erließ beispielsweise bereits 2019 ein Moratorium, das den Bau neuer Rechenzentren vorläufig verbot. Als Gründe dafür wurden der große Platzbedarf und die Belastung des regionalen Stromnetzes genannt. Auch Frankfurt am Main, Deutschlands-Rechenzentrumsmetropole, verfolgt aktuell eine rigide Politik, was den Bau neuer Rechenzentren angeht. Die strengen Vorgaben der Stadt könnten Neubauten deutlich erschweren. Woher soll also die Rechenleistung kommen, die für die weitere Digitalisierung zwingend benötigt wird?
Mehr Rechenpower bei geringerem Stromverbrauch – Quadratur des Kreises?
Die Betreiber von Rechenzentren befinden sich aktuell in einer Zwickmühle. Sie müssen einerseits nachhaltiger werden, ESG-Ziele und behördliche Vorgaben erfüllen und ihre Stromkosten im Rahmen halten. Expansion in die Fläche wird für sie durch neue Bauvorschriften auch schwieriger. Dennoch wird von ihnen erwartet, Kapazitäten für schnell wachsende Cloud-Dienste und neue rechenintensive Technologien wie künstliche Intelligenz, Machine Learning, Virtual Reality oder Augmented Reality bereitzustellen.
Um innerhalb von bestehenden Strukturen skalieren zu können, müssen Unternehmen Wege finden, mehr Rechenleistung in ihren vorhandenen Racks unterzubringen. Auf ARM-Architekturen basierende Prozessoren, die bisher vor allem aus dem Embedded-Bereich bekannt sind, bieten hier gegenüber den traditionell eingesetzten x86-Architekruren klare Vorteile, was den Platzbedarf und die Energieeffizienz angeht.
Ein limitierender Faktor ist die Energie, die pro Rack zur Verfügung steht. Dieser Wert bewegt sich in der Regel zwischen sechs und 14 Kilowatt. In modernsten Hyperscale-Umgebungen sind teilweise auch Installationen mit 22 kW anzutreffen. Traditionelle x86-Architekturen erreichen in der Regel diese Limitierung, bevor der Platz im Rack vollständig ausgenutzt ist. Mit modernen, speziell für Cloud-Rechenzentren designten Prozessoren verhält sich das anders. Dank ihrer innovativen Technologie verbrauchen sie etwa 2,8-mal weniger Energie als vergleichbare x86 Designs. So können Racks bis zu ihrer Kapazitätsgrenze mit Prozessoren bestückt werden. Gleichzeitig steht noch genügend Energie für Top-of-Rack oder Bottom-of-Rack Equipment zur Verfügung.
Cloud native Single Thread CPUs
Prozessoren als größte Energieverbraucher im Rechenzentrum bilden einen der wichtigsten Ansatzpunkte für Energieeinsparungen. Dabei geht es einerseits um die Energie, die sie selbst direkt für die Rechenleistung benötigen, andererseits bedeutet eine höhere Leistungsaufnahme auch mehr Abwärme. Je mehr elektrische Energie die Prozessoren verbrauchen, desto mehr Energie muss ein Rechenzentrum also auch zur Kühlung aufwenden.
Auf ARM-Architekturen basierende Single-Thread-Prozessoren haben in der Regel einen geringeren Stromverbrauch, da sie weniger komplexe Schaltkreise haben und nicht so viele Ressourcen für das parallele Arbeiten benötigen wie Multi-Thread-Prozessoren. Dadurch sind sie für energieeffiziente Anwendungen geeignet. Da Single-Thread-Prozessoren weniger Leistung erzeugen, erzeugen sie auch weniger Wärme. Sie adressieren also gleichzeitig auch das Problem der Kühlung.
Im Idealfall laufen diese Prozessoren mit gleichbleibend hohen Frequenzen und sind mit großen privaten Caches mit geringer Latenz ausgestattet. Somit verfügen sie über eine hohe, prognostizierbare Leistung, die sich für allgemeine Rechenzentrumsanwendungen linear und elastisch skalieren lässt. Am wichtigsten ist jedoch, dass sie mehr Performance bei weniger Energieverbrauch liefern – deutlich weniger als x86-Prozessoren.
Ein weiterer Vorteil: ARM-Prozessoren verfügen über eine geringere Baugröße als Pendants anderer Architekturen. Somit können pro Rack mehr Rechenkerne untergebracht werden und die Rechenleistung gesteigert werden. Aufgrund des geringeren Energiebedarfs der einzelnen Prozessoren wirkt sich dies nicht auf den Gesamtenergieverbrauch aus. Die Cloud-Native-Prozessoren von Ampere liefern bis zu 2,5-mal mehr Leistung pro Rack bei gleichbleibendem Energiebedarf. Bei der Entwicklung wurde außerdem darauf geachtet, dass die Prozessoren ihre Leistung nicht nur zu Spitzenzeiten bieten können, sondern konsistente Leistung bei dauerhaft hoher Auslastung gewährleistet ist. Das ist in Cloud-native-Umgebungen besonders wichtig.
Fazit
Ältere x86-Prozessoren sind an veraltete, vom Client vorgegebene Designs gebunden, die zwar eine höhere Leistung bieten, aber gleichzeitig einen hohen Energiebedarf haben, was dazu führt, dass Racks nicht vollständig belegt werden können. Ungenutzter Rack-Platz und mangelhafte Leistung für Cloud Native Services führen zu nicht nachhaltigen Rechenzentren, höherem Energieverbrauch und einem großen CO2-Fußabdruck. Cloud Native Prozessoren sind dagegen für effiziente Scale-Out-Workloads konzipiert. Durch den Einsatz dieser neuen Klasse von Prozessoren können Betreiber von Rechenzentren den Stromverbrauch und die Betriebskosten ihrer Workloads senken und gleichzeitig Platz einsparen.
Autor Jeff Wittich, Chief Product Officer