Was ist PostgreSQL?
Das Datenbankmanagementsystem, auf dem die Anwendungen der Zukunft aufbauen. Wir zeigen, warum PostgreSQL aktuell so gefragt ist.
GPUs haben längst ihre Grafiknische verlassen und beschleunigen heute leistungshungrige Anwendungen im Datacenter.
Daten sind das neue Öl und die Verarbeitung und Auswertung großer Datenmengen in Echtzeit kann heute zum entscheidenden Marktvorteil für Unternehmen werden. Doch nicht nur im Bereich Big Data steigen die Anforderungen im Hinblick auf die Rechenleistung. Viele andere Workloads wie KI, Machine Learning oder Visualisierung profitieren von der Möglichkeit, High-Performance Computing zu nutzen. Mit Datacenter GPUs halten daher leistungsstarke Grafikprozessoren Einzug in Unternehmens- und Cloud-Rechenzentren. Sie liefern die nötige Rechenleistung für anspruchsvolle Berechnungen.
Aktuelle Softwareanwendungen haben in der Regel datenintensive Bereiche mit einem hohen Maß an inhärenter Parallelität. Oder einfach ausgedrückt: An bestimmten Stellen sind sehr viele Rechenschritte gleichzeitig notwendig. GPUs unterstützen diese parallelen Regionen, indem die Berechnung über Hunderte bis Tausende von Kernen verteilt wird. Dies kann bei vielen Anwendungen zu einer erheblichen Beschleunigung führen.
Beim GPU Computing handelt es sich um eine Art heterogenes Computing, also paralleles Rechnen mit Mehrprozessor-Architekturen. Mehrkern-GPUs werden mit Mehrkern-CPUs kombiniert, um eine höhere Leistung zu erzielen. Heutige CPUs haben bis zu 18 Kerne, während GPUs heute meist Tausende Kerne auf einem einzigen Chip vereinen.
CPU- und GPU-Kerne im Vergleich. Quelle: NVIDIA
Der springende Punkt dabei ist, dass in einer hybriden Architektur, in der GPUs und CPUs zusammenarbeiten, die Entwickler nur die leistungskritischen Funktionen auf den GPUs im System beschleunigen müssen. Der Rest kann so wie er ist auf der CPU laufen. Es ist nicht erforderlich, eine gesamte Anwendung auf den Grafikprozessor zu portieren.
Das Ganze sieht dann so aus:
Wie gut Anwendungen in der realen Welt auf den Grafikprozessoren laufen, veranschaulicht das folgende Diagramm. Es vergleicht je ein GPU- und CPU-Modell bei (wissenschaftlichen) Arbeitslasten, für die High-Performance Computing relevant ist. Die Geschwindigkeitssteigerung liegt hier zwischen dem 8- bis 18-fachen. Zwar ist diese Messung bereits etwas älter, aber dennoch gelten auch heute noch vergleichbare Werte.
Aber was besagt diese Geschwindigkeit wirklich? Wenn die Ausführung eines Jobs auf einer CPU bisher zwei Monate gedauert hätte, bedeutet eine 10-fache Beschleunigung, dass der Job innerhalb einer Woche abgeschlossen werden kann. Der Nutzer erhält die Ergebnisse früher, überprüft die Korrektheit und kann zum nächsten Prozessschritt übergehen. Daher kann eine zehnfache Geschwindigkeit im Gesamtprojekt eine Menge Zeit sparen.
Für denselben Output im High-Performance Computing benötigen CPUs nicht nur länger, sondern verbrauchen auch ein Vielfaches an Energie. Beispielsweise erfordert der Betrieb einer 2,3-PFlops-Maschine, die mit einer CPU ausgestattet ist, bis zu 7 Megawatt. Geht man davon aus, dass 1 Megawatt 1000 Haushalte ein Jahr lang mit Strom versorgen kann, entspricht dies dem Stromverbrauch von 7000 Haushalten für ein Jahr. Vor diesem Hintergrund wird schnell klar, dass die CPU-Technologie mit der rasant steigenden Nachfrage nach Rechenleistung einfach nicht mithalten kann. Sie ist zu teuer und energiehungrig.
CPUs sind außerdem für sequenzielle Verarbeitung optimiert, aber nicht sehr effizient für parallele Berechnungen. GPUs hingegen sind für parallele Berechnungen maßgeschneidert. Die Kombination eines Grafikprozessors mit einer CPU ist eine gewinnbringende Kombination, bei der jeder das tut, was er am besten kann. Das Ergebnis ist eine zehn Mal höhere Leistung pro Sockel und eine fünf Mal höhere Energieeffizienz.
GPUs zeigen ihre Stärke beim Massive Parallel Computing sowie bei großen Datensätzen (Big Data).
Dieser Effekt macht sich nicht nur bemerkbar, wenn Einrichtungen oder Firmen ihre eigenen Systeme mit GPUs ausstatten. Aus Kostengründen und um Ressourcen effizienter zu nutzen, wechseln ohnehin mehr und mehr Unternehmen mit ihren geschäftskritischen Anwendungen in die Cloud. Hier profitieren sie in derselben Weise von Einsparungen, wenn sie für bestimmte Anwendungen auf GPU-gestützte Cloud-Ressourcen setzen. Im Vergleich zum Betrieb mehrerer VMs, die ausschließlich mit CPUs ausgestattet sind, rechnet sich der Einsatz von GPUs für Massive-Parallel-Computing-Anforderungen.
Erfahren Sie im zweiten Teil des Artikels mehr über Cloud GPUs.
Titelbild von Gerd Altmann auf Pixabay
DAS KÖNNTE SIE AUCH INTERESSIEREN:
Das Datenbankmanagementsystem, auf dem die Anwendungen der Zukunft aufbauen. Wir zeigen, warum PostgreSQL aktuell so gefragt ist.
Datenbank-Alternativen wie PostgreSQL werden jetzt noch interessanter: Oracles Support für die verbreitete Database-Version 18c endet.
IoT-Anwendungen wie Predictive Maintenance nutzen Machine Learning für die Analyse von historischen Daten und Echtzeit-Informationen. Basis dafür sind meist Data Lakes.
Bitte wählen Sie einen der unten stehenden Links, um zum gewünschten Portal zu gelangen.
Bei Fragen oder technischen Problemen wenden Sie sich bitte an Ihre gewohnten Ansprechpartner.
Für die Darstellung dieser Inhalte von YouTube benötigen wir Ihre Einwilligung. Wenn Sie die Inhalte aktivieren, werden Ihre Daten verarbeitet und es werden Cookies auf Ihrem Endgerät gespeichert sowie von diesem gelesen.
Weitere Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung für 30 Tage ( in einem Cookie) speichern