Lastspitzen in Cloud-Anwendungen: Zeitreihenmodelle im Vergleich

Wie lassen sich Lastspitzen in Cloud-Anwendungen zuverlässig vorhersagen? Ich habe klassische Zeitreihenmodelle mit Deep-Learning-Ansätzen verglichen – mit spannenden Erkenntnissen für die automatische Skalierung.

Was passiert, wenn dein Cloud-System plötzlich überlastet ist?

Diese Frage war der Ausgangspunkt meiner Bachelorarbeit. Denn wenn Systeme aus dem Takt geraten, kann das teuer werden – oder im schlimmsten Fall Kund:innen abschrecken. Ziel war es, Modelle zu finden, die Lastspitzen zuverlässig vorhersagen und damit eine automatische Skalierung ermöglichen. Dafür habe ich reale Produktionsdaten analysiert und klassische sowie moderne Zeitreihenmodelle miteinander verglichen.

Woraus bestehen Cloud-Lastdaten – und was verraten sie?

Die Analyse basierte auf einem Datensatz, der mit Prometheus aus einem produktiven System exportiert wurde. Er umfasste Systemmetriken des gesamten Jahres 2024 im Stundenintervall – das sind 8.760 Datenpunkte. Eine solide Basis, um Muster im Zeitverlauf zu erkennen.

Schon bei der ersten Analyse zeigte sich: Zur Mittagszeit und am Abend stieg die Systemlast regelmäßig. Ein klares Zeichen für wiederkehrende Nutzungsmuster – ideal für Zeitreihenprognosen.

So wird aus Rohdaten ein Prognose-Label

Damit die Modelle gut trainiert werden konnten, mussten die Metriken zunächst normalisiert werden. Ich habe dazu eine Min-Max-Skalierung verwendet, die alle Werte in den Bereich von 0 bis 1 bringt. Danach wurden die Werte pro Zeitstempel aufsummiert – das Ergebnis war ein neues Label: die aggregierte Systemlast. Sie diente den Modellen als Zielwert.

SARIMA vs. LSTM: Wer kann’s besser?

Im Fokus der Untersuchung standen zwei Hauptgruppen von Modellen: klassische Zeitreihenmodelle (SARIMA) und moderne Deep-Learning-Modelle (LSTM). Ergänzend wurde ein Ensemble-Ansatz mit Gradient Boosting getestet.

1. SARIMA-Modelle

Zunächst wurden SARIMA-Modelle trainiert, da sie sich besonders gut für Zeitreihen mit saisonalen Mustern eignen. Zwei Varianten wurden getestet:

SARIMA Jahresmodell: Training auf 80 % der Daten des gesamten Jahres.

SARIMA Monatsmodell: Jeweils ein SARIMA-Modell pro Monat, ebenfalls mit einem 80/20-Split.

Die SARIMA-Modelle lieferten solide, aber keine überzeugenden Ergebnisse. Während die monatlichen Modelle deutliche Verbesserungen gegenüber dem Jahresmodell zeigten, blieben die Prognosegüten insgesamt limitiert.

2. LSTM-Modelle

Im nächsten Schritt kamen Long Short-Term Memory-Netzwerke (LSTM) zum Einsatz, welche eine spezielle Art rekurrenter neuronaler Netze sind, die besonders gut mit sequentiellen Daten umgehen können.

Auch hier wurden zwei Ansätze verfolgt:

LSTM Jahresmodell: Training auf dem gesamten Jahr. 

LSTM Monatsmodell: Ein Modell pro Monat, analog zum SARIMA-Vorgehen.

Die LSTM-Modelle übertrafen die SARIMA-Modelle in sämtlichen Metriken deutlich. Interessant war, dass die monatlich trainierten LSTM-Modelle kaum bis gar nicht besser abschnitten haben als das Jahresmodell – bei deutlich höherer Komplexität und Rechenaufwand. Der Zugewinn an Genauigkeit rechtfertigte hier also nicht den Mehraufwand.

So haben die Modelle abgeschnitten

Die folgende Tabelle zeigt die zentralen Evaluationsmetriken für alle getesteten Modellvarianten:

ModellMAEMSERMSEMAPE (%)SARIMA (Jahresmodell)1,24332,62351,619719,58SARIMA (Monatsmodell)0,50710,50660,711712,64LSTM (Jahresmodell)0,30140,17450,41785,52LSTM (Monatsmodell)0,32880,18690,43235,93

Spannende Erkenntnisse aus den Daten

Die Analyse zeigte, dass das LSTM-Modell auf Jahresbasis die besten Ergebnisse lieferte. Es übertraf die SARIMA-Modelle deutlich in Genauigkeit und Zuverlässigkeit, besonders bei komplexen, nichtlinearen Mustern. Die monatlich trainierten Modelle, sowohl bei SARIMA als auch LSTM, brachten nur geringe Verbesserungen, waren aber deutlich aufwändiger in der Umsetzung. Der Mehraufwand lohnt sich daher in der Praxis nicht.

Zudem konnten interessante Nutzungsmuster erkannt werden: Über das Jahr 2024 hinweg stieg die aggregierte Systemlast kontinuierlich an. Dies könnte an einer zunehmenden Nutzung des Systems liegen. Besonders auffällig war der Lastanstieg an Feiertagen, vor allem rund um Weihnachten und Silvester. Solche Erkenntnisse sind hilfreich für die zukünftige Kapazitätsplanung und automatische Skalierung in produktiven Cloud-Umgebungen.

Fazit und Ausblick: So profitierst du von LSTM-Modellen

Die Ergebnisse meiner Bachelorarbeit zeigen klar: Für die Prognose von Lastspitzen in containerisierten Cloud-Systemen sind moderne Deep-Learning-Modelle wie LSTM klassischen statistischen Modellen deutlich überlegen. Besonders bei langjährigen, komplexen Daten mit saisonalen Mustern punkten neuronale Netze durch ihre Fähigkeit, nichtlineare Zusammenhänge besser zu erfassen.

Zukünftig ließe sich ein LSTM-Modell beispielsweise mithilfe von KEDA in ein produktives System integrieren, um eine automatische Skalierung auf Basis der prognostizierten Systemlast zu realisieren. Darüber hinaus wäre es denkbar, LSTM-Modelle mit Klassifikationsverfahren zu kombinieren, um konkrete Zustände wie Überlast oder Unterlast gezielt zu erkennen und entsprechend darauf zu reagieren.

Der Beitrag Lastspitzen in Cloud-Anwendungen: Zeitreihenmodelle im Vergleich erschien zuerst auf Business -Software- und IT-Blog – Wir gestalten digitale Wertschöpfung.