layout: ../../../layouts/BlogLayout.astro title: “Die versteckten Kosten von Cloud Storage, vor denen keiner warnt” description: “Cloud Storage sieht anfangs günstig aus. Dann kommen die Egress-Gebühren. Eine Aufschlüsselung der echten Kosten hinter S3, Azure Blob und Google Cloud Storage, und wann sich Repatriation lohnt.” date: “2026-04-16” category: “Industry News” readingTime: “9 min” slug: “hidden-costs-cloud-storage” tags: [“cloud-storage”, “cloud-repatriation”, “s3”, “cost-optimization”, “nas-migration”, “storage-costs”] locale: “de”

TL;DR

Cloud-Storage-Pricing ist so designed, dass Ingress kostenlos und Egress teuer ist. Sobald deine Daten drin sind, kostet es echtes Geld, sie wieder rauszuholen. Für Datasets über 100 TB mit häufigem Zugriff ist On-Premises-NAS oft 3-5x günstiger über drei Jahre. syncopio übernimmt die Migration zurück: S3 zu NFS oder SMB, mit Checksum-Verifizierung und ohne Vendor Lock-in.

“Ab in die Cloud” klang einfach. Daten hochladen, pro Gigabyte zahlen, unendlich skalieren. Das Pitch war überzeugend, und für viele Workloads macht Cloud Storage tatsächlich Sinn.

Aber für große unstrukturierte Datasets (File Shares, Medienarchive, Forschungsdaten, Backups) erzählen die Zahlen eine andere Geschichte, sobald man über den GB-Preis hinausschaut.

Das Pricing-Modell, das keiner genau liest

Cloud-Storage-Pricing hat drei Komponenten, und die meisten Teams budgetieren nur die erste:

KomponenteWas man erwartetWas man bekommt
Storage$0.023/GB/Monat (S3 Standard)Vorhersehbar, skaliert linear
API RequestsVernachlässigbar$0.005 pro 1.000 PUT, $0.0004 pro 1.000 GET
EgressInklusive?$0.09/GB (AWS), $0.08/GB (Azure), $0.12/GB (Google)

Diese Egress-Zeile ist der teure Teil. Daten hochladen ist kostenlos. Daten runterladen kostet $90 pro Terabyte auf AWS. Auf die eigenen Daten zugreifen kostet jedes Mal Geld.

Ein echtes Beispiel: 200 TB Medienarchiv

Eine Medienproduktionsfirma speichert 200 TB auf S3 Standard. Ihre Editoren greifen monatlich auf etwa 20 TB für aktive Projekte zu.

Monatliche Kosten:

PostenKosten
Storage (200 TB x $0.023/GB)$4.600
Egress (20 TB x $0.09/GB)$1.800
API Requests (~5M GETs)$2
Monatlich gesamt$6.402
Jährlich gesamt$76.824
3-Jahres-Total$230.472

On-Premises-Alternative:

PostenKosten
NAS-Hardware (200 TB nutzbar, HA)$40.000 - $60.000
3 Jahre Strom + Kühlung$5.000 - $8.000
Admin-Zeit (0,1 FTE)$15.000 - $25.000
3-Jahres-Total$60.000 - $93.000

Die On-Premises-Option kostet ungefähr ein Drittel der Cloud-Option über drei Jahre. Und die Hardware gehört dir am Ende.

Wann Cloud Storage Sinn macht

Cloud ist die richtige Wahl für unregelmäßige Workloads, global verteilten Zugriff oder Datasets unter 10 TB, wo der Admin-Aufwand die Speicherkosten übersteigen würde. Die Rechnung kippt bei großen, häufig genutzten Datasets an einem einzigen Standort.

Die sieben versteckten Kosten

1. Egress-Gebühren

Der größte Posten. Jedes Byte, das du aus Cloud Storage herunterlädst, kostet Geld. Das betrifft:

Bei $90/TB (AWS S3 Standard) kostet das einmalige Herunterladen deines gesamten 200-TB-Datasets $18.000. Das ist die Exit-Steuer.

2. API-Request-Kosten

Jede Dateioperation ist ein API Call. Ein Verzeichnis auflisten ist ein LIST Request. Eine Datei lesen ist ein GET. Prüfen, ob eine Datei existiert, ist ein HEAD.

Bei Datasets mit Millionen kleiner Dateien summieren sich API-Kosten schnell. Ein Migrationstool, das 50 Millionen Dateien auf Änderungen prüft, macht 50 Millionen HEAD Requests. Bei $0,0004 pro 1.000 Requests sind das $20 pro Scan. Täglich für inkrementelle Syncs sind das $600/Monat nur für API Calls.

3. Storage-Class-Komplexität

S3 allein hat sieben Storage Classes: Standard, Intelligent-Tiering, Standard-IA, One Zone-IA, Glacier Instant Retrieval, Glacier Flexible Retrieval und Glacier Deep Archive.

Jede hat unterschiedliches Pricing für Storage, Retrieval und Mindestlaufzeit. Daten nach Glacier verschieben, um bei Storage zu sparen, kostet Retrieval-Gebühren plus eine 90-Tage-Mindestlaufzeit. Daten vor der Mindestlaufzeit löschen und du zahlst trotzdem für die volle Periode.

4. Cross-Region- und Cross-AZ-Transfer

Datentransfer zwischen Availability Zones kostet $0,01/GB in jede Richtung auf AWS. Zwischen Regionen sind es $0,02/GB. Wenn dein Compute in einer anderen AZ als dein Storage liegt, zahlst du Transfer-Gebühren für jeden Read.

5. Vendor Lock-in

Jeder Cloud-Anbieter hat proprietäre Features: S3 Select, Azure Data Lake, Google Nearline. Bau deinen Workflow darauf auf und ein Anbieterwechsel bedeutet, deinen Stack umzuschreiben, nicht nur Dateien zu verschieben.

6. Compliance und Datensouveränität

DSGVO und branchenspezifische Regulierungen können verlangen, dass Daten in bestimmten Jurisdiktionen bleiben. Cloud-Anbieter bieten regionales Storage, aber die Compliance zu verifizieren erfordert ein Audit darüber, wo jede Kopie deiner Daten wirklich liegt, einschließlich Caches, CDN-Edges und Replikationsziele.

7. Unvorhersehbare Rechnungen

Cloud-Storage-Rechnungen schwanken monatlich. Ein Spike bei User-Aktivität, ein automatisierter Prozess, der Dateien scannt, oder ein Entwickler, der versehentlich ein großes Dataset herunterlädt, kann Rechnungsüberraschungen verursachen. On-Premises-Kosten sind fix und vorhersehbar nach der Anfangsinvestition.

Wann Cloud Repatriation Sinn macht

Repatriation macht finanziell Sinn bei:

Repatriation macht KEINEN Sinn bei:

Der Migrationspfad: S3 zu NAS

Wenn du dich entschieden hast, Daten zurückzuholen, ist die technische Migration straightforward, erfordert aber Planung:

  1. Inventarisiere deine Daten, um Volumen, Dateitypen und Zugriffsmuster zu verstehen
  2. Provisioniere dein Ziel-NAS mit ausreichend Kapazität und dem richtigen Protokoll (NFS für Linux, SMB für Windows)
  3. Plane deine Bandbreite, um deine Internetverbindung nicht während der Geschäftszeiten zu sättigen
  4. Transferiere mit Verifizierung, um sicherzustellen, dass jede Datei intakt ankommt
  5. Validiere Checksums, bevor du den Cloud Storage abschaltest
  6. Halte den Cloud Storage aktiv, bis die Verifizierung abgeschlossen ist

syncopio für Cloud Repatriation

syncopio migriert von S3-kompatiblem Object Storage (AWS S3, MinIO, Wasabi, Backblaze B2) zu NFS- oder SMB-Shares. Verteilte Worker maximieren den Throughput, und integrierte Checksum-Verifizierung bestätigt, dass jede Datei intakt angekommen ist, bevor du die Cloud-Kopie löschst.

Der hybride Ansatz

Komplette Repatriation ist nicht immer die Antwort. Viele Organisationen landen bei einem Hybridmodell:

Der Schlüssel ist, bewusste Platzierungsentscheidungen basierend auf Zugriffsmustern und Kosten zu treffen, statt standardmäßig “alles in die Cloud” zu fahren, weil das der ursprüngliche Migrationsplan war.

Fazit

Cloud Storage ist ein Werkzeug, keine Strategie. Für die richtigen Workloads ist es die beste verfügbare Option. Für große, häufig genutzte Datasets an einem einzigen Standort geht die Rechnung oft nicht auf.

Rechne die Zahlen für deine spezifische Situation durch. Vergleiche das 3-Jahres-TCO inklusive Egress, API Calls und Storage-Class-Komplexität mit On-Premises-Alternativen. Das Ergebnis könnte dich überraschen.