layout: ../../../layouts/BlogLayout.astro title: “AWS zu NAS: Best Practices für Cloud Repatriation” description: “Praktischer Leitfaden für die Migration von AWS S3, EFS oder FSx zurück auf On-Premises-NAS. Planung, Bandbreite, Verifizierung und häufige Fehler.” date: “2026-04-16” category: “How-To” readingTime: “10 min” slug: “aws-nas-migration-best-practices” tags: [“aws”, “s3”, “cloud-repatriation”, “nas-migration”, “nfs”, “smb”, “data-migration”, “best-practices”] locale: “de”

TL;DR

Die Migration von AWS zurück auf On-Premises-NAS erfordert Planung, die in den meisten Cloud-Migrationsguides fehlt. Dieser Guide deckt die praktischen Schritte ab: Egress-Kosten und Transferzeiten schätzen, zwischen Direct Download und physischem Transfer wählen, Protokoll-Übersetzung (S3 zu NFS/SMB), und Datenintegrität nach dem Move verifizieren.

Cloud Repatriation ist längst kein Randphänomen mehr. Laut IDC haben 80% der Organisationen, die Workloads in die Cloud verschoben haben, einige davon wieder zurück On-Premises gebracht. Die Gründe variieren: Egress-Kosten, Latenz, Compliance oder schlicht die Erkenntnis, dass ein Fileserver im eigenen Rechenzentrum für große Datasets günstiger ist.

Dieser Guide deckt die praktischen Schritte für die Migration von AWS (S3, EFS oder FSx) zurück auf On-Premises-NAS-Storage ab.

Schritt 1: AWS Storage inventarisieren

Bevor irgendetwas passiert: verstehen, was du verschiebst.

S3 Buckets

# Alle Buckets und ihre Größen auflisten
aws s3 ls
aws s3 ls s3://dein-bucket --recursive --summarize

Zentrale Fragen:

EFS File Systems

# EFS-Größe via CloudWatch prüfen
aws cloudwatch get-metric-statistics \
  --namespace AWS/EFS \
  --metric-name StorageBytesTotal \
  --dimensions Name=FileSystemId,Value=fs-12345678 \
  --start-time 2026-04-01T00:00:00Z \
  --end-time 2026-04-15T00:00:00Z \
  --period 86400 \
  --statistics Average

FSx for Windows / Lustre / NetApp ONTAP

FSx gibt es in mehreren Varianten. Prüfe, welche du nutzt, da sich der Migrationspfad unterscheidet:

Schritt 2: Egress-Kosten und Transferzeit berechnen

Egress-Kosten

AWS berechnet Gebühren für Daten, die ihr Netzwerk verlassen:

DatenvolumenKosten pro GB
Erste 10 TB/Monat$0,09
Nächste 40 TB/Monat$0,085
Nächste 100 TB/Monat$0,07
Über 150 TB/Monat$0,05

Beispiel: 200 TB in einem Monat herunterladen kostet ca. $12.500 an Egress-Gebühren.

Egress verhandeln

Bei großen Repatriations (100+ TB) kontaktiere deinen AWS Account Manager. AWS bietet manchmal Egress-Waivers oder Rabatte für Kunden, die Workloads migrieren, besonders wenn du andere AWS-Services beibehältst.

Transferzeit

Berechne, wie lange der Transfer über deine Internetverbindung dauert:

Verbindung100 TB Transferzeit
1 Gbps~10 Tage
10 Gbps~1 Tag
100 Mbps~100 Tage

Wenn deine Verbindung unter 1 Gbps liegt und du über 50 TB verschiebst, ziehe AWS Snowball in Betracht (physisches Gerät, das in dein Rechenzentrum geliefert wird). Der Break-Even-Point liegt ungefähr bei:

Glacier Retrieval

Wenn Daten in Glacier oder Glacier Deep Archive liegen, musst du sie vor dem Download wiederherstellen:

Retrieval TierDauerKosten pro GB
Expedited1-5 Minuten$0,03
Standard3-5 Stunden$0,01
Bulk5-12 Stunden$0,0025

Bei großen Repatriations Bulk Retrieval verwenden. Daten in Batches wiederherstellen, um Concurrent-Restore-Limits zu vermeiden.

Schritt 3: Ziel vorbereiten

Das richtige Protokoll wählen

SourceDestinationProtokoll
S3Linux NASNFS
S3Windows File ServerSMB
EFSLinux NASNFS
FSx for WindowsWindows File ServerSMB
FSx for ONTAPBeliebigNFS oder SMB

Storage dimensionieren

Mindestens 120% des Quell-Datenvolumens provisionieren:

NFS/SMB Exports konfigurieren

NFS Exports oder SMB Shares vor dem Start der Migration einrichten. Zugriff von der Maschine testen, die den Transfer ausführen wird:

# NFS Mount testen
mount -t nfs dein-nas:/export /mnt/test
touch /mnt/test/write-test && rm /mnt/test/write-test

# SMB Mount testen
mount -t cifs //dein-nas/share /mnt/test -o username=admin
touch /mnt/test/write-test && rm /mnt/test/write-test

Schritt 4: Transfer-Methode wählen

Option A: AWS CLI (Kleine Datasets, unter 10 TB)

aws s3 sync s3://dein-bucket /mnt/nas-ziel/ \
  --no-progress \
  --storage-class STANDARD

Pro: Einfach, integriert. Contra: Single-threaded, kein Verifizierungsreport, kein Cross-Protokoll-Support.

Option B: AWS DataSync (AWS-managed)

AWS DataSync kann von S3 oder EFS auf On-Premises-NFS/SMB-Shares transferieren via DataSync Agent in deinem Rechenzentrum.

Pro: Von AWS gemanaged, guter Throughput. Contra: Erfordert Deployment einer DataSync-Agent-VM, kostet $0,0125/GB, kommt zu Egress-Kosten hinzu.

Option C: rclone (S3 zu lokalem Filesystem)

rclone sync s3:dein-bucket /mnt/nas-ziel/ \
  --transfers 16 \
  --checkers 32 \
  --progress

Pro: Multi-threaded, unterstützt viele Backends. Contra: Kein NFS/SMB-Mount-Support (schreibt nur auf lokales Filesystem), keine Cross-Protokoll-Migration, limitierte Verifizierung.

Option D: Dediziertes Migrationstool

Für große Datasets (50+ TB), Cross-Protokoll-Anforderungen (S3 zu SMB) oder Compliance-Anforderungen (prüfbare Verifizierung) ein spezialisiertes Migrationstool nutzen.

syncopio für AWS Repatriation

syncopio verbindet sich mit S3-kompatiblem Storage als Source und schreibt auf NFS- oder SMB-Destinations. Verteilte Worker parallelisieren den Transfer, und integrierte Checksum-Verifizierung erzeugt einen prüfbaren Report, der bestätigt, dass jede Datei intakt angekommen ist. Kein DataSync Agent nötig.

Schritt 5: S3-zu-NAS-Übersetzung

S3 ist Object Storage. NAS ist File Storage. Das sind fundamental verschiedene Konzepte, und die Übersetzung erfordert Entscheidungen.

Object Keys zu Dateipfaden

S3 Object Keys wie projects/2026/report.pdf werden zu Verzeichnispfaden /projects/2026/report.pdf auf dem Filesystem. Die meisten Tools machen das automatisch, aber achte auf:

Metadaten-Übersetzung

S3-MetadatenNAS-ÄquivalentAnmerkungen
Content-TypeDateiendungKeine direkte Zuordnung
Last-ModifiedmtimeVon den meisten Tools erhalten
x-amz-meta-*Extended AttributesToolabhängig
Storage ClassN/ANicht anwendbar auf NAS
Object TagsN/AKein Filesystem-Äquivalent
ACLPOSIX Permissions / NTFS ACLErfordert explizites Mapping

Permissions

S3 nutzt IAM Policies und Bucket ACLs. NAS nutzt POSIX Permissions (NFS) oder NTFS ACLs (SMB). Es gibt keine automatische Übersetzung. Du musst entscheiden:

Für die meisten Repatriations ist ein einheitliches Permission-Set (z. B. 755 für Verzeichnisse, 644 für Dateien, im Besitz eines Service-Accounts) der einfachste Ansatz.

Schritt 6: Alles verifizieren

Niemals Cloud Storage abschalten, bevor die Verifizierung abgeschlossen ist.

Minimale Verifizierung

Vollständige Verifizierung

Verifizierung nicht überspringen

Der häufigste Repatriation-Fehler: Cloud Storage abschalten, bevor bestätigt ist, dass jede Datei korrekt transferiert wurde. S3 Bucket behalten, bis du einen verifizierten, checksummed Report hast, der 100% Integrität zeigt.

Schritt 7: Cutover und Decommission

  1. Finaler Sync: Einen letzten inkrementellen Transfer starten, um seit der Erstkopie geänderte Dateien zu erfassen
  2. Clients umleiten: DNS, Mount Points oder Application Configs auf den neuen NAS-Standort zeigen
  3. Monitoring: Mindestens eine Woche auf Fehler, fehlende Dateien oder Permission-Probleme achten
  4. Decommission: S3 Objects löschen und den Bucket erst nach der Monitoring-Periode schließen

S3 Lifecycle Policy als Sicherheitsnetz

Statt sofort zu löschen, eine Lifecycle Policy setzen, die Objects für 30 Tage nach Glacier Deep Archive verschiebt, dann löscht. Das gibt dir ein Sicherheitsnetz zu minimalen Kosten ($0,00099/GB/Monat).

{
  "Rules": [
    {
      "ID": "PostMigrationCleanup",
      "Status": "Enabled",
      "Transitions": [
        {
          "Days": 0,
          "StorageClass": "DEEP_ARCHIVE"
        }
      ],
      "Expiration": {
        "Days": 30
      }
    }
  ]
}

Häufige Fehler

FehlerKonsequenzPrävention
Egress-Kosten nicht einplanenRechnungsschock ($90/TB)Gesamt-Egress vor Start berechnen
Glacier Restore-Zeit vergessenMigration um Stunden/Tage verzögertIn Batches wiederherstellen, früh anfangen
Single-threaded TransferWochen statt TageParallele Transfers nutzen
Keine VerifizierungStiller DatenverlustJede Datei checksummen vor Decommission
S3 vor Verifizierung löschenDatenverlust bei fehlenden DateienSource 30+ Tage nach Cutover behalten
Dateinamen-Beschränkungen ignorierenDateien mit :*? scheitern auf NTFS/SMBPre-Scan auf illegale Zeichen
Falsche NFS/SMB-PermissionsUser von ihren Dateien ausgesperrtZugriff mit echten User-Accounts testen

Checkliste