layout: ../../../layouts/BlogLayout.astro title: “Erste Schritte mit rclone: Cloud- & S3-Migration leicht gemacht” description: “Von der Installation bis zum ersten Cloud-Sync. Lerne rclone-Konfiguration, essenzielle Befehle und Provider-spezifische Tipps für AWS S3, Azure und mehr.” date: “2026-02-10” category: “Tutorial” readingTime: “10 min” slug: “rclone-getting-started” tags: [“rclone”, “s3”, “cloud”, “azure”, “aws”] locale: “de”

rclone wird oft als “rsync für die Cloud” beschrieben. Mit Unterstützung für über 40 Storage-Anbieter — von AWS S3 über Google Drive bis hin zu lokalen Dateisystemen — ist es das Standard-Tool für Cloud-Datenmigration. Dieser Guide bringt dich in 15 Minuten von der Installation bis zum ersten Sync.

Installation

Linux

# Offizielles Installationsskript
curl https://rclone.org/install.sh | sudo bash

# Oder über den Paketmanager
sudo apt install rclone       # Debian/Ubuntu
sudo dnf install rclone       # Fedora/RHEL
brew install rclone           # macOS

Windows

# Mit winget
winget install Rclone.Rclone

# Oder Download von https://rclone.org/downloads/

Installation prüfen

rclone version
# rclone v1.68.x

Konfiguration mit rclone config

rclone speichert Remote-Konfigurationen in ~/.config/rclone/rclone.conf. Der interaktive Assistent macht die Einrichtung unkompliziert.

rclone config

Das startet ein interaktives Menü. Schauen wir uns die Konfiguration einiger gängiger Anbieter an.

AWS S3

rclone config
# n) New remote
# name> aws-s3
# Storage> s3
# provider> AWS
# access_key_id> AKIA...
# secret_access_key> wJal...
# region> us-east-1
# acl> private

Oder erstelle die Konfiguration direkt:

[aws-s3]
type = s3
provider = AWS
access_key_id = AKIA...
secret_access_key = wJal...
region = us-east-1
acl = private

Azure Blob Storage

rclone config
# n) New remote
# name> azure
# Storage> azureblob
# account> mystorageaccount
# key> base64key...

MinIO (S3-kompatibel)

rclone config
# n) New remote
# name> minio
# Storage> s3
# provider> Minio
# endpoint> https://minio.example.com
# access_key_id> minioadmin
# secret_access_key> minioadmin

MinIO Status-Update

MinIO ist im Dezember 2025 in den Maintenance-Modus gegangen. Wenn du ein neues Deployment planst, ziehe Alternativen in Betracht. Siehe unsere MinIO Maintenance-Modus-Analyse für Optionen.

Google Cloud Storage

rclone config
# n) New remote
# name> gcs
# Storage> google cloud storage
# project_number> 123456789
# service_account_file> /path/to/credentials.json

Essenzielle Befehle

Copy — Dateien übertragen ohne zu löschen

# Lokal nach S3 kopieren
rclone copy /local/data aws-s3:my-bucket/data

# S3 nach lokal kopieren
rclone copy aws-s3:my-bucket/data /local/data

# Zwischen Anbietern kopieren
rclone copy aws-s3:source-bucket azure:dest-container

rclone copy überträgt nur neue und geänderte Dateien. Es löscht keine Dateien auf dem Ziel.

Sync — Ziel dem Quellstand angleichen

rclone sync /local/data aws-s3:my-bucket/data

sync löscht Dateien auf dem Ziel

rclone sync löscht Dateien auf dem Ziel, die auf der Quelle nicht existieren. Verwende rclone copy, wenn du keine Löschungen willst, oder füge —dry-run hinzu, um erst eine Vorschau zu sehen.

Check — Übereinstimmung der Dateien prüfen

# Größen und Hashes vergleichen
rclone check /local/data aws-s3:my-bucket/data

# Einseitiger Vergleich
rclone check /local/data aws-s3:my-bucket/data --one-way

List — Remote-Storage erkunden

# Inhalte auf oberster Ebene auflisten
rclone ls aws-s3:my-bucket

# Nur Verzeichnisse auflisten
rclone lsd aws-s3:my-bucket

# Mit lesbaren Dateigrößen auflisten
rclone lsl aws-s3:my-bucket

# Gesamtgröße anzeigen
rclone size aws-s3:my-bucket/data

Move — übertragen und von der Quelle löschen

rclone move /local/data aws-s3:my-bucket/data

Überträgt Dateien und löscht sie dann von der Quelle. Mit Vorsicht verwenden.

Performance-Tuning

Gleichzeitige Transfers

# Standard sind 4 gleichzeitige Transfers
rclone copy /data aws-s3:bucket --transfers 16

Für S3 und Cloud-Anbieter sättigen 8-32 gleichzeitige Transfers typischerweise die Bandbreite. Achte auf Throttling (HTTP 429-Fehler).

Checkers (parallele Vergleichs-Threads)

rclone sync /data aws-s3:bucket --checkers 32

Checkers vergleichen Dateien parallel, bevor entschieden wird, was übertragen werden muss. Mehr Checkers = schnellere Entscheidungsfindung bei großen Datasets.

Bandbreitenbegrenzung

# Auf 100 MB/s begrenzen
rclone copy /data aws-s3:bucket --bwlimit 100M

# Zeitbasierte Limits (volle Geschwindigkeit nachts, gedrosselt während der Geschäftszeiten)
rclone copy /data aws-s3:bucket --bwlimit "08:00,10M 18:00,off"

Chunk-Größe für große Dateien

# S3 Multipart-Upload mit 64-MB-Chunks
rclone copy /data aws-s3:bucket --s3-chunk-size 64M --s3-upload-concurrency 8

Größere Chunks reduzieren API-Aufrufe, erhöhen aber den Speicherverbrauch. 64 MB ist ein guter Ausgangspunkt für große Datei-Uploads.

Verschlüsselung

rclone kann Daten vor dem Upload verschlüsseln:

rclone config
# n) New remote
# name> encrypted-s3
# Storage> crypt
# remote> aws-s3:my-bucket/encrypted
# filename_encryption> standard
# directory_name_encryption> true
# password> [enter password]

Jetzt verschlüsselt rclone copy /data encrypted-s3: automatisch vor dem Upload und entschlüsselt beim Download.

Verschlüsselung erzeugt CPU-Overhead

Client-seitige Verschlüsselung nutzt AES-256 und erzeugt ca. 10-20% CPU-Overhead. Teste den Durchsatz, bevor du dich bei großen Migrationen auf Verschlüsselung festlegst. Server-seitige Verschlüsselung (SSE-S3, SSE-KMS) ist eine Alternative.

Provider-spezifische Tipps

AWS S3

Azure Blob

Google Cloud Storage

MinIO / S3-kompatibel

Typische Workflows

Tägliches Backup nach S3

#!/bin/bash
DATE=$(date +%Y-%m-%d)
rclone sync /data/important aws-s3:backups/$DATE \
  --transfers 16 \
  --bwlimit 50M \
  --log-file /var/log/rclone-backup.log \
  --log-level INFO

Cross-Cloud-Migration

# AWS S3 nach Azure Blob
rclone copy aws-s3:source-bucket azure:dest-container \
  --transfers 32 \
  --checkers 32 \
  --s3-chunk-size 64M \
  --log-level INFO \
  --stats 30s

Cloud-Storage als lokales Dateisystem mounten

# S3-Bucket als lokales Verzeichnis mounten
rclone mount aws-s3:my-bucket /mnt/s3 --vfs-cache-mode full &

# Dateien normal nutzen
ls /mnt/s3
cat /mnt/s3/data/file.txt

Einschränkungen

rclone glänzt bei Cloud-zu-Cloud-Transfers, hat aber Lücken bei NAS-Migrationen:

Für NAS- + Cloud-Migrationen

Wenn deine Migration NFS oder SMB neben S3 umfasst, beherrscht syncopio alle drei Protokolle nativ mit einem Web-Dashboard für Transparenz. Vergleiche syncopio vs rclone im Detail.

Weiterführende Artikel