rclone wird oft als “rsync für die Cloud” beschrieben. Mit Unterstützung für über 40 Storage-Anbieter — von AWS S3 über Google Drive bis hin zu lokalen Dateisystemen — ist es das Standard-Tool für Cloud-Datenmigration. Dieser Guide bringt dich in 15 Minuten von der Installation bis zum ersten Sync.
# Offizielles Installationsskript
curl https://rclone.org/install.sh | sudo bash
# Oder über den Paketmanager
sudo apt install rclone # Debian/Ubuntu
sudo dnf install rclone # Fedora/RHEL
brew install rclone # macOS
# Mit winget
winget install Rclone.Rclone
# Oder Download von https://rclone.org/downloads/
rclone version
# rclone v1.68.x
rclone configrclone speichert Remote-Konfigurationen in ~/.config/rclone/rclone.conf. Der interaktive Assistent macht die Einrichtung unkompliziert.
rclone config
Das startet ein interaktives Menü. Schauen wir uns die Konfiguration einiger gängiger Anbieter an.
rclone config
# n) New remote
# name> aws-s3
# Storage> s3
# provider> AWS
# access_key_id> AKIA...
# secret_access_key> wJal...
# region> us-east-1
# acl> private
Oder erstelle die Konfiguration direkt:
[aws-s3]
type = s3
provider = AWS
access_key_id = AKIA...
secret_access_key = wJal...
region = us-east-1
acl = private
rclone config
# n) New remote
# name> azure
# Storage> azureblob
# account> mystorageaccount
# key> base64key...
rclone config
# n) New remote
# name> minio
# Storage> s3
# provider> Minio
# endpoint> https://minio.example.com
# access_key_id> minioadmin
# secret_access_key> minioadmin
MinIO Status-Update
MinIO ist im Dezember 2025 in den Maintenance-Modus gegangen. Wenn du ein neues Deployment planst, ziehe Alternativen in Betracht. Siehe unsere MinIO Maintenance-Modus-Analyse für Optionen.
rclone config
# n) New remote
# name> gcs
# Storage> google cloud storage
# project_number> 123456789
# service_account_file> /path/to/credentials.json
# Lokal nach S3 kopieren
rclone copy /local/data aws-s3:my-bucket/data
# S3 nach lokal kopieren
rclone copy aws-s3:my-bucket/data /local/data
# Zwischen Anbietern kopieren
rclone copy aws-s3:source-bucket azure:dest-container
rclone copy überträgt nur neue und geänderte Dateien. Es löscht keine Dateien auf dem Ziel.
rclone sync /local/data aws-s3:my-bucket/data
sync löscht Dateien auf dem Ziel
rclone sync löscht Dateien auf dem Ziel, die auf der Quelle nicht existieren. Verwende rclone copy, wenn du keine Löschungen willst, oder füge —dry-run hinzu, um erst eine Vorschau zu sehen.
# Größen und Hashes vergleichen
rclone check /local/data aws-s3:my-bucket/data
# Einseitiger Vergleich
rclone check /local/data aws-s3:my-bucket/data --one-way
# Inhalte auf oberster Ebene auflisten
rclone ls aws-s3:my-bucket
# Nur Verzeichnisse auflisten
rclone lsd aws-s3:my-bucket
# Mit lesbaren Dateigrößen auflisten
rclone lsl aws-s3:my-bucket
# Gesamtgröße anzeigen
rclone size aws-s3:my-bucket/data
rclone move /local/data aws-s3:my-bucket/data
Überträgt Dateien und löscht sie dann von der Quelle. Mit Vorsicht verwenden.
# Standard sind 4 gleichzeitige Transfers
rclone copy /data aws-s3:bucket --transfers 16
Für S3 und Cloud-Anbieter sättigen 8-32 gleichzeitige Transfers typischerweise die Bandbreite. Achte auf Throttling (HTTP 429-Fehler).
rclone sync /data aws-s3:bucket --checkers 32
Checkers vergleichen Dateien parallel, bevor entschieden wird, was übertragen werden muss. Mehr Checkers = schnellere Entscheidungsfindung bei großen Datasets.
# Auf 100 MB/s begrenzen
rclone copy /data aws-s3:bucket --bwlimit 100M
# Zeitbasierte Limits (volle Geschwindigkeit nachts, gedrosselt während der Geschäftszeiten)
rclone copy /data aws-s3:bucket --bwlimit "08:00,10M 18:00,off"
# S3 Multipart-Upload mit 64-MB-Chunks
rclone copy /data aws-s3:bucket --s3-chunk-size 64M --s3-upload-concurrency 8
Größere Chunks reduzieren API-Aufrufe, erhöhen aber den Speicherverbrauch. 64 MB ist ein guter Ausgangspunkt für große Datei-Uploads.
rclone kann Daten vor dem Upload verschlüsseln:
rclone config
# n) New remote
# name> encrypted-s3
# Storage> crypt
# remote> aws-s3:my-bucket/encrypted
# filename_encryption> standard
# directory_name_encryption> true
# password> [enter password]
Jetzt verschlüsselt rclone copy /data encrypted-s3: automatisch vor dem Upload und entschlüsselt beim Download.
Verschlüsselung erzeugt CPU-Overhead
Client-seitige Verschlüsselung nutzt AES-256 und erzeugt ca. 10-20% CPU-Overhead. Teste den Durchsatz, bevor du dich bei großen Migrationen auf Verschlüsselung festlegst. Server-seitige Verschlüsselung (SSE-S3, SSE-KMS) ist eine Alternative.
--s3-storage-class STANDARD_IA für selten abgerufene Daten (günstiger)--s3-upload-concurrency für schnellere Uploads großer Dateien--s3-no-check-bucket, um Bucket-Existenzprüfungen zu überspringen (schneller)--azureblob-access-tier Cool für Archivdaten--gcs-bucket-policy-only für einheitlichen Zugriff auf Bucket-Ebene--s3-force-path-style, wenn dein Anbieter keinen Virtual-Hosted-Style unterstütztrclone lsd minio:, um die Konnektivität zu prüfen#!/bin/bash
DATE=$(date +%Y-%m-%d)
rclone sync /data/important aws-s3:backups/$DATE \
--transfers 16 \
--bwlimit 50M \
--log-file /var/log/rclone-backup.log \
--log-level INFO
# AWS S3 nach Azure Blob
rclone copy aws-s3:source-bucket azure:dest-container \
--transfers 32 \
--checkers 32 \
--s3-chunk-size 64M \
--log-level INFO \
--stats 30s
# S3-Bucket als lokales Verzeichnis mounten
rclone mount aws-s3:my-bucket /mnt/s3 --vfs-cache-mode full &
# Dateien normal nutzen
ls /mnt/s3
cat /mnt/s3/data/file.txt
rclone glänzt bei Cloud-zu-Cloud-Transfers, hat aber Lücken bei NAS-Migrationen:
--checksum-Flag)Für NAS- + Cloud-Migrationen
Wenn deine Migration NFS oder SMB neben S3 umfasst, beherrscht syncopio alle drei Protokolle nativ mit einem Web-Dashboard für Transparenz. Vergleiche syncopio vs rclone im Detail.