Development
11 min read
34 views

Der unsichtbare Steuer: Wie Ingenieure Multi-Cloud-Mesh-Gewebe bauen, um der Egress-Wirtschaft zu entkommen

IT
InstaTunnel Team
Published by our engineering team
Der unsichtbare Steuer: Wie Ingenieure Multi-Cloud-Mesh-Gewebe bauen, um der Egress-Wirtschaft zu entkommen

Der unsichtbare Steuer: Wie Ingenieure Multi-Cloud-Mesh-Gewebe bauen, um der Egress-Wirtschaft zu entkommen

Cloud-Anbieter haben ein Jahrzehnt lang behauptet, dass Multi-Cloud die Zukunft ist. Was sie nicht bewerben, ist, dass sie ihre Preisgestaltung ebenfalls so gestaltet haben, dass diese Zukunft so teuer wie möglich wird. Daten-Egress-Gebühren — die pro-Gigabyte-Gebühren, die jedes Mal erhoben werden, wenn Daten das Netzwerk eines Cloud-Anbieters verlassen — sind im Jahr 2026 still und heimlich zum am schnellsten wachsenden Posten auf Unternehmens-Cloud-Rechnungen geworden.

Dieser Artikel ist eine technische Tiefenanalyse für DevOps-Architekten und Plattformingenieure, die genug vom Bezahlen der Steuer haben. Wir behandeln die echten Zahlen hinter den Egress-Preisen, wie Peer-to-Peer-Mesh-Gewebe Gateway-Overhead umgehen, Multi-Tenant-Namespace-Tunnel für SaaS-Isolation, softwaredefinierte Daten-Dioden für verteidigungsfähiges Networking und Zero-Egress-Staging-Architekturen, die die Netzwerkrechnungen um bis zu 85 % senken können.


1. Die echten Zahlen hinter der Egress-Wirtschaft

Das Egress-Problem ist nicht subtil. AWS berechnet $0.09/GB für die ersten 10 TB monatlichen Internet-Egress. Azure liegt bei $0.087/GB. GCP ist am aggressivsten mit $0.12/GB. Die ersten 100 GB pro Monat sind bei AWS und Azure kostenlos; danach läuft der Zähler kontinuierlich.

Zur Veranschaulichung: Eine SaaS-Anwendung, die 50 TB pro Monat von AWS bereitstellt, zahlt ungefähr $4.300/Monat nur für Egress — 51.600 $ im Jahr nur, um Daten an ihre Nutzer zu liefern. Ein Medienunternehmen mit demselben Volumen zahlt etwa 4.500 $/Monat bei AWS. Das sind keine Einzelfälle; sie sind die operative Realität für jedes datenintensive Produkt.

Die versteckten Multiplikatoren multiplizieren den Basispreis erheblich:

  • NAT-Gateway-Verarbeitung: AWS berechnet $0.045/Stunde plus $0.045/GB für jedes Byte, das durch ein NAT-Gateway verarbeitet wird. Private Subnetze, die über ein NAT-Gateway zu AWS-Diensten routen, zahlen dies für Traffic, der das AWS-Netzwerk nie verlässt. Ein einzelnes NAT-Gateway, das 2 TB/Monat zu S3 verarbeitet — Traffic, der auch einen kostenlosen Gateway-Endpunkt nutzen könnte — kostet ungefähr $165/Monat, also fast $2.000/Jahr, unnötig.
  • Cross-AZ-Transfer: Das Verschieben von Daten zwischen Availability Zones kostet $0.01/GB in jede Richtung. Eine Standard-3-AZ-Deployment, das 500 GB/Tag an inter-AZ-Traffic generiert, verursacht etwa $300/Monat an Gebühren für Traffic, der nie das öffentliche Internet berührt.
  • Public IPv4-Miete: Seit Februar 2024 berechnet AWS $0.005/Stunde ($3.65/Monat) für jede öffentliche IPv4-Adresse — an Instanzen, Load Balancer, NAT-Gateways oder im Leerlauf.

Laut unabhängiger Analyse stellen netzwerkbezogene Gebühren jetzt eine “unsichtbare 18%-Steuer” auf die Gesamtausgaben für Cloud-Dienste dar, wenn Organisationen Multi-Cloud- oder Hybrid-Architekturen betreiben. Für Organisationen mit 100+ Services verbrauchen Netzwerkkosten typischerweise 15–25 % der Gesamtausgaben — doch Netzwerkkosten erscheinen selten in den anfänglichen Cloud-Migrationskostenmodellen.

Das ist absichtlich so gestaltet. Die Asymmetrie ist bewusst: Ingress ist kostenlos, weil Anbieter wollen, dass Ihre Daten dort bleiben. Egress ist teuer, weil sie wollen, dass sie dort bleiben.


2. Der Wandel 2026: AWS Interconnect Multicloud

Die Landschaft verändert sich — zum Teil, weil Unternehmen sich stark gewehrt haben, und zum Teil, weil KI-Workloads grenzüberschreitende Datenflüsse erzeugen, die traditionelle Egress-Preise in großem Maßstab untragbar machen.

Auf AWS re:Invent im Dezember 2025 stellte AWS AWS Interconnect – Multicloud vor, einen vollständig verwalteten Dienst, der dedizierte, private Hochgeschwindigkeitsverbindungen direkt zwischen AWS VPCs und anderen Cloud-Anbietern VPC-Netzwerke bereitstellt. Es wurde in Preview mit fünf AWS–Google Cloud-Regionenpaaren in den USA und Europa gestartet, dann am 14. April 2026 in die Allgemeine Verfügbarkeit überführt, mit Google Cloud als erstem Partner. Oracle ist seitdem dem Programm beigetreten; Microsoft Azure hat die Teilnahme für später im Jahr 2026 angekündigt.

Das Preismodell ist eine strukturelle Abkehr vom pro-GB-Abrechnungsmodell. Es gibt keine Datenübertragungskosten pro Gigabyte auf beiden Seiten — AWS und Google Cloud Partner Cross-Cloud Interconnect. Kunden zahlen eine feste stündliche Gebühr basierend auf ihrer bereitgestellten Bandbreite. Wie AWS-VP für Network Services Rob Kennedy formulierte: “Sie zahlen nach Bandbreite. Sie können so viel Daten hin- und herübertragen, wie Sie innerhalb der bezahlten Bandbreite möchten. Innerhalb dieses Limits sind Sie frei, was immer Sie wollen, ohne zusätzliche Kosten.”

Der Break-even-Punkt ist entscheidend für Architekturentscheidungen. Analysen des Region-Paars Oregon (AWS us-west-2 ↔ GCP us-west1) zeigen, dass der fixpreisige Interconnect bei etwa 853 TB/Monat bidirektionaler Übertragung bei 1 Gbps bereitgestellter Bandbreite kostengünstiger wird als herkömmliches Internet-Egress. Darunter bleibt das herkömmliche Egress mit sorgfältiger Optimierung günstiger. Darüber — was bei KI-Trainingspipelines, Analytics-Replikation und Disaster Recovery üblich ist — amortisiert sich der Interconnect.

Der Dienst basiert auf einer offenen Interoperabilitäts-Spezifikation, die auf GitHub veröffentlicht wurde, was kleinere Cloud-Anbieter und Neocloud-Betreiber in die Lage versetzt, Kompatibilität umzusetzen. Das ist architektonisch bedeutsam: Es etabliert einen gemeinsamen Standard für private Multi-Cloud-Konnektivität anstelle einer geschlossenen bilateralen Vereinbarung.

Für Teams, die noch nicht die Skalierung erreicht haben, bei der sich der Interconnect finanziell lohnt, bleibt der Mesh-Tunnel-Ansatz der zugänglichste Weg zur Kostenoptimierung über Cloud-Grenzen hinweg.


3. Der P2P-Mesh-Ansatz: Umgehung der Gateway-Steuer

Bevor Managed Interconnects existierten, bauten Ingenieure ihre eigenen. Die Kernidee ist einfach: Wenn Sie ein verschlüsseltes Peer-to-Peer-Overlay-Netzwerk über Cloud-Umgebungen aufbauen, durchquert der Datenverkehr das öffentliche Internet direkt zwischen Peers — und umgeht NAT-Gateways, Transit-Gateways und die damit verbundenen Verarbeitungsgebühren.

Tools wie Tailscale (auf WireGuard basierend), Netbird und selbst gehostete WireGuard-Deployments setzen dieses Muster um. Tailscale nutzt einen zentralen Koordinationsserver, um kryptografische Identitäten und NAT-Traversal zu verwalten, aber die tatsächliche Datenebene ist Peer-to-Peer — die Steuerungsebene sieht nie Nutzlastverkehr.

Die praktische Auswirkung auf die Abrechnung ist erheblich. Daten, die zuvor flossen:

EC2 → NAT Gateway ($0.045/GB Verarbeitung) → Internet → GCP-Instanz

Fließen jetzt:

EC2 → WireGuard-Tunnel → GCP-Instanz (direkt, keine Gateway-Verarbeitungsgebühr)

Die DTO (Data Transfer Out)-Gebühr gilt weiterhin auf der AWS-Seite bei den Standard-Internet-Egressraten. Die NAT-Gateway-Verarbeitungsgebühr verschwindet vollständig, und wenn die AWS-Instanzen, die die Mesh-Knoten laufen, in öffentlichen Subnetzen mit direkter Internet-Gateway-Routing platziert sind, verschwindet auch der Transit-Gateway-Overhead.

Traversieren von Hard NAT

Die praktische Herausforderung bei Multi-Cloud-Mesh-Deployments ist NAT-Traversal. Die meisten Cloud-VMs sitzen hinter Network Address Translation, was direkte Peer-to-Peer-UDP-Hole-Punching verhindert. Die Standardlösungen:

STUN-basiertes Hole-Punching funktioniert, wenn beide Peers hinter “Easy NAT” (Standard-NAT-Verhalten der meisten Cloud-Anbieter) sind. Der Tailscale-Koordinationsserver erleichtert dies automatisch.

DERP-Relaisknoten (Tailscales Designated Encrypted Relay for Packets) handhaben Fälle, in denen direkte Konnektivität fehlschlägt. Diese sind geografisch verteilte Relay-Server, die verschlüsselten Traffic weiterleiten — immer noch Ende-zu-Ende verschlüsselt, aber nicht direkt.

Öffentliche Subnetzplatzierung mit einem Internet-Gateway ist die sauberste architektonische Lösung für cloudgehostete Mesh-Knoten. Das Platzieren eines leichten Mesh-Router-Instances in einem öffentlichen Subnetz eliminiert das NAT-Traversal-Problem vollständig. Der Traffic fließt direkt vom Mesh-Knoten zu seinen Peers, und private Subnetz-Workloads routen durch den Mesh-Knoten als Gateway. Die kleinen Kosten eines t3.micro oder Äquivalent sind in der Regel vernachlässigbar im Vergleich zu NAT-Gateway-Verarbeitungsgebühren bei großem Volumen.


4. Erweiterte Topologien: Multi-Tenant-Namespace-Tunnel

Für Plattform-Engineering-Teams, die komplexe SaaS-Deployments verwalten, ist ein flaches Multi-Cloud-Mesh unzureichend. Produktions-SaaS erfordert strikte Isolierung zwischen Mandanten: Ein Fehler oder eine Kompromittierung in der Umgebung eines Mandanten darf keinen Weg in eine andere Umgebung bieten.

Linux-Netzwerk-Namespaces (netns) in Kombination mit containerisierten Mesh-Sidecars lösen dies auf Host-Ebene. Ein einzelner Kubernetes-Worker-Node kann Dutzende von Tenant-Pods beherbergen, jeder mit seinem eigenen injizierten Mesh-Sidecar-Container. Der Sidecar bindet ausschließlich an den Netzwerk-Namespace seines Pods und schafft einen kryptografisch isolierten Tunnel zu der entsprechenden Umgebung des Mandanten — egal ob in GCP, Azure oder on-premises.

Das Steuerungssystem weist Adressen aus einem flachen 100.x.x.x/8 Overlay-Raum zu, der dynamisch pro Mandant gemappt wird. Da das Overlay unterschiedliche Präfix-Längen für das Routing nutzt, können Architekten überlappende IP-Schemata zwischen Mandanten ohne Konflikte beibehalten. Ein Mandant in AWS mit 10.0.1.0/24 und ein anderer mit demselben RFC 1918-Subnetz in GCP routen ohne Konflikt auf der Overlay-Ebene.

Diese Architektur ermöglicht es einem Plattform-Team, auf Abruf Cloud-übergreifende Umgebungen für einzelne Mandanten zu erstellen, ohne die zugrunde liegenden Cloud-Netzwerkprimitive zu berühren. Das Onboarding von Mandanten wird zu einer Steuerungssystem-Operation, nicht zu einer Netzwerkbereitstellung.


5. Verteidigendes Networking: Software-Dioden und Zero-Knowledge-Traffic-Analyse

Die Verbindung großer Cloud-Umgebungen erweitert die Angriffsfläche inhärent. Wenn eine GCP-Umgebung kompromittiert wird, könnte ein falsch konfiguriertes Mesh-Tunnel eine seitliche Bewegung zurück zur AWS-Infrastruktur ermöglichen. Die Standardabwehrmaßnahme ist Netzwerksegmentierung; im Mesh-Overlay entspricht dies einseitiger Zugriffskontrolle auf Policy-Ebene.

Tailscales ACL-System implementiert dies als Default-Deny-Policy mit expliziten Accept-Regeln. Eine Daten-Diode-Konfiguration, die AWS-Analytics-Worker erlaubt, Metriken von GCP abzurufen, während GCP-Knoten kategorisch jede Verbindung in die AWS-Umgebung verhindert, sieht so aus:

{
  "acls": [
    {
      "action": "accept",
      "src": ["tag:aws-analytics"],
      "dst": ["tag:gcp-database:*"]
    }
  ]
}

Ohne weitere Regeln haben GCP-Knoten keine Routing-Möglichkeit ins AWS-Netzwerk. Das Mesh erzwingt dies auf kryptografischer Identitätsebene — es ist keine Firewall-Regel, die mit einem gefälschten Paket umgangen werden kann; es ist eine Policy, die vom Steuerungssystem gegen authentifizierte Knoten-Identitäten durchgesetzt wird.

Die zweite Sicherheitsfunktion eines verschlüsselten Mesh-Overlays ist Widerstand gegen Zwischeninspektion. Da die gesamte Datenebene Ende-zu-Ende verschlüsselt ist (WireGuard nutzt ChaCha20-Poly1305 mit Curve25519-Schlüsselaustausch), können weder Cloud-Anbieter-Infrastruktur noch Zwischen-ISP Deep Packet Inspection am Payload durchführen. Dies ermöglicht, was Praktiker Zero-Knowledge-Traffic-Analyse nennen: Das Steuerungssystem verwaltet kryptografische Identitätsmetadaten, aber der Payload-Inhalt bleibt für alle Parteien außer den kommunizierenden Endpunkten undurchsichtig. Für regulierte Branchen — Finanzdienstleistungen, Gesundheitswesen, Recht — bietet dies bedeutende Daten-Souveränitätsgarantien, selbst wenn Pakete über öffentliche Internet-Backbones übertragen werden.


6. Kostenvermeidungsmechanismen: Zero-Egress-Objektspeicherung im Zwischenschritt

Selbst bei einem Mesh-Overlay, das NAT-Gateway-Verarbeitungsgebühren eliminiert, löst der direkte Cloud-übergreifende Datentransfer weiterhin AWS Data Transfer Out-Gebühren bei Standard-Internet-Egress ($0.09/GB nach Freistufe) aus. Für hochvolumige Analytics-Pipelines und Data-Warehouse-Synchronisations-Workloads bleibt dies eine bedeutende Kostenstelle.

Die architektonische Lösung ist Zero-Egress-Intermediate-Object-Storage — speziell Plattformen wie Cloudflare R2 und Backblaze B2, die beide $0.00 für Egress berechnen, im Vergleich zu AWS S3 mit $0.09/GB.

Die Staging-Architektur funktioniert wie folgt:

  1. AWS-Compute-Knoten pushen Delta-Updates in einen Cloudflare R2-Bucket via API, die S3-kompatibel ist. R2 berechnet nur Speicher ( $0.015/GB/Monat ) und Operationen — keine Egress-Gebühr für das Schreiben.
  2. Die GCP-Umgebung, verbunden über das Mesh-Overlay, liest direkt aus R2 mit der gleichen S3-kompatiblen API. R2 berechnet keine Egress-Gebühr beim Lesen.
  3. Netto-Egress-Kosten für die AWS-zu-GCP-Datenpipeline: $0 Übertragungsgebühren, im Vergleich zu $0.09/GB bei direkter Verbindung zwischen den beiden Clouds.

Der operative Kompromiss ist Latenz und Konsistenzmodell: R2 ist eventual consistent, und der Staging-Hopp führt zu Pipeline-Verzögerung. Für Near-Real-Time-Anforderungen ist der oben beschriebene AWS Interconnect-Ansatz geeigneter. Für Analytics-Pipelines mit Stunden- oder Tages-Refresh-Intervallen eliminiert das R2-Staging-Muster die DTO-Kosten vollständig.

Die Kombination aus NAT-Gateway-Entfernung durch Mesh-Deployment und Zero-Egress-Staging kann in der richtigen Architektur die Kosten für Multi-Cloud-Analytics-Netzwerke um bis zu 85 % senken.


7. Praktische Kosten-Benchmarks

Traffic-Muster Standard-Architektur Optimiertes Mesh + Staging
10 TB/Monat AWS → GCP (Analytics-Synchronisation) ~$900/Monat (Egress + NAT) ~$15/Monat (R2-Speicher nur)
50 TB/Monat Content Delivery von AWS ~$4.300/Monat ~$500/Monat (CDN-Entlastung, 40–60 % günstigere CDN-Egress)
Cross-AZ-Mikroservices (500 GB/Tag) ~$300/Monat ~$30–60/Monat (AZ-optimiertes Routing)
NAT-Gateway (2 TB/Monat zu S3) ~$165/Monat $0 (kostenloser VPC-Gateway-Endpunkt)

VPC-Gateway-Endpunkte für S3- und DynamoDB-Verkehr sind kostenlos und können die NAT-Gateway-Verarbeitungsgebühren um 40–70 % reduzieren für Workloads, die internen AWS-Verkehr unnötig über NAT routen. Dies ist die höchstwirksame, geringfügige Optimierung und sollte die erste Änderung sein, die jedes Team vornimmt.


8. Ausblick: Managed Interconnects und das Ende der Per-GB-Abrechnung

Der Start von AWS Interconnect – Multicloud signalisiert etwas Bedeutenderes als eine einzelne Produktveröffentlichung. Es stellt die erste ernsthafte strukturelle Herausforderung für das Per-GB-Egress-Modell dar, das die Cloud-Netzwerkökonomie seit fünfzehn Jahren prägt.

Der Wechsel von AWS zu bandwidth-basierten Flat-Rate-Preisen für Cloud-übergreifenden Traffic — ohne zusätzliche Per-GB-Gebühren innerhalb der bereitgestellten Bandbreite — schafft direkten Wettbewerbsdruck auf die Standard-Egress-Preise aller drei großen Anbieter. Während das Interconnect auf weitere Region-Paare ausgeweitet wird, Azure und Microsoft in das Programm aufgenommen werden und Neocloud-Teilnehmer über die offene Spezifikation anziehen, werden sich die Ökonomien des grenzüberschreitenden Datenverkehrs grundlegend verschieben.

Für Teams, die heute große Mengen an Cloud-übergreifenden Daten bewegen, lautet der Entscheidungsrahmen:

  • Bei ~850 TB/Monat bidirektionalem grenzüberschreitendem Datenverkehr: Mesh-Overlay + Zero-Egress-Staging ist der kostengünstigste Weg.
  • Über ~850 TB/Monat oder bei latenzkritischen SLAs: AWS Interconnect – Multicloud (AWS ↔ GCP derzeit, Azure später 2026) bietet deterministische Leistung ohne Per-GB-Gebühren.
  • Für alle Architekturen: Kostenlose VPC-Gateway-Endpunkte, CDN-Entlastung, Kompression und AZ-optimiertes Routing eliminieren die kostengünstigen Einstiegspunkte, bevor Infrastrukturänderungen notwendig sind.

Cloud-Anbieter haben Jahre damit verbracht, die Komplexität des Multi-Cloud-Networkings zu monetarisieren. Die Kombination aus Open-Source-Mesh-Tools, Zero-Egress-Storage-Plattformen und jetzt verwalteten Cross-Cloud-Interconnects mit Flat-Rate-Preisen zerlegt diese Einnahmequellen allmählich — nicht durch regulatorischen Druck, sondern durch Engineering.


Alle Preisangaben stammen aus offiziellen Cloud-Anbieter-Dokumentationen und unabhängigen Analysen vom April 2026. Tatsächliche Gebühren variieren je nach Region, Volumenstufe und verhandelten Enterprise-Agreements. Überprüfen Sie stets die aktuellen Preise Ihres Anbieters, bevor Sie architektonische Entscheidungen treffen.

Keep building with InstaTunnel

Read the docs for implementation details or compare plans before you ship.

Share this article

More InstaTunnel Insights

Discover more tutorials, tips, and updates to help you build better with localhost tunneling.

Browse All Articles