• Cloudflare bestätigte, dass kein Cyberangriff stattfand, sondern ein übergroßer Datensatz im Bot-Management die Software zum Absturz brachte.
  • Bis zu 20 Prozent des Internetverkehrs und zahlreiche Plattformen wie Coinbase, Ledger, X und ChatGPT waren zeitweise nicht erreichbar.

Cloudflare hat den großflächigen Ausfall vom Dienstag auf einen internen Fehler in seinem Bot-Management-System zurückgeführt. Ein sogenannter „Feature File“, der zur Abwehr automatisierter Angriffe genutzt wird, wuchs über den vorgesehenen Grenzwert hinaus und löste ein Fehlverhalten in der Software aus.

Die Folge war eine Kaskade von Störungen in kritischen Diensten, die sich weltweit bemerkbar machte. Erste Untersuchungen hatten ein hypergroßes DDoS-Szenario nahegelegt. Der Anbieter stellte inzwischen klar, dass es weder einen Angriff noch böswillige Aktivitäten gab.

In einer Stellungnahme bat das Unternehmen um Entschuldigung und betonte die Tragweite. Cloudflare ist in den Datenpfad von rund einem Fünftel des globalen Internetverkehrs eingebunden und stellt Schutz-, Caching- und Routing-Funktionen für etwa ein Drittel der 10.000 größten Websites und Anwendungen bereit.

Entsprechend breit fiel die Störung aus. Neben großen Krypto-Plattformen wie Coinbase, Blockchain.com, BitMEX, Toncoin, Arbiscan und DefiLlama waren auch X und ChatGPT zeitweise nicht erreichbar oder nur eingeschränkt nutzbar.

Kettenreaktionen in Krypto und Web-Infrastruktur

Die Störung hatte unmittelbare Effekte auf Handels- und Informationsflüsse im Kryptosektor. Börsen meldeten Verzögerungen bei Logins und Orderausführung. Blockexplorer lieferten zeitweise keine Abfragen.

Wallet-Dienste warnten vor unterbrochenen API-Verbindungen. Für professionelle Nutzer standen damit zentrale Funktionen wie Kursdaten, Signaturen in Browser-Wallets und KYC-Abläufe nur eingeschränkt zur Verfügung.

Sichtbar wurde, wie stark selbst dezentral ausgerichtete Ökosysteme auf zentrale Internet-Schichten angewiesen sind, von DNS- und CDN-Diensten bis zu Web-Firewalls und Bot-Filtern.

Der Vorfall folgt auf eine Netzstörung bei Amazon Web Services im vergangenen Monat, die ebenfalls Ausfälle bei Krypto-Diensten nach sich zog. In Summe verstärken beide Ereignisse die Diskussion über Resilienz und Single Points of Failure in der Marktinfrastruktur.

Für Betreiber rücken drei Aufgaben in den Vordergrund. Erstens technische Entkopplung, etwa durch Multi-CDN-Strategien, Fallback-DNS und redundante API-Endpunkte.

Zweitens Betriebsdisziplin, von Grenzwerte-Monitoring über Canary-Releases bis zu automatisierten Rollbacks. Drittens transparente Kommunikation mit Nutzern und Gegenparteien, um Fehlalarme zu vermeiden und Wiederanläufe koordiniert zu steuern.

Cloudflare kündigte an, die internen Grenzwert- und Validierungsmechanismen im Bot-Management zu überarbeiten. Ziel ist es, Oversized-Konfigurationen frühzeitig zu blockieren, selbst wenn sie im laufenden Betrieb entstehen.

Zudem sollen Abhängigkeiten zwischen Datenbank-Schichten und Edge-Software stärker segmentiert werden, damit ein einzelner fehlerhafter Datensatz nicht globalen Einfluss entfaltet.

Für Kunden relevant sind künftige Hinweise zu neuen Limits, Protokollen für schrittweise Ausrollungen und Notfallpfaden, die bei Fehlkonfigurationen automatische Rücknahmen auslösen.

Für regulierte Marktteilnehmer bleibt die Dokumentation des Ausfalls und der Übergang auf Normalbetrieb zentral. Interne Risiko- und Audit-Teams werden prüfen, ob Service-Level-Agreements eingehalten wurden und ob die eigenen Runbooks genügend Redundanz vorsehen.

In Krypto-Geschäftsmodellen, die auf Echtzeit-Kursen und permanenter API-Erreichbarkeit beruhen, könnten Lessons Learned kurzfristig zu architektonischen Anpassungen führen. Dazu zählen Zwischenspeicher für Preisfeeds, alternative RPC-Routen, breitere Health-Checks und Playbooks für „degraded mode“, um Kernfunktionen trotz externer Störungen aufrechtzuerhalten.