- Vitalik Buterin hat einen Fahrplan skizziert, mit dem Ethereum vier besonders quantenanfällige Bereiche des Netzwerks absichern soll.
- Im Fokus stehen Validator-Signaturen, Datenspeicherung, Account-Signaturen und Zero-Knowledge-Proofs.
Vitalik Buterin hat die Debatte um Quantenresistenz bei Ethereum auf eine konkretere Ebene gezogen. Statt vager Warnungen liegt nun ein technischer Rahmen auf dem Tisch. Es geht um vier Teile des Netzwerks, die aus seiner Sicht besonders anfällig wären, falls Quantencomputer klassische Kryptografie irgendwann praktisch angreifen können.
Vier Stellen, an denen Ethereum verwundbar wäre
Buterin nennt zuerst die Validator-Signaturen. Dort setzt Ethereum bislang auf BLS-Signaturen im Konsens. Dieses Element ließe sich nach seiner Darstellung durch „Lean“ ersetzen, also durch quantensichere, hashbasierte Signaturen. Der Punkt klingt trocken, ist aber zentral, weil genau hier die Integrität des Konsensmechanismus hängt.
Daneben rückt er die Datenspeicherung in den Blick. Für sogenannte Blobs nutzt Ethereum derzeit KZG. Künftig könnte dieser Baustein durch STARKs ersetzt werden, die als quantenresistenter gelten. Gleichzeitig geht es um Nutzerkonten. Die heute üblichen ECDSA-Signaturen wären in einem Post-Quantum-Szenario angreifbar, weshalb Accounts langfristig auf flexiblere Signaturmodelle umgestellt werden müssten, einschließlich quantenresistenter Verfahren.
Die eigentliche Schwierigkeit liegt im Übergang
Ganz simpel ist dieser Umbau nicht. Buterin weist selbst darauf hin, dass die Wahl der passenden Hash-Funktion heikel ist, weil diese Entscheidung sehr lange Bestand haben dürfte. Er formuliert es fast nüchtern, aber der Satz sitzt. Das könnte Ethereums letzte Hash-Funktion sein.
Noch sperriger wird es bei Zero-Knowledge-Proofs. Quantensichere Beweise wären onchain sehr teuer. Deshalb setzt der Plan auf rekursive Aggregation auf Protokollebene. Vereinfacht gesagt sollen Signaturen und Nachweise gebündelt werden, damit nicht jeder einzelne Nachweis separat auf der Chain verifiziert werden muss. Das soll die zusätzlichen Rechen- und Gaskosten stark drücken, ohne die Umstellung an der Oberfläche zu kleinzureden.







