Immer wenn Meldungen wie »Neuer DDoS-Spitzenwert: 29,7 Terabit pro Sekunde« auftauchen, erinnere ich mich an ein Gespräch, in dem ein Kollege dies als Beleg für die Notwendigkeit digitaler Souveränität deutete. Ich sah das damals anders und notiere die Gedanken dazu noch einmal.
Angriffe in dieser Größenordnung können derzeit nicht viele Rechenzentren abwehren. Verlässlich gelingt das nur den großen Hyperscalern. Wer sich von ihnen lösen und dennoch wirksam schützen will, bräuchte andere regulatorische oder strukturelle Voraussetzungen. Zwei Ansätze liegen nahe.
Erstens: Angriffe bereits im Backbone zu filtern oder zu blockieren. Das würde allerdings voraussetzen, dass Betreiber ihre Netzneutralität nicht mehr vollständig einhalten und den gesamten Datenverkehr überwachen und unterschiedlich behandeln. Im Extremfall müssten sie sogar verschlüsselte Verbindungen wie HTTPS aufbrechen. Gegen solche Eingriffe wird seit Langem argumentiert.
Zweitens: Eine grundlegende Weiterentwicklung der Internetarchitektur. Heute greifen viele Nutzer auf die Ressourcen weniger zentraler Anbieter zu, um Webseiten oder Dienste zu erreichen. Das erzeugt ein Trichterprinzip, bei dem die Endpunkte stabiler sein müssen als die Vielzahl möglicher Angreifer. Würde man dieses Prinzip auflösen und stärker auf Peer-to-Peer-Verbindungen setzen, ähnlich dem Bittorrent-Protokoll, ließen sich Ziele breiter verteilen. Anfragen wie DNS oder die Auslieferung von Webseiten könnten dann über viele kleine Knoten laufen und wären schwerer zu überlasten.
Ob dies tatsächlich die einzigen Wege sind oder technisch überhaupt funktioniert, weiß ich nicht. Ich halte die Überlegungen fest, um sie später mit der tatsächlichen Entwicklung vergleichen zu können.
Möchtest du mir antworten?
Schick mir eine Nachricht per E-Mail und lass uns ein Dialog beginnen. Du kannst mir auch per RSS oder Mastodon folgen.