1 | Auch im Backbone kann es immer einmal zu Engpässen kommen. |
2 | Datenpakete werden über Router in Richtung zu ihrem Zielort |
3 | auf den Weg gebracht. Damit müssen alle Datenpakete |
4 | regelmäßig Routing-Rechner durchlaufen, die über den |
5 | weiteren Weg entscheiden. Die Router sind so ein erster |
6 | potentieller Engpass. Das Routing geschieht innerhalb der |
7 | Einzelnetze, und hier findet tatsächlich auch heute schon |
8 | regelmäßig eine Priorisierung im Rahmen der im |
9 | IPv4-Protokoll möglichen Einteilung in Dringlichkeitsklassen |
10 | statt. Allerdings entscheidet jeder Netzbetreiber für sich, |
11 | welche Informationen er priorisiert. Kommt es zum Auflaufen |
12 | von mehr Daten, als der Router zurzeit verarbeiten kann, |
13 | werden die Datenpakete zunächst kurz in „Queues“ geparkt, |
14 | die dann nach Priorisierungsgrad abgearbeitet werden. Nach |
15 | kurzer Zeit (für jede Klasse wiederum vom Betreiber |
16 | individuell konfiguriert) werden nicht bearbeitete |
17 | Datenpakete aber verworfen, so dass sie neu angefordert |
18 | werden müssen. An den Netzgrenzen werden bei der Übergabe |
19 | der Daten die netzspezifischen Priorisierungsinformationen |
20 | in aller Regel komplett verworfen und es werden ggf. eigene |
21 | Priorisierungszuordnungen vorgenommen. |
22 | |
23 | Die Übergabe in ein anderes Netz (entweder in das Zielnetz |
24 | oder auch in ein Transitnetz) ist der zweite Punkt, an dem |
25 | es zu Engpässen kommen kann. Hier kann es entweder zu einer |
26 | Überlastung des Peering-Punktes kommen oder aber es bestehen |
27 | schlicht unzureichende Leitungskapazitäten in ein bestimmtes |
28 | Netz. Engpässe können hier insbesondere bei |
29 | Interkontinentalverbindungen (i.d.R. Seekabel) auftreten. |
30 | |
31 | Folge solcher Engpässe werden immer Aufrüstungen durch |
32 | Schaffung neuer Leitungs- bzw. Rechnerkapzitäten sein. Diese |
33 | sind im Backbone-Bereich relativ gut kalkulierbar und nach |
34 | Erwartung der meisten Experten unproblematisch möglich. |
35 | |
36 | Als Beispiel kann auch hier der deutsche Peering-Knoten |
37 | DE-CIX dienen, dessen Topologie heute schon für ein |
38 | Datenaufkommen von bis zu 40 Terabit/s gerüstet ist |
39 | [Fußnote: |
40 | http://www.onlinekosten.de/news/artikel/40562/0/DE-CIX-knack |
41 | t-Terabit-Schallmauer]. Auch bei der Aufrüstung hat damit |
42 | die Entwicklung die Prognosen deutlich übertroffen, denn |
43 | 2006 ging man noch davon aus, dass man bis ins Jahr 2015 |
44 | gerade einmal auf ein Potential für 5 Terabit/s aufgerüstet |
45 | haben werde [Fußnote: |
46 | http://www.heise.de/newsticker/meldung/Internet-Knoten-DE-CI |
47 | X-wird-erweitert-115755.html]. |
48 | |
49 | Vor diesem Hintergrund besteht die Erwartung, dass auch in |
50 | Zukunft in den Backbone-Netzen kein grundsätzliches |
51 | Kapazitätsproblem entstehen wird. |
52 | |
53 | Allerdings führt die dezentrale Struktur des Netzes in der |
54 | Tat zu einem nur bedingt planvollen Investitionsverhalten, |
55 | d.h. dass es in einzelnen Netzteilen dazu kommen kann, dass |
56 | tatsächlich Aufrüstungen erst dann erfolgen, wenn bestehende |
57 | Netzkapazitäten eine relativ hohe Auslastung erreicht haben |
58 | und damit zu Spitzenzeiten auch schon an ihre |
59 | Kapazitätsgrenzen stoßen. Denkbar ist es deshalb, dass es |
60 | immer wieder an einzelnen Teilen des Netzes (insbesondere |
61 | bei Routern, aber auch bei noch gering ausgebauten |
62 | Teilstrecken) zu temporären Engpässen kommen wird. Diese |
63 | werden jedoch nicht von Dauer sein, sondern relativ schnell |
64 | jeweils durch gezielte Investitionen an den entsprechenden |
65 | Engstellen aufgehoben werden. |
66 | |
67 | Inwieweit daher solche temporären und sich ständig |
68 | wandelnden Engpässe tatsächlich die sehr aufwändige |
69 | Einführung eines durchgehenden Quality-of-Service-Regimes |
70 | auch im Backbone-Bereich erfordern, wird unterschiedlich |
71 | beurteilt. |
72 | |
73 | Eine deutliche Entlastung erfahren die Backbone-Netze durch |
74 | Vorkehrungen, die eine effizientere Verteilung häufig |
75 | nachgefragter (und meist datenintensiver) Inhalte |
76 | ermöglichen. Hierzu gehören insbesondere sog. Content |
77 | Delivery (bzw. Distribution) Networks (CDN), mit deren Hilfe |
78 | Inhalte näher am nachfragenden Endnutzer vorgehalten werden, |
79 | so dass bei Abfragen der Inhalt nur über kürzere Strecken |
80 | zum Endkunden transportiert werden muss und die |
81 | Netzwerkinfrastruktur damit weniger belastet wird. Dies |
82 | führt dazu, dass ein Volumenanstieg auf Seiten des |
83 | Endnutzers nicht im gleichen Maße zu einem |
84 | Datenvolumenanstieg im Gesamtnetz führen muss. Dies kann das |
85 | Backbone gerade im Bereich von Langstreckenverbindungen |
86 | entlasten, für die eine Aufrüstung, etwa in Form der |
87 | Verlegung neuer Seekabel, mit einem relativ hohen |
88 | finanziellen Aufwand verbunden ist. |
89 | |
90 | Solche Lösungen stellen damit auch Möglichkeiten dar, eine |
91 | größere Unabhängigkeit von der Leistungsfähigkeit im |
92 | Backbone zu erreichen und damit den Endkunden eine sichere |
93 | und höherwertige Nutzungserfahrung durch verlässlichere |
94 | Zugriffszeiten auch ganz ohne ein übergreifendes Quality-of |
95 | Service-Regime anbieten zu können. |
1-1 von 1
-
1.01.03.02 Backbone (Originalversion)
von EnqueteSekretariat, angelegt