Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Software & Infrastruktur

255 Terabit pro Sekunde: Wissenschaftler stellen mit Glasfaser neuen Rekord auf

Der Stoff, aus dem schnelles Internet gemacht wird: Glasfaser. (Bild: © courtneyk – iStock.com)

Mit Lichtgeschwindigkeit durch die Leitung: Die Glasfaser macht es möglich. Leider kann die Technologie bislang noch nicht völlig ausgeschöpft werden. Nun ist der Forschung aber eine signifikante Verbesserung gelungen.

Niederländische und amerikanische Forscher haben Daten mit 255 Terabit pro Sekunde durch ein neuartiges Glasfaserkabel geschickt. Mit einer 21-fachen Steigerung könnte dieses Kabel das zunehmende Bandbreitenproblem lösen, das gerade für Datenzentren eine Herausforderung darstellt.

Glasfaser
Der Stoff, aus dem schnelles Internet gemacht wird: Glasfaser. (Bild: © courtneyk – iStock.com)

Viel mehr Licht in etwas mehr Glasfaser

Das neue Glasfaserkabel, das Forscher der Eindhoven University of Technology und der University of Central Florida entwickelt haben, lässt die Übertragung von enormen Datenmengen im Petabit-Bereich in greifbare Nähe rücken.

Ermöglicht wird diese überragende Geschwindigkeit durch die Einführung zweier weiterer orthogonaler Dimensionen: Dadurch werden zusätzliche Lichtsignale in noch engerem Abstand zueinander durch das Kabel transportiert. Zusätzlich konnte die Anzahl der Lichtkerne von zwei auf sieben erhöht werden. Dabei ist das neue Glasfaserkabel kaum dicker als die bestehenden Systeme.

Mit dem neuen System sei es möglich, so die Forscher, eine 1GB-Datei in 31,24 Mikrosekunden zu übertragen.

Offen bleibt, bis wann die Verbesserung auch für den Endverbraucher spürbar ist, was denkt ihr?

via www.golem.de

Bitte beachte unsere Community-Richtlinien

3 Reaktionen
Rene Baumann

Also das funktioniert leider nur auf kurzen Strecken und damit innerhalb von Daten Zentren, weil generell immer das Shannonsche Theorem gilt. Und das besagt, je länger die Strecke desto schwerer wird es hohe Datenraten zu erzielen. Genauso wie beim Mobilfunk auch.
Deswegen interessiert mich erstmal bei dem Versuch welche Wegstrecke zurück gelegt wurde. Ausserdem ist die Frage ob es über eine oder mehrere Wellenlängen übertragen wird. Und es gibt hierzu noch weitere Fragezeichen.
Das ist für mich erstmal nur ein Versuch und diese Weisen lediglich die Richtung. Es gibt so viele Faktoren die gerade die Produktion und Verarbeitung dieser Daten betreffen. Es gibt keinen Rechner bzw. Ein System dass diese Daten verarbeiten kann.
Heute ist es machbar 200 und 400 GBit pro Wellenlänge mit 88 multipliziert zu übertragen. Der Rekord liegt bei 3000km mit 8,8TBit über eine einzelne Faser zu übertragen. Das ist schon sehr gut. 100GBit Technik ist heute Standard Kein Netzbetreiber der Welt nutzt bis heute überhaupt so einen extremen Neuaufbau weil es so teuer ist.
Das teure ist dann Nicht mal unbedingt das Gerät zum verarbeiten sondern die Leitungen. Und wenn ich dann auf einmal 8 anstatt zwei Kabel verlegen muss wird noch viel Zeit verstreichen.
Ich hab nur einige Punkte genannt. Es gibt noch viel mehr was ich aus meiner täglichen Arbeit erzählen könnte.
Ich denke dass ist nicht in absehbarer Zeit machbar. Jetzt konzentrieren sich die meisten erstmal auf Datenraten die machbar sind und sich verkaufen lassen.

Antworten
Mario Janschitz

Hallo Rene, danke für deinen Einwurf. Ich nehme an, du meinst das Shannon-Hartley-Gesetz? Ist es nicht zu vernachlässigen, dass ich Bits mehrmals übertragen muss? Immerhin muss der Störabstand doch bei jeder Übertragung beachtet werden – ich sehe nicht was du kritisierst?

Ich würde mich über eine fachliche Antwort freuen. Mein Wissen in der Übertragungstechnik ist begrenzt.

Antworten
Rieni

Hi Mario,

ich bin auch kein Physikexperte, aber ich bin stark damit jeden Tag konfrontiert, weil ich Weiterverkehrsnetze teste. Sprich Was ich sagen will ist, dass man heutzutage mehr und mehr versucht pro Symbol mehr Bits zu uebertragen, um die Uebertragungsrate zu steigern. Modulationsarten und Forward Error Correction (FEC) sind ein wichtiger Teil um den Uebertragungsweg lang zu halten.
Was ich hier kritisiere ist eigentlich, dass hier gross geschrieben wird 255TBit aber nicht gesagt wird, welche weiteren Bedingungen hier gegolten haben.
Wie lange ist die Strecke gewesen? Wie viele Bits pro Symbol?
Modulation waere damit also interessant.
Wahrscheinlich wurde auch kein FEC verwendet, um die reine Brutto-Datenmenge zu maximieren.
Klar fuer sehr kurze Strecken mag das funktionieren. Aber nur weil jemand viel Daten in einem Datencenter hin und herschaukeln kann, werden die Endnutzer davon wenig spueren, da laengere Strecken viel interessanter sind, aber eben auch schwieriger zu handhaben, weil der Signal-Rauschabstand viel entscheidender ist. Im Moment ist es schwierig 200GBit ueber eine lange Strecke pro Wellenlaenge zu uebertragen. Da sind maximal 800km drin. Selbst wenn ich also 88 Wellenlaengen sauber auf eine Faser hinstelle und wirklich richtig viel Asche als Provider ausgebe, komme ich nur auf knapp 18 TBit und habe zwei Datencenter verbunden. Vollvermaschung ist utopisch teuer.
Ich kritisiere also einerseits, dass der Artikel einfach nur Klicks generiert aber nicht auf Details eingeht und andererseits, dass es fuer Endnutzer erst mal wenig bringt.

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.