Am MIT entwickeln Wissenschaftler das Web der Zukunft
Nicht nur Streaming-Services für Videospiele ->Onlive oder ->Gaikai dürften sich darüber freuen, was da jüngst vom ->Massachusetts Institute of Technology verlautbart wurde. Beide Anbieter sind in Zukunft für die Darstellung von High-End-Games oder Filmen in HD-Auflösung auf den Ausbau des Internets angewiesen. Professor ->Vincent Chan und sein Team gewinnen durch neue Übertragungsprotokolle und die Ausmerzung technischer Engpässe einen Faktor zwischen 100 und 1000 bei der Geschwindigkeit des weltumspannenden Nervensystems. (Quelle: ->MIT: An Internet 100 Times as Fast)
Die bisherigen Technologien drohen schon bald nicht mehr auszureichen, immer mehr Menschen mit zunehmend besserer visueller Darstellung zu verwöhnen – also, die transportierten Datenvolumen weiter in die Höhe zu treiben. Darüber hinaus stellt sich für besonders die obigen Webdienste auch die Frage nach der Reaktionsschnelligkeit. Wer will schon in einem Videospiel zwischen dem Abfeueren einer Waffe und dem Einschlag des Projektils einen Kaffee aufsetzen gehen.
Diesbezüglich kritisierte KEIMLING den Service Onlive zuletzt in dem Artikel ->INNOVATION: Nimm nicht immer den Server so voll! recht scharf. Mit den Ergebnissen der Forscher könnte sich das Traumgespinst allerdings schon eher in ein realistisches Zukunftsnetz verwandeln…
Bisher schienen die vollmundigen Ankündigungen von Streaming-Anbietern für Videospiele ein Fall für die Empfehlung psychologischer Betreuung zu sein. Zumindest traute sich bislang keiner von jenen an eine Vorführung ihrer Dienste unter realistischen Bedingungen heran. Im letzten Jahr tingelten beispielsweise die Produzenten von Onlive durch die Lande, priesen die Reaktionsschnelligkeit ihrer Dienste, vermieden aber darauf hinzuweisen, dass man vom Präsentationsort ihren Server fast schon hätte sehen können.
Zwar durfte in diesem Jahr die Gamestar im Rahmen der ->Electronic Entertainment Exposition (E3), die im Juni in Los Angeles stattfand, endlich einmal den Onlive-Dienst testen. Dafür fuhr Redakteur Roland Austinat extra nach San Francisco (siehe Gamestar.de: ->OnLive – Erfahrungsbericht: Wir haben das Spiele-Streaming ausprobiert). Allerdings fand auch dieser Test immer noch nicht unter realen Bedingungen statt, befindet sich doch die Onlive-Zenrale immer noch nur einen virtuellen Steinwurf entfernt.
Den Spielspaß verruckelnde Lags können so sicherlich für die Präsentation vermieden werden. Ob der Service unter realen Bedingungen hält, was er verspricht, ist so jedoch nicht überprüfbar. Was ist, wenn man in San Francisco angemeldet ist, aber von Dallas aus spielt? Nicht in jeder Stadt der Welt wird – vermutlich allein aus Kostengründen – eine Serverfarm entstehen? Was geschieht bei einem Umzug von SF nach NYC? Kopiert Onlive dann die Spiele und Speicherdaten durch das Land? Oder greift der Nutzer dann weiter auf die Server am Pazifik zurück? Dazu kommen dann weniger technische Fragen, wie der Dauerhaftigkeit solcher Services und der Frage nach dem Verfall eigener Spiele, sollte der Service insolvent werden.
Technologisch sei allerdings noch einiges verbesserungsfähig. Das Internet besteht zwar größtenteils aus Glasfaserverbindungen, die Daten sehr effizient verbreiten. Allerdings treffen sie bei Routern auf Datenknoten, in denen die Lichtimpulse bislang nur schwer verarbeitet werden können. Probleme entstehen genau dann, wenn Signale von unterschiedlichen Richtungen gleichzeitig in einem Router eintreffen. Optische Signale können dann nicht zwischengespeichert werden. Daher werden sie auf elektrische Signale umgewandelt. Nach der Verarbeitung gelangen sie als Lichtimpulse wieder ins Netz – ein Hemmnis vergleichbar mit der Verengung einer Autobahn auf eine Fahrspur; oder dem Hamburger Elbtunnel in Stoßzeiten.
Die Forschungsgruppe um Chan schuf optische Netzwerke, die ohne diese Engpässe auskamen, verbesserte zudem die Effizienz der Übertragungsprotokolle. Ein Konzept namens flow switching soll nach Chans Vorstellungen feste Verbindungen zwischen Hauptrouten des Webs etablieren. Zwischen denen würden Signale nur noch in einer Richtung verwaltet, müssten also nicht zwischengespeichert werden – in einem optischen System ohnehin fast undenkbar.
Zudem könnte für einen speziellen Kunden mit großem Datenverkehr eine bestimmte Wellenlänge festgelegt werden, die mehr oder weniger Datendurchsatz ermöglicht. Temporäre Tiefpunkte im digitalen Austausch würden dann aber Bandbreite verschwenden. Nach Chans Vorstellung würden diese Wellenlängen in der Kommunikation je nach Bedarf zugewiesen. Genau diesen Weg verfolgen Chans Übertragungsprotokolle.
Allerdings: Auch wenn man mit optischen Routern deutliche Stromersparnis erwarten kann, kämen auf die Provider erhebliche Investitionen zu, um die Hardware zu erneuern. Denkbar wäre, dass allein der Druck der HD-Entwicklung im Netz die Provider dazu nötigen würde. Allerdings könnten sich auch zwei Netzwerke parallelisieren, wobei Nutzer nur in einem davon alle Vorzüge genießen dürften – gegen Aufpreis natürlich.