Vollmundig angekündigter Streaming-Service startet als Luftnummer
Mit dem Start der ersten Beta-Tests des Streaming-Services -> OnLive, der eigentlich die Spielergemeinde von ihren zuhause gelagerten Gamesmassen entledigen will, scheinen sich die vorjährigen Ankündigungen in heiße Luft aufzulösen. (KEIMLING berichtete in der -> NEWS: Streamer, you know, you are a streamer vom 12. Mai 2009.)
Ein Service wie OnLive und auch das Konkurrenzprodukt -> Gaikai speichert auf einem externen Server Videospiele und führt sie dort aus, sendet aber die dort berechneten Bilder nach Hause an den heimischen Computer. Laufen soll der Service auf jedem Computer, auf Macs und einem günstigen Abspielgerät, das OnLive selbst entwickelt. Das dorthin geschickte Streaming kann jedoch insbesondere bei anspruchsvollen und hektischen Shooter nur dann brauchbare Bildraten auf dem Monitor liefern, wenn der sogenannte Ping erträglich gering ist. Dieser Ping misst die Zeit, die ein Signal zwischen dem Server und dem Heimrechner benötigt. Geht dieser in die Knie, ruckelt der Gamesservice – das Spielerlebnis verkommt zur Stop-Motion-Enttäuschung.
Eben diese Übertragungsgeschwindigkeit scheint bei den ersten Tests des Systems OnLive arg gelitten zu haben (-> OnLive gets demoed, lag is a problem, in: Techspot, 25. Januar 2010)…
Microsoft und Sony als Konsolenhersteller, deren Geschäftsmodell sich mit einem solchen, funktionierenden Service wohl bald überlebt hätte, zeigten sich angesichts der Performance-Probleme von OnLive wenig beeindruckt. Die Technologie sei „not there yet“, zitierte das Webportal -> CVG die Hersteller (-> OnLive Lag Explained by CEO, in: computerandvideogames.com, 23. Januar 2010). Patrick Seybold, Sony Computer Entertainment America, kritisierte den Dienst schon früher im Jahr 2009. Vor allem habe er erhebliche Zweifel, dass die großen Mengen an Hochleistungsservern wirtschaftlich bereit gestellt werden könnten. Die zu erwartenden Preise für die Endkunden stimmten skeptisch. (->Sony Doubts OnLive Approach, in: Edge Online, 1. April 2009)
Auch die prinzipielle Skepsis vieler Experten gegenüber dieser Technologie war von Anfang an groß. Am Prominentesten äußerte sich Matt Peckham vom Magazin PC World im März 2009 mit sechs Gründen, warum der Service eine Pleite werden könnte. (-> GDC 09: 6 Reasons Onlive Could Be a Bust, in: PC World Game On Blog, 25. März 2009). Auf der positiven Seite stehen Elemente wie die Vereinfachung des Spielzugangs ohne Lagerung, Speicherplatz oder Hardware bei Nutzern und Händlern, wie das Ende bugverseuchter Spiele, wie der Vorteil einer Demo für jedes Spiel, das angeboten wird, und schließlich umfassender Piraterie-Sicherheit.
Dagegen stehe jedoch seine Vermutung, dass eine ausreichende, genügende Bandbreite für die Spielverbindung kontinuierlich überhaupt nicht vorgehalten werden kann. Schon eine herkömmliche Internetverbindung leide von Zeit zu Zeit unter reduzierten Bandbreiten durch die Provider.
Für die realen Bedigungen würden zudem die bisher gezeigten Vorführungen der Performances zum Beispiel von -> Crysis nichts aussagen. Um über das Netz wenigstens 720p-Videos zu übersenden, müssten die Daten so komprimiert werden, das Verwaschungen überhaupt nicht auszuschließen sein. Besonders bei Shootern, die auf schnelle Bewegungen angewiesen sind, könnte das störend wirken.
Was geschieht, so fragt Peckham, wenn die Verbindung abreißt? Legt OnLive automatische Speicherstände an, die das Spielerlebnis retten? Immerhin plane der Service nicht nur Casual Games wie -> Bejeweled anzubieten, sondern High-End-Vollpreistitel.
Bedauerlich sei auch das Ende der Modding-Szene, das OnLive einläuten würde. Ist der Inhalt eines Spieles am Ende der Leitung auf einem Server eingesperrt, entstehen keine veränderten Skins und keine Totalkonversionen von Spielen mehr. Eine bunte und lebhafte Szene im Kreise der Spieler würde absterben, die bei so vielen Spielen bislang mit innovativer Kreativität überraschte.
Zudem werde OnLive das Benutzerverhalten analysieren, auswerten und wirtschaftlich ausnutzen. Ein Abo-Dienst, bei dem sich die Spieler einen Account einrichten müssen, protokolliert sämtliche Schritte der Nutzer. Wer mit einer solchen Praxis nicht einverstanden ist, müsste das Spielen in Zukunft sein lassen.
Zuletzt kritisiert Peckham, dass ein Nutzer des Services nichts besitze außer den Nutzungsrechten. Was geschieht jedoch bei einem Zusammenbruch eines Spieleanbieters? Verschwinden dann auch die gekauften Spiele einfach so aus dem Zugriff des Spielers? Oder noch viel gravierender: Was ist, wenn OnLive selbst pleite macht. Dann dürfte der Spieler am Ende ohne seine bezahlten Spiele dastehen.
Zur Zeit stehen jedoch namhafte Publisher klar hinter dem Service, die damit die herkömmlichen Bezugssysteme für Spiele über den Haufen werfen wollen. Darunter befinden sich illustre Namen der Branche wie -> Electronic Arts, -> THQ, -> Take-Two Interactive, -> Codemasters, -> Eidos, -> Atari, -> Warner Bros. Interactive, -> Epic Games und -> Ubisoft. Doch zum Start des Services, der für Ende 2009 geplant war, sollte es bereits 16 Spiele geben, darunter Blockbuster wie den Edelshooter Crysis aus Deutschland. (-> „OnLive“-Vertrieb: Videospiele stehen vor ihrer größten Revolution, in: Welt Online, 24. März 2009).
Der CEO von OnLive, Steve Perlman, sagte dem Webmagazin CVG, dass die Server-Lags durch jeden entstünden, der nicht von einunddemselben Ort einlogge und dabei nicht einunddieselbe ISP und einunddenselben PC nutzen würde (-> OnLive Lag Explained by CEO, in: computerandvideogames.com, 23. Januar 2010). Angeblich würde OnLive in der Beta nicht laufen, wenn man nur einen dieser Faktoren ändere. Selbst wenn es dann laufe, würden Lags oder die grafische Performance Rendergames unspielbar machen.
Der Grund dafür sei nun mal die Lichtgeschwindigkeit, denn mehr als 1000 Meilen entfernt vom Ort eines Rechenzentrums von OnLive sei der Ping zu lang für schnelle Actionspiele. Entscheidend sei, in welchem der drei Beta-Zentren man sich ursprünglich angemeldet habe. Wechsle man daher von der Ostküste an die Westküste und greife dann auf den ursprünglichen Account zu, erhalte man ein Lag, dass die meisten Spiele unspielbar mache.
Nun ist aber nicht nur die Lichtgeschwindigkeit allen Beteiligten schon länger bekannt, auch die Serverorganisation auch könnte man als schlechte Vorbereitung und Planung bezeichnen. Warum die Server nicht selbst erkennen, von welchem Ort sich der Nutzer einloggt, und dann unabhängig vom Erstaccount auf das nächste Datenzentrum von OnLive verweisen, bleibt schleierhaft.
Schwer nachprüfbar ist, ob die mangelhafte Performance wirklich auf die Erklärung von Perlman zurückzuführen ist. Möglicherweise gibt es auch grundsätzliche Defizite der Kompressionsmethode, mit der die Daten zum Nutzer transportiert werden sollen. Erst grundlegende, unabhängige Tests nach der Betaphase werden hier wohl Klärung schaffen.
2 Gedanken zu „INNOVATION: Nimm nicht immer den Server so voll!“