Page

Der Entwickler Respawn hat sich die Zeit genommen und einen Artikel zu dem Thema der Cloud-Nutzung veröffentlicht, der verdeutlicht welche Vorteile die Cloud mit sich bringen wird. Unter anderem wird darin von dedizierten Servern gesprochen. Demnach hatte Respawn seinerzeit mit Sony und Microsoft gesprochen, um eine kostengünstige Lösung zu finden.

Man wollte dabei hunderttausende dedizierte Server nutzen können. Jon Shiring, Engineer von Respawn, erklärt weiter das die Xbox Gruppe sich bei ihnen gemeldet hätte und eine Möglichkeit angeboten hat, um Titanfall tatsächlich auf dedizierten Servern laufen zu lassen.

Diese Server hätten genau das gebracht, was Respawn an zusätzlicher Server-Leistung und Bandbreite gebraucht hätte. Nun konnten die Entwickler eine größere Welt erschaffen, mehr Physik bieten und viel mehr KI einsetzen.

Die Xbox LIVE Cloud habe den Vorteil, dass man sich keine Gedanken darüber machen muss, wie viele Server am Releasetag bereitstehen müssen. "Wir müssen auch nicht Provider in der ganzen Welt finden und von jedem neue Server mieten", so Shiring.

Auch um die Server-Verwaltung müssen sich die Entwickler nicht kümmern, ebenso müssen sie keine neuen Versionen auf jeden einzelnen Server kopieren. "Dadurch können wir uns auf Dinge konzentrieren, die unser Spiel unterhaltsamer machen. Das Beste ist, dass Microsoft Rechenzentren in der ganzen Welt hat. Deshalb sollte jeder Spieler von Titanfall eine ständige Verbindung mit niedriger Latenz zu seinem lokalen Rechenzentrum haben."

Respawn betont hierbei besonders, dass Microsoft all dies zu einem fairen Preis anbietet und dabei unter den anderen Hosting-Kosten bleibt.

Titanfall erscheint im Sommer 2014.

Quelle: Respawn Blog

9 Kommentare

XBU ringdrossel Mi, 26.06.2013, 10:37 Uhr

Man kann prinzipiell alles in die Cloud auslagern, was in der Fachsprache als latenztolerant bezeichnet wird. Das bedeutet, zb sowas wie KI-Berechnung, generelles Physikverhalten (zb die Asteroiden von Thorben), oder generell Dinge, die sich gut vorberechnen lassen. Forza hat zb einen geplanten Streckenverlauf, wenn dort nach Kurve X beispielsweise eine Crowd jubeln soll, kann das vorberechnet werden. Da dort die Latenz (Verzögerung) nicht so sehr ins Gewicht fällt. Dedizierte Server sind ein weiteres Beispiel für latenztolerante Prozesse, die sich prima auslagern lassen.

Was geht nicht? Alles was latenzintolerant ist. Das bedeutet zb die Echtzeit-Berechnung von 3D Modellen oder auch die Darstellung von Texturen. Sobald man hier auch nur den Hauch einer Verzögerung hätte, würde das Spiel schnell unspielbar werden. Auch werden keine dicken Grafikpakete in Echtzeit durch die Leitung gequetscht, weil diese sonst ebenfalls blockieren würden.

Welchen Vorteil hat der Gamer dadurch? Alles was ausgelagert wird, schon die Ressourcen der Konsole. Desto mehr Power ist dann beispielsweise zur Berechnung von Effekten und cooleren Grafiken möglich. Glaube der Vorteil von dedizierten Servern liegt auf der Hand: Keiner leidet mehr darunter, dass Lieschen Müller auf ihrer Konsole ein Spiel hostet und parallel Torrents runterlädt. Das Hosting findet komplett auf einem Server statt. Wird der Ping von Lieschen Müller nun zu schlecht, fliegt sie einfach aus dem Spiel und alle können die Multiplayer-Partie gemütlich weiterzocken.

XBU Lunatik Di, 25.06.2013, 18:40 Uhr

Ajkster schrieb:
Habe bisher das Gefühl es klingt größer als es tatsächlich ist.

Vielleicht um die Ladezeiten um 0.1-1 sekunden zu verkürzen. Aber denke nicht, dass die PR Sprüche von MS der Realität enstprechen!

Ajkster Di, 25.06.2013, 18:23 Uhr

Danke für die Aufklärung. Finde das klingt interessant. Mal sehen in welchem Umfang das am Ende von den Entwicklerstudios genutzt wird. Habe bisher das Gefühl es klingt größer als es tatsächlich ist.

XBU Lunatik Di, 25.06.2013, 17:45 Uhr

Im Idealfall werden kleine Codeschnippsel an die Server geschickt. Dürften nicht größer sein als ein paar Kilobyte sein. Hier möchte man vor allem Lightmaps laden lassen. Die Texturen sind sooo klein, dass man diese fertig berechnetten Texturen eben vom Server bekommt. Das würde die Ladezeiten ein wenig verkürzen. Auch die Echtzeit berechnung von Physikalischen gegebenheiten lassen sich mit einzelnen Code zeilen ausdrücken. Wenn man die fertigen Berechnungen schon in Binärer form bekommt (0 und 1) reden wir hier von einem Stream um die 2.000 Bytes groß. Das packt man selbst mit der Drosselcom locker ;)

Sowas ist aber nur eine Ideale vorstellung. Wie es in der Praxis läuft und wie man dies sinnvoll umsetzen kan, weiß ich leider nicht :smt023 Trotzdem ist genau soetwas, was ein APU eher weniger fordert aber naja.

XBU TNT2808 Di, 25.06.2013, 17:15 Uhr

Es gibt ein Video mit Asteroiden, wo die Rechenleistung der Cloud demonstriert wird

Alle Kommentare anzeigen