Nvidia: Neue GPU Generation Maxwell mit „VR Direct“ vorgestellt

Wie schon öfter berichtet, arbeiten sowohl Nvidia als AMD an Lösungen um ihre Grafikkarten für VR zu optimieren. Nvidia hat nun erstmals Details zu ihrer neuen Generation, bezüglich der neuen Virtual Reality Features veröffentlicht. Hier findet ihr die neusten News dazu verständlich erklärt.

Maxwell ist die neue GPU die derzeit nur die beiden neuen Karten der GTX-Reihe, die GeForce GTX980 und GTX970, antreibt.  Der Maxwell genannte Kern ist u. a. gezielt dafür designed komplexe Lichtberechnungen und andere komplexe Herausforderungen effizient zu erledigen. Eine dieser komplexen Herausforderungen ist auch Virtual Reality. Hier werden Framerates benötigt die deutlich höher sind, als das, was wir von gewöhnlichen Monitoren gewohnt sind und auch die Ansprüche an die Auflösung wachsen ins Unendliche. Und dabei darf man die Latenz, also die Rechenzeit der Karte, nicht vergessen. Aus diesem Grunde hat Nvidia die neuen Maxwell-Kerne gezielt für VR optimiert.

Laut eigenen Aussagen seitens Nvidia benötigt eine derzeit aktuelle Grafikkarte 50Ms um eine Szene in VR zu rendern. Der neue Maxwell Kern soll diese Zeit halbieren!

top

Hier sind einige Aspekte, welche Nvidia aufführt, wie sie dies Erreichen. Für euch habe ich die meisten Punkte noch mal verständlich erklärt um zu verdeutlichen was hinter den Werbebegriffen steckt, unter denen man sich meist nichts vorstellen kann:

Grund-Latenz

Es wurden alle Schnittstellen und Verbindungen der GPU optimiert, sodass die Latenz darauf basierend schon deutlich geringer wurde.

MFAA

Multi-Frame sampled Anti-Aliasing, ein neuer Algorithmus bei dem mehrere AA Test Positionen genommen werden, um ein AA-Ergebnis zu erzeugen, welches nicht nur hochwertiger ist, sondern auch weniger Rechenleistung benötigt als bestehende Anti Aliasing Algorithmen wie MSAA oder FXAA.

1xaaMan muss sich das so vorstellen: Bevor die Bilder von der GPU gerastert werden, haben die Grafiken keine Einteilung in Pixel, man könnte es eher mit einer mathematischen Funktion beschrieben, welche ja auch viel genauer ist, als das Pixelraster auf den Collegeblöcken, wenn man sie auf Papier zeichnet. Das Raster des Collegeblocks ist quasi unsere Pixelgitter auf dem Monitor. Je nach Auflösung ist das Raster feiner oder grober. Wollen wir nun die Kästchen ausmalen die unsere Funktion durchläuft (Also unsere Funktion rastern) können wir dies auf mehrere Weisen machen. Die einfachste Variante wäre, jedes Kästchen welches von der Linie durchquert wird, wird ausgemalt, alle anderen nicht. Dies entspräche einer Rasterung ohne Antialiasing.

2xaaUm die Linie ein wenig exakter Zeichnen zu können, ändern wir nun unsere Kriterien, die bestimmen, wann ein Pixel ausgemalt wird oder nicht: So können wir zum Beispiel jedes Kästchen unseres Blocks in zwei Teile spalten. Schneidet die Linie beide Teile, wird das Kästchen schwarz ausgemalt. Schneidet das Kästchen nur einen der beiden Teile, malen wir es grau aus. Dies entspricht 2x Antialiasing. Um ein noch besseres Ergebnis zu erhalten, können wir nun jedes Kästchen immer weiter unterteilen und erhalten ein immer genaueres Ergebnis der Linie. (4x, 8x 16x Antialiasing). Jedoch erhöht sich auch jedes mal der Aufwand für jeden Pixel, um zu entscheiden, um zu entscheiden, welche Farbe er bekommt. Zusätzlich werden die Linien ja nicht einmal gezeichnet, sondern im Falle unseres Developer Kit 2 75 mal pro Sekunde. Der Rechenaufwand ist also enorm!

MFAA ermöglicht ein Ergebnis welches dem 2x Antialiasing entspricht mit der Performanz von deaktiviertem Antialiasing. Die Idee ist relativ simpel: Jedes Kästchen wird in 2 Teile geteilt, jedoch wird immer nur ein Teil geprüft. Beim ersten Frame wird das Kästchen also ausgemalt, wenn die Linie den 1. Bereich schneidet. Im darauf folgenden Frame, der dem davorliegenden für gewöhnlich stark ähnelt, wird geprüft ob die Kästchen in der anderen Hälfte geschnitten werden. Für gewöhnlich ändern sich nur einige wenige Kästchen, welche nicht vollständig geschnitten werden. Mit Hilfe eines Algorithmus wird nun das Bild für den 2. Frame berechnet, in dem ein Mittelwert aus dem 1. und 2. Ergebnis berechnet wird. Auf diese Art und Weise erhält man ungefähr das Ergebnis von 2x Antialiasing, mit ungefähr dem Rechenaufwand von deaktiviertem Antialiasing.

Diese Diashow benötigt JavaScript.

MFAA ist eine Maxwell exklusive Technologie und wird in diesem Video noch mal genauer erklärt:

Asynchronous Warp

Hierbei wird der letzte Frame den die GPU vollständig berechnet hat genommen und dieser basierend auf den Headtracking-Informationen asynchron geupdatet ohne, dass der Frame vollständig neu berechnet werden muss. Dadurch dass dieser Vorgang asynchron abläuft, wird die GPU nicht vollständig blockiert und kann weiter an dem nächsten Frame rechnen. Hat man einen 75Hz Monitor,  erhält jedoch nur mit 60Hz neue Frames (Hz ist 1/Sekunde, also 75 bzw. 60 Frames pro Sekunde) von der Grafikkarte, kann diese Technik durch die Berechnung der Zwischenbilder dafür Sorgen, dass die Bildwiederhohlrate des Monitors voll ausgenutzt wird. Dies erlaubt eine noch flüssigere Darstellung des Headtrackings. Jeder mit einem DK2 weiß, weicht die Framerate zu stark von den (aktuellen) 75Hz ab, ruckelt das Bild sehr unangenehm, wenn man den Kopf bewegt. Die Timewarp Implementierung des Oculus SDK funktioniert ähnlich, jedoch sind die Maxwell GPUs darauf optimiert dies ohne Nachteile bei der Berechnung des nächsten Frames auszuführen.

SLI

Bisher erzeugte das Verwenden von 2 Grafikkarten im SLI Modus ein Ruckeln, wenn man dies zusammen mit einem VR Headset verwendet hat. Nvidia hat ihre SLI Implementierung nun dahingehend geändert, dass dies nicht mal der Fall ist. Bisher war es immer der Fall, dass die beiden Grafikkarten sich bei jedem Frame abwechseln und so jede Karte nur noch halb so viele Bilder pro Sekunde rechnen muss. Maxwell wird dies erstmals anders lösen, denn ab dieser Generation wird jedem Display bzw. jedem Display Teil, also jedem Auge, eine GPU zugewiesen für den sie alleine zuständig ist. Dies reduziert ebenfalls die Rechenlast und verhindert das SLI typische Ruckeln mit einem VR Headset.

DSR

Dynamic Super Resolution, ist eine Technologie bei der das Spiel mit einer höheren Auflösung berechnet wird, als der Monitor anzeigen kann. Für gewöhnlich verwendet die GPU die die Auflösung des Monitors als interne Auflösung und sendet das Bild direkt raus. Für eine höhere Framerate kann man die Auflösung in Spielen jedoch reduzieren, sodass die GPU weniger Pixel berechnen muss. Anschließend wird das Bild dann für den Monitor hoch skaliert, sodass immer noch der gesamte Monitor gefüllt ist. Natürlich bietet dies eine schlechtere Bildqualität als das Bild in der nativen Auflösung des Monitors. DSR beschreibt ein ähnliches Verfahren nur genau andersherum: Das Bild wird intern mit einer Auflösung von bis zu 4k berechnet und anschließend für den Monitor wieder kleiner skaliert. Die dabei verwendet Algorithmen, bewirken dass das Bild anschließend deutlich schärfer aussieht.

Es ist das gleiche Verfahren, wie es auch die meisten DK1 Besitzer anwenden, wenn sie die Auflösung der Anwendung auf 1920*1080 setzen, obwohl die die Display Auflösung beim DK1 nur 1280*800 ist. Hier wurde das Bild allerdings von der Controlbox herunter skaliert. DSR erlaubt dies nativ über die GPU  und somit performanter und mit besserer Qualität berechnen zu lassen.

Geforce Experience

Der User muss die Einstellungen nicht von Hand bestimmen, dies übernimmt die Gerforce Experience Software voll automatisch für ihn.

Optimized Content

Nvidia  hat hiermit angekündigt, dass sie mit dieser Technologie, VR Support für alle Anwendungen erlauben wollen, die bereits NVIDIA 3D Vision unterstützen.

 

Abschluss

side

Die größere der beiden Karten, die GTX980, hat eine UVP von 540€ die kleinere GTX970 eine Empfehlung von 320€ und werden die GTX780 Ti, GTX780 und GTX770 ersetzen, welche künftig nicht mehr produziert werden.

Verschiedene Magazine haben bereits Tests zu den Karten veröffentlicht, welche allesamt positiv ausfallen. u.A.: Computer Base, Gamestar, Chip.

Ich denke in meinem Hinterkopf habe ich mich bereits entschieden und meine nächste Grafikkarte steht fest, die GTX980 wird schon bald mein Gehäuse zum schmelzen bringen. Jedoch werde ich wahrscheinlich noch wenigstens bis Weihnachten warten, da zu dieser Zeit die die üblichen Sonderangebote den Preis ggf. (wenn auch nur minimal) senken werden.

Daniel Korgel

Geschrieben von

Ich bin Daniel Korgel und bin ein selbständiger Software Entwickler im Bereich Virtual Reality. Ich programmiere in meiner Freizeit schon sehr lange und bin gut unterwegs mit C# (& .Net), Java, HTML, PHP und MYSQL. Kenntnisse in C, C++ und Assembler sind aber auch vorhanden. Zudem arbeite ich derzeit auch an meinem Bachelor. In meiner Freizeit sammle ich alte Spielekonsolen und bin auch hin und wieder im Skatepark anzutreffen. Twitter: @DakorVR , @Bloculus_de| Xing: xing.com/profiles/Daniel_Korgel


18 Meinungen zu “Nvidia: Neue GPU Generation Maxwell mit „VR Direct“ vorgestellt

    • Selber schuld. Wenn man weiß, das NVidia oder AMD bald bzw. jetzt ne neue Generation auf den Markt werfen, dann würde ich doch erstmal abwarten.

      Ich selbst will eigentlich gut gerüstet sein, wenn die CV1 erscheint. Denke aber das die 980er nicht dafür reichen wird. Soviel ich weiss, brauchen wir dafür min. 90 fps bei 2,5k für ein angenehmes Bild und das schafft die 980er einfach nicht. Und die Anforderungen an Spielen in 1 Jahr werden sicherlich noch höher werden. Eigentlich würde ich bis Ende 2015 warten wollen und dann aufrüsten. Aber ich hab noch ne 460er, die für mich für 2D und für die jetzigen Techdemos der DK2 noch reicht. Aber nicht mehr für bessere DK2 Titel. Daher will mir jetzt die 970er holen und später dann dann was Besseres. Jetzt ne 980er zu kaufen wäre nicht schlau, da man in 1 Jahr wieder aufrüsten muss und zu viel Kohle verschleudert.
      Wie würdet ihr das am besten machen?

      • Hey,
        das hängt natürlich auch davon ab was du damit machen möchtest. Als Entwickler würde sich eine 980er in meinen Augen lohnen. Da ich mit meinem PC mein Geld verdien‘ (eben als Entwickler für VR) lohnt sich die Anschaffung. Als reiner Gamer lohnt es sich sicherlich auch erstmal nur ein kleines Upgrade zu fahren (wenn die aktuelle Karte nicht für DK2 ausreicht) und dann kurz vor der CV eine eine der dann aktuellen Karten zu kaufen.
        Das ganze hängt natürlich (wie immer) auch vom nötigen Kleingeld ab.
        Mit bestem Gruß,
        Daniel

  1. Klingt gut…allerdings bin ich am Überlegen ob ne 970er SLI-Variante für einen noch übersichtlichen Preisaufschlag gegenüber einer 980er nicht das bessere ist. Die Tests mit SLI sahen ja extrem recht vielversprechend aus und soll ja in DirectVR auch eine bessere Unterstützung dbzgl. drin sein.

  2. Ich behaupte mal, dass in Zukunft vor allem auch die Engine bzw. die (gekonnte) VR-Anpassung eine ganz große Rolle spielen wird. Spiele wie Elite Dangerous sind ein gutes Beispiel, wie viel eine gute VR-Optimierung ausmachen kann. Das Spiel ist sogar mit einer GTX 460 im DK2 noch akzeptabel spielbar, wohingegen man bei Dreadhalls mit verhältnismäßig einfacher Grafik auf der 460 im DK2 eine Slideshow präsentiert bekommt.

    Titans of Space im DK2 auf einer GTX 460 ist kein Problem. Erreicht 75 FPS+. Klar, ist nicht mega aufwändig von der Grafik her, aber z. Zt. noch eine der eindruckvollsten VR-Präsentationen. Das meiste ist ja bisher grafisch gesehen Kinderkram. Interessant wird es sein, was passiert, wenn sich endlich mal ein Triple-A Kandidat offenbart.

    Selbst HL2 war mit dem DK2 und GTX 460 weniger laggy als ich eigentlich erwartet hatte. Bis auf das übliche Jitter, was viele bei Kopfbewegungen haben. Das habe ich bei der GTX780 bislang auch nicht wegbekommen.

    Klar ist das jetzt mit meiner GTX 780 jetzt alles besser & schöner, aber ich denke, dass sich treiber- & softwaremäßig noch einiges tun wird. Und Oculus wird nicht müde zu betonen, dass Kantenglättung & Co. im VR weniger wichtig sind als FPS, um für ein Immersionsgefühl zu sorgen.

    Und wer weiss, ob zukünftig hardwaremäßig noch mehr GPU entlastendes in die erste CV eingebaut wird. Wir stehen da erst ganz am Anfang.

    • @A. Schultz: Ich kenn den Rest deines Rechners zwar nicht, aber bei meiner 460er laufen Dreadhalls und HL2 genauso butterweich
      (Mit 75 fps) wie Titans of Space.

      Es sind eher die ganzen UE4 Demos wo ich Jittering habe.

  3. hi,
    ich werde mir wahrscheinlich eine der beiden kaufen,habe aber eine wichtige frage:
    Wisst ihr zufällig wann die CV rauskommt oder ob sie überhaupt noch dieses Jahr rauskommt?
    Und wir hoch werden in etwa die Systemanforderungen sein??

    Danke im vorraus.

    • Hey Lukas,
      Ich kann dir mit an Sicherheit grenzender Wahrscheinlichkeit sagen, dass die CV nicht mehr dieses Jahr kommt. Gerüchten zu folge soll Q2 2015 Beta Kits der CV and ausgewählte Partner gehen. Da die Hardware noch nicht fest steht, kann dir auch niemand die System herausforderungen sagen, weshalb es sich empfiehlt mit dem Kauf neuer Hardware so lange wie möglich zu warten. Sobald es dazu infos gibt, findest du sie natürlich hier auf Bloculus.de ;)
      Mit bestem Gruß,
      Daniel

  4. Ihr übertreibt meiner Meinung nach, was die Grafikanforderungen angeht. Denkt bitte auch daran, dass die meisten Demos von Einzelpersonen stammen, die, was ich jetzt mal unterstelle, die Spiele nun nicht perfekt optimiert haben. Alles andere sind Early Access Spiele, welche ebenfalls kaum optimiert sind. Wenn ich daran denke das selbst auf meinem Smartphone und dem Dive Tuscany ruckelfrei läuft, kann ich beim besten Willen nicht nachvollziehen, warum Titans of Space mit DK2 und einem guten Mittelklasse PC ruckelt. Sein wir mal ehrlich: Da werden doch nur Kugeln gerendert (Großartige Effekte oder hochauflösende Texturen seh ich da nirgends!)

  5. Hey Daniel schöner Beitrag, bin auch VR-Vernarrt, besitze auch ein DK2 und lese regelmäßig deine Blogs. Das ich mir eine neue GTX hole steht schon fest. Ich Schwanke nur zwischen einer GTX 980 oder zwei 970 im SLI-Verbund. Die Mehrkosten der SLI Lösung würden gerade mal 150¬ betragen, der Leistungszuwachs ist aber enorm, gerade wenn man bedenkt dass die OC Version der 970 von MSI, im Gamestartest gerade mal 10% weniger Leistung hatte als eine GTX 980. Bei dieser Lösung bekäme man also die Meisten Frames pro Euro. Daher habe ich nochmal ne Frage bezüglich des DK2 und SLI. War dein Beitrag so zu verstehen, dass man durch SLI keinen Leistungsgewinn bei Nutzung eines DK2 erzielt, da die eine Karte quasi das Bild des Monitors berechnet und dann nur eine Karte das Bild des DK2? Oder hätte ich den gleichen Nutzen durch SLI mit dem DK2 als wenn ich normal an einem Monitor spiele und später, wenn die CV Version mit zwei Displays arbeitet, einen noch größeren Leistungsgewinn? Sind die SLI Ruckler auch bereits jetzt beim DK2 Vergangenheit oder wirkt sich das ganze auch erst bei der CV Version aus?

    • Hey Oimann, Danke für das Lob.
      Ich selbst werde zunächst zur günstigen Lösung greifen und 1x 980 wählen, da mein PC zum einen derzeit nicht für SLI ausgestattet ist und wir zum anderen nicht wissen wie lange die Karte ausreichen wird. Es kann gut sein, dass es bis zur CV deutlich verbesserte Technik gibt (Oculus und Nvidia sind gut befreundet) und es bis dahin dann schon wieder deutlich bessere Karten als die 980 gibt die dem Anwender ggf. gezielt für die CV ein besseres Erlebnis bieten.

      So wie ich es verstanden habe, beschreibst du den SLI Modus korrekt und für das DK2 würde dir das dann tatsächlich nicht so viel bringen wie ein regulärer SLI Modus (wenn dieser nicht Ruckler auslösen würde). Für die CV kann dies jedoch wieder ganz anders aussehen. Ggf. werden bei dieser ja 2 Displays verwendet, oder der eine Display wird über ein Low-End Interface so bei den Grafikkarten angemeldet, dass jeweils eine hälfte von einer Grafikkarte betrieben werden kann. Wir wissen nicht was hinter den Kulissen ab geht und wie sehr sich Oculus und Nvidia bereits abgesprochen haben / zusammen arbeiten ;)

      Das neue SLI System sorgt dafür das Ruckler mit dem DK2 Vergangenheit sind. Ich könnte mir vorstellen, dass man ggf. optional (für Single Screen Setups) wieder zum klassischen Modus wechseln kann? Habe dazu jedoch bisher nichts konkretes gefunden.

      Gruß,
      Daniel

  6. Servus Daniel danke für die schnelle Antwort. Ich habe auch nochmal recherchiert, ich glaube es ist jetzt nicht so gemeint, dass im SLI Modus jede Grafikkarte einen Bildschirm übernimmt, sondern ein Bild bild berechnet. Das S3D Bild kommt ja dadurch zu Stande, dass zwei Bilder berechnet werden und diese dann durch die Brille übereinander Geschoben werden, so dass der 3d Effekt entsteht. Das funktioniert ja bei 3d Vision genauso. Momentan ist es wohl so, dass beim Einsatz von 2 Grafikkarten beide jedes Bild berechnen, sprich jede Karte berechnet 2 mal das Gleiche Bild, also genauso als wenn man nur eine Karte einsetzt. Zukünftig soll dann jede Karte ein Bild berechnen, d.h. es dürfte keine Rolle spielen ob die beiden Bilder auf einem oder zwei Displays wiedergeben werden. Daher sollte die VR Direct Technologie von Nvidia auch beim DK 2 zu deutlichen Leistungssteigerungen im VR Modus führen. Davon sollten auch generell S3D Anwendungen mit 3dVision profitieren, da hier ja im Endeffekt das gleiche Prinzip zum Einsatz kommt. Ich werde mir einfach mal 2 970er holen und testen, wie hoch der Leistungssprung dann tatsächlich ist. Wenn SLI richtig funktioniert, wäre das schon sehr wichtig für VR. Weil auch mit einer 980 wird man kaum hinkommen wenn die Auflösung in den 2k Bereich geht und eine Karte mit 2x gpu ist meist wesentlich teurer als 2 Karten. Alleine das Preisleistungsverhältnis zwischen der 970 und der 980 ist schon enorm wenn man die Tests so liest.

Kommentar verfassen