Raytracing: Nvidia schaltet DXR ab der Geforce GTX 1060/6G frei

Aha, kannst du lesen? BF V

profitiert Battlefield 5 dagegen kaum: Die Fps steigen in 1440p (Raytracing-Einstellung nicht spezifiziert) von knapp 60 auf gut 60 Fps

Es ist mit oder ohne RT Cores genauso schnell

Wer weiß vielleicht werden in BF V die Raytracing Kerne überhaupt nicht genutzt?! Der Start von dem Feature war auch alles andere als vorbildlich und diente evtl. nur als Werbetrommel der RTX Serie.
 
Warum? Die werden dennoch höhere FPS haben, weil CHips vorhanden sind die zur Beschleunigung genutzt werdern - Pascal hat die nicht.

Dürfte somit also so sein, wie damals mti Physx. Manche GPUs konnten es nutzen, manche konnten es, aber ohne spielbare FPS.

Außerdem kaufte sich doch kein Mensch ernsthaft nur eine RTX wegen Raytracing.. sondern um Aufzurüsten und oder einfach mehr "generelle" Leistung zu haben, und da passt alles.
 
Wer weiß vielleicht werden in BF V die Raytracing Kerne überhaupt nicht genutzt?! Der Start von dem Feature war auch alles andere als vorbildlich und diente evtl. nur als Werbetrommel der RTX Serie.

Das würde aber dann bedeuten, dass BF5 mit DXR läuft und die RT Kerne ganz offensichtlich, trotz Launchtitel für RT und dem Brimborium, unter DXR gar keine Mehrperformance bieten, die man nennen müsste. Dann werden die Turing Karten auch nicht schneller unter den zukünftigen DXR Titeln laufen als die Pascal oder die Konkurrenz von AMD. Ergo wäre das überhaupt nicht clever von Nvidia. Und warum sollte ein Entwickler den zusätzlichen Aufwand für eine RTX Implementierung aufwenden, wenn DXR alle anderen anspricht und funktioniert?!
 
Wer weiß vielleicht werden in BF V die Raytracing Kerne überhaupt nicht genutzt?! Der Start von dem Feature war auch alles andere als vorbildlich und diente evtl. nur als Werbetrommel der RTX Serie.
Klingt eher so, als müssten die Entwickler für die Kerne eine zusätzliche proprietäre API ansprechen, damit diese überhaupt genutzt werden können.
Bedeutet wohl unmassen Mehrarbeit für die Entwickler, um ein paar wenige Grafikkartenbesitzer zufrieden zu stellen. Wäre jedenfalls eine Möglichkeit, warum die Kerne nicht im Spiel genutzt werden.
Der Mehraufwand lohnt nicht für die paar Grafikkarten/Nutzer... vielleicht verursacht es auch Probleme mit dem DXR Standard, das wenn man für die API optimiert, es dann irgend etwas in der DXR Implementierung bricht, dass DXR auf den non-Tensor Karten nicht funktioniert.

Nvidia hat hier mit den Treibern oder Hardware wohl auch nicht richtig abgeliefert und sich verplant, denn wenn das richtig implementiert wäre, würde die Grafikkarte von sich aus die RT Berechnungen an die Tensor Kerne weiterleiten und diese nicht ungenutzt liegen lassen, obwohl RT berechnet wird.
 
Zuletzt bearbeitet:
Außerdem kaufte sich doch kein Mensch ernsthaft nur eine RTX wegen Raytracing.. sondern um Aufzurüsten und oder einfach mehr "generelle" Leistung zu haben, und da passt alles.

Tja, manche kaufen...

... weil sie immer das neueste haben wollen.
... mehr Leistung wollen (vor allem im Bezug auf max. Details + 4k)
... neueste Features wollen (auch wenn sie kaum genutzt werden

Gründe können vielfältig sein.
 
Nun, wir werden sehen wie performant das ganze läuft. allerdings ob da 60 fps bei meiner 1080ti rauskommen wage ich jetzt mal zu bezweifeln..
andererseits kann ich mir schon vorstellen das eine 1080ti mit Raytracing auf dem niveau einer RX2060 liegen könnte.
Aber ohne Benchmarks wird das hier keiner genau sagen können..

Der Schritt ist interessant.. aber ich vermute einfach mal das ist damit die Leute das Feature überhaupt zu gesicht bekommen, auch wenn es beschissen performt soll es lust auf mehr machen
 
Ich finde diese hoch präzisen Grafiken ja immer toll.
Das ist Perfektion in Reinkultur. :D

Die arme 1080ti hängt da immer wie ne graue Maus. Vielleicht sollte man mal DaHells 1080ti auf Steroiden da rein packen in die Grafiken
Wäre wohl irgendwo bei 2080 mit RT Cores und DLSS :devil:

Die Spieleentwickler sollten sich jetzt überlegen eine übergreifende Implementierung bereit zu stellen. Es gibt keinen Grund mehr auf der festgetackerten DXR Schiene zu fahren.
Die Vegas mit der brachialen Bandbreite und Rohleistung werden das sicher gut handeln können.
 
Bin ich froh das ich die RTX 2080Ti nicht nur gekauft haben wegen

RTX oder DLSS sondern wegen den 30% Mehrleistung gegenüber meiner alten GTX 1080Ti

Was hier wieder führ Fässer aufgemacht werden, ist ja nicht so als wären die Karten langsamer als ihre Vorgänger.

Nur die Preise sind durch mangels fehlendem Wettbewerb eigentlich zu hoch.

Und der Mitbewerber nimmt das Geld mit seiner 700€ Karte in der gleichen Leistungsklasse auch von den lebenden und den Toten.

Beide Seiten bekleckert sich daher aktuell nicht mit Ruhm meiner Meinung nach.
 
Genau der gleiche Gedanke kam mir auch. Wobei der zeitliche Zusammenhang zwischen der News von vor ein paar Tagen und der GDC zu kurz erscheint. Ich vermut deshalb, dass Crytek (und auch anderes Studios) schon länger an Engines mit RT für ganz normale Karten ohne überteuertes RTX Gedöns arbeitet.
 
Du solltest den Artikel nochmal lesen. Oder liegt bei dir ein klarer Unterschied bei 10% mehr Fps ?


ja wo siehst du hier denn was von "10%" :nene:

Du siehst wo die GTX 1080ti landet mit Raytracing on ,und wo die RTX 2080, und das ist nichtmal die TI oder Titan

nvidia-neu-7-pcgh-png.1038325
 

Anhänge

  • Nvidia-neu-7-pcgh.png
    Nvidia-neu-7-pcgh.png
    527,3 KB · Aufrufe: 299
und auch hier bei BV

nvidia-neu-9-pcgh-png.1038326


das sind 100% mehr Frames oder hast du eine Null vergessen und zudem nichtmal die TI sondern die 2080
 

Anhänge

  • Nvidia-neu-9-pcgh.png
    Nvidia-neu-9-pcgh.png
    524,7 KB · Aufrufe: 402
Zuletzt bearbeitet:
Schade, dass man die Crytek Demo nicht runterladen kann. Die hat das Zeug dazu Nvidia so richtig weh zu tun, wenn sich die 2080 nicht von der Radeon 7 absetzen kann. Den Kauf einer 2080 muss man ja trotzdem nicht bereuen.

Raytracing ist eh ein zweischneidiges Schwert. Die Reflektionen nimmt man sicherlich gerne mit. Aber die realistische Beleuchtung? Spiele wollen immer aussehen wie Kinofilme und da ist die Beleuchtung alles, nur nicht realistisch.
 
Ich kann mir mittlerweile quasi jeden CPU/GPU Thread nach Seite 1 sparen, weil die Diskussionen dort spätestens ab dem 10. Posting wahlweise offtopic sind oder sich immer um den gleichen Kram drehen. Und als Nicht-AAA Spieler bleibt als Essenz noch weniger übrig.
 
Zurück