Nvidia Turing: Geforce RTX 2070 im ersten Test

Kurz: Vielen geht es nur um das Bashing von NVIDIA, mit der Faktenlage hat das nichts zu tun.

Darüber kann man verschiedener Meinung sein.
Ich bin halt nicht der Meinung, dass wirklich nützliches Raytracing schon ab 500€ los geht, da ja von der 2080Ti zur 2080 schon ein downgrade statt findet, was die Möglichkeiten der Technik angeht und zur 2070 noch mal weniger Leistung zur Verfügung steht.

Die ganzen Raytracing Tests für RTX wurden mit 2080Ti gemacht.
So viel "Raytracing-Leistung" hat aber eine 2070 nicht und selbst die 2080Ti pfeifft da nun mal aus dem letzten Loch, noch gut fps hin zu kriegen, wenn Raytracing richtig genutzt wird.

Klar, man kann wie bei den allgemeinen Grafikoptionen alles total runter regeln, bis man vernünftig spielbare fps hat, aber was hat das noch mit den Raytracingvorführungen zu tun, die wir alle zur Präsentation von Turing gezeigt bekommen haben ?

Ich denke nicht viel.


Simples bashing sieht meiner Meinung nach anders aus.

Bin ja auch kein Nvidia-Hater.
Bei mir läuft eine 1080Ti im Rechner(geiles Teil, für den Preis(gebraucht)).

Kritik muss aber doch möglich sein, ohne dass gleich von "rumheulen", "bashing" usw. gesprochen wird.

Ich halte mich schon an Fakten und zwar die mögliche Leistung der Technik von einer 2070 für raytracing, wenn selbst eine 2080Ti schwächelt, was das angeht.
Ich seh das halt eher als Marketingverars....

Kauf dir ne 2070 und du hast Gigarays ! Für nur 500-700€ !
Nee, kannst du knicken.
 
Darüber kann man verschiedener Meinung sein.
Ich bin halt nicht der Meinung, dass wirklich nützliches Raytracing schon ab 500€ los geht, da ja von der 2080Ti zur 2080 schon ein downgrade statt findet, was die Möglichkeiten der Technik angeht und zur 2070 noch mal weniger Leistung zur Verfügung steht.
Aha.

Und wie willst du das bewerten können?

Welche Karten hast du schon besessen? Mit welchem Spiel getestet? Bist du selbst Entwickler?

Meinung kann ja jeder haben, aber dazu gehört auch eine gewisse Substanz hinter dieser Meinung. Sehe nicht, wie man bisher RTX bewerten soll, geschweige denn den Stand in 1 oder 2 Jahren. Und aktuell ist es eben so, dass man bei faktisch jeder Karte das RTX als Schmankerl oben drauf bekommt. Warum sollte man das nicht mitnehmen?
 
Da ist tatsächlich was dran, ich wünsche AMD den Erfolg, denn was sie mit Ryzen mit dem Rücken an der Wand geschafft haben, gehört belohnt. Ob sich das auch in der GPU Sparte niederschlägt, kann ich nicht beurteilen. Fakt ist, ich wäre geneigt, nächstes Jahr im April meine 980TI in Rente zu schicken. Im Moment spiele ich nur alte Kamellen, da reicht sie für 1440p, trotzdem finde ich es ne harte Nummer, trotz zwei neuerer Generationen für ein Step-Up nicht im gleichen Preisbereich bleiben zu können...

Auch Nvidia wird das Kartellproblem auf dem Schirm haben. AMD zu vernichten, ist eigentlich nicht in ihrem Sinne. Auf der anderen Seite darf man bei den Preisen die Chipgröße nicht vergessen. Ein GP104 ist 314 mm² klein, ein TU104 ist 545 mm² groß und die verbauten Transistoren haben sich fast verdoppelt. Leider stecken Sie in Tensorcores und RTX-Cores, die bisher wenig Gegenwert liefern.
 
Aha.

Und wie willst du das bewerten können?

Ganz simpel, anhand offizieller Zahlen und Fakten, bzw. Vergleich zu den bisherigen Tests mit 2080Ti und Raytracing und wie das bisher so lief, leistungstechnisch und dann einfach auf die technischen Daten schauen, in wie weit es von der 2080Ti dann jeweils bei der 2080 und 2070 nochmal ein downgrade gibt, was die Raytracing Leistung angeht(technische Daten sind ja bekannt).

Da muss man keine Karte für besessen haben und auch kein Entwickler sein.
Einfach Dinge anschauen, reicht schon.

Ich schätze die bisherigen Benchmarks/Demos mit Raytracing inkl. 2080Ti sind dir bekannt.

Dann muss man nur noch 1+1 zusammenzählen und kann sich vorstellen, dass es mit einer 2070 wohl eher schlechter, als besser wird.

Und ich beziehe mich da einfach auf Zahlen/Fakten:

1-jpg.1015361



Einfaches anschauen und denken reicht da schon. :)

Man hat natürlich immer so ca. 586 verschiedene Meinungen, pro Thread.
So gesehen würde ich deine Argumentation auch gern mal lesen, warum für dich die 2070 denn eine tolle RT Karte ist.

Ein Forum dient ja auch der Meinungsbildung und ich bin durchaus bereit mich auf vernünftige Argumente einzulassen und meine Meinung zu überdenken, wenn ich überzeugt werde.


Also ... keine Zurückhaltung bitte ! :)
 

Anhänge

  • 1.jpg
    1.jpg
    198,5 KB · Aufrufe: 73
Aha, die GTX2070 hat also nur 36 RT-Kerne und schafft nur 6 Gigarays.

Nur: Was soll uns das sagen?

Man kann wohl davon ausgehen, dass die Entwickler ihre RTX-Spiele auch auf die GTX2070 anpassen werden. Dann dreht man eben - wie man es eben eh mit Karten unterhalb des HighEnd machen muss - die Details runter. Fertig. Wo auch immer man da jetzt drüber rummotzen muss, verstehe ich immer noch nicht.
 
Waren das jetzt deine Argumente ?

Die 2070 hat also knapp die Hälfte der RT Leistung einer 2080Ti.

Tolles Pro-Argument.

Ja, gut. Man kann die Optionen einfach anpassen, damit das Ganze dann flüssig läuft: Sprich ausschalten.


Entschuldige bitte, aber das überzeugt mich jetzt nicht gerade 100%tig. ;)
 
Waren das jetzt deine Argumente ?

Die 2070 hat also knapp die Hälfte der RT Leistung einer 2080Ti.

Tolles Pro-Argument.

Ja, gut. Man kann die Optionen einfach anpassen, damit das Ganze dann flüssig läuft: Sprich ausschalten.


Entschuldige bitte, aber das überzeugt mich jetzt nicht gerade 100%tig. ;)

Raytracing ist halt nicht Raytracing. Unterschiedliche Effekte brauchen unterschiedlich viele Samples brauchen unterschiedlich viele Bounces brauchen unterschiedlich viele Sekundärstrahlen. Die Szene an sich hat auch noch einen großen Einfluss auf die Leistung. Ich würde vorschlagen, wir lassen einfach mal die Spieleentwickler entscheiden, wo und in welchem Umfang Raytracing eingesetzt wird und dann reden wir erst weiter, ob es zu langsam ist, oder nicht. Wegen ein paar Grafikdemos gleich auf die Leistung zu schließen, finde ich halt gerade bei Raytracing gefährlich, denn auch da wissen wir nicht, in welchem Umfang und für was es genutzt wurde. Mit genug Raytracing bekommt man alles klein. Ohne wenn und ohne aber. Raytracing ist aber nunmal verdammt gut skalierbar. Auch das darf man nicht vergessen. Anstatt an/aus könnte man beispielsweise - wie oben schon gesagt - mit einer niedrigeren Strahlendichte rendern und den Filter den Rest machen lassen. Das spart schon Unmengen an Strahlen ein. Oder man verzichtet auf Dinge wie reflektive Bump-Maps. Auch das spart Leistung. Oder man berechnet mehr und mehr Effekte "traditionell" und nutzt Raytracing nur da, wo es richtig was bringt. Das ist alles noch nicht bekannt. Wir kennen nur ein paar Demos, deren Ziel es war, mal zu schauen, was alles möglich ist. Kann gut sein, dass die erst mal über ihr Ziel hinaus geschossen sind.
gRU?; cAPS
 
Waren das jetzt deine Argumente ?

Die 2070 hat also knapp die Hälfte der RT Leistung einer 2080Ti.

Tolles Pro-Argument.

Ja, gut. Man kann die Optionen einfach anpassen, damit das Ganze dann flüssig läuft: Sprich ausschalten.


Entschuldige bitte, aber das überzeugt mich jetzt nicht gerade 100%tig. ;)

Man wird die finalen Umsetzungen sehen müssen. Da ist durchaus noch Potential manche Dinge mit reduzierter Auflösung rechnen zu lassen. Was wir bisher in BFV gesehen haben ist ein Ergebnis von 2 Wochen Optimierung, da geht sicher noch etwas. Im neuen Metro könnte die benötige RT Leistung auch recht gut mit der Auflösung skaliern, so dass es im Verhältnis zur 2080ti schon passt. Die Frage ist nur ob die 2080ti die Power hat um mehr als FHD zu rendern.
 
Die Frage ist nur ob die 2080ti die Power hat um mehr als FHD zu rendern.

Und was ist mit der 2070, mit der Häfte an RT Leistung ?

Ich bleibe "leicht skeptisch". ;)


Aber ihr habt ja recht, dass wir besser erst einmal weiter abwarten, wie sich das so entwickelt.
Mag ja sein, dass in 1-2 Jahren die Welt anders aussieht.


Obwohl ... dann stehen eh schon die nächsten Karten bereit. :D
 
"Geringfügig schneller als die GTX 1080" Du meine Güte, ist das langweilig.

Waren das noch Zeiten, als man gespannt wie ein Flitzebogen war, was die neue Grafikkartengeneration drauf hat.
Ja ich weiß, der Vergleich hinkt, weil die RTX-Generation ja einiges an neuer Technologie vorzuweisen hat.

Munter bleiben!

naja früher whatten die Karten nicht nur mit neuen Features sondern waren auch min. spürbar schneller.
Zum Überfluss kammen die Karten auch noch jedes Jahr raus.
Bin mal gespannt wann die Nachfolger der jezigen RTX Karten rauskommt bzw. was oder ob AMD da noch gegenhalten will/kann.
 
Zurück