Nvidia Turing: Geforce RTX 2070 im ersten Test

Seit ihr nicht in der Lage einfach Preise zu vergleichen? Man liest hier nur Palaver.
499 Dollar, also werden die günstigsten Karten auch für ~500 kommen, sobald ausreichend verfügbar.

Mit 15% mehr Leistung als die 1080, ergo ist auch das P/L/V inkl. DLSS wahrscheinlich 20 bis 30%besser.

Äh auf der NV-Seite ist 599Dollar angegeben, entspricht 639€!
 
... führt Nvidia Echtzeit-Raytracing ein. Unkenrufe hin oder her, das ist durchaus eine technische Revolution, auch wenn die Leistung in klassischen Grafikanwendungen eher unspektakulär ausfällt.
Was daran interessant ist, ist doch, dass mit diesem Design nVidia gegen die historische Tendenz läuft, fixed function Hardware durch generische bzw. flexiblere zu ersetzen. GPUs haben sich über die Jahrzehnte von festen Renderpipelines zu relativ frei programmierbaren Shader-Architekturen gewandelt, die so für unterschiedlichste Zwecke verwendet werden konnten.

Stattdessen opfert nVidia einen erheblichen Teil der Die-Fläche für dedizierte RT und KI Logik, die bei anderen Aufgaben brachliegt. Alternativ hätte nVidia auf diese dedizierten Cores verzichten können, und die Die-Fläche komplett für die generischen Shader verwenden können, dann wären RT und KI Berechnungen zwar nicht so schnell, dafür hätte man aber bei den meisten anderen Aufgaben deutlich mehr Leistung.

Das aktuelle Resultat ist nun, dass Turing riesige und teure Dies hat, die bei "normalen" Aufgaben ein überschaubares Leistungsplus gegenüber Pascal bieten. Für tatsächliches Raytracing bietet selbst die 2080Ti mit KI Interpolation bzw. Denoising gerade mal genug Leistung für eben noch ausreichende FPS bei FullHD Auflösungen. Die Folge wird sein, dass Spiele RT bestenfalls für einige Details verwenden werden (können), zumindest in dieser Generation. Für die Tensor-Cores gibt es im Consumer Bereich noch nicht all zu viele Anwendungen, nVidia spekuliert anscheinend darauf, dass sich das soweit ändern wird, dass man die Mehrleistung der dedizierten Hardware brauchen wird.

IMO geht nVidias Rechnung irgendwie nicht auf. Das Ganze wirkt wie eine Technologie-Demo die versehentlich zum Produkt gemacht wurde. Ironischerweise wird es für AMD dadurch leichter, den Performance-Rückstand aufzuholen, es sei denn, AMD meint, mit solch dedizierter Hardware gleichziehen zu müssen. Auch wenn RT und KI langfristig an Bedeutung gewinnen werden, kann ich mir gut vorstellen, dass AMD den Weg gehen wird, ihre generischen Shader etwas zu erweitern (GCN scheint eine recht flexible Architektur zu sein), so dass RT und KI besser laufen, ohne dass man dedizierte Cores einsetzen muss.
 
ich hab mir damals ne gainward phoenix GS mit samsung-ram für unter 400 geschossen, zeitweilig nem kumpel für 800 vertickt und jez für 200 zurückgeholt. klar is die jez ordentlich eingebrannt wegen ethereum, aber die läuft tadellos und so konnte ich auch etwas vom mining-boom profitieren... 200€ zu minen hätte mir zu lange gedauert^^
 
Was daran interessant ist, ist doch, dass mit diesem Design nVidia gegen die historische Tendenz läuft, fixed function Hardware durch generische bzw. flexiblere zu ersetzen. GPUs haben sich über die Jahrzehnte von festen Renderpipelines zu relativ frei programmierbaren Shader-Architekturen gewandelt, die so für unterschiedlichste Zwecke verwendet werden konnten.

Stattdessen opfert nVidia einen erheblichen Teil der Die-Fläche für dedizierte RT und KI Logik, die bei anderen Aufgaben brachliegt. Alternativ hätte nVidia auf diese dedizierten Cores verzichten können, und die Die-Fläche komplett für die generischen Shader verwenden können, dann wären RT und KI Berechnungen zwar nicht so schnell, dafür hätte man aber bei den meisten anderen Aufgaben deutlich mehr Leistung.

Das aktuelle Resultat ist nun, dass Turing riesige und teure Dies hat, die bei "normalen" Aufgaben ein überschaubares Leistungsplus gegenüber Pascal bieten. Für tatsächliches Raytracing bietet selbst die 2080Ti mit KI Interpolation bzw. Denoising gerade mal genug Leistung für eben noch ausreichende FPS bei FullHD Auflösungen. Die Folge wird sein, dass Spiele RT bestenfalls für einige Details verwenden werden (können), zumindest in dieser Generation. Für die Tensor-Cores gibt es im Consumer Bereich noch nicht all zu viele Anwendungen, nVidia spekuliert anscheinend darauf, dass sich das soweit ändern wird, dass man die Mehrleistung der dedizierten Hardware brauchen wird.

IMO geht nVidias Rechnung irgendwie nicht auf. Das Ganze wirkt wie eine Technologie-Demo die versehentlich zum Produkt gemacht wurde. Ironischerweise wird es für AMD dadurch leichter, den Performance-Rückstand aufzuholen, es sei denn, AMD meint, mit solch dedizierter Hardware gleichziehen zu müssen. Auch wenn RT und KI langfristig an Bedeutung gewinnen werden, kann ich mir gut vorstellen, dass AMD den Weg gehen wird, ihre generischen Shader etwas zu erweitern (GCN scheint eine recht flexible Architektur zu sein), so dass RT und KI besser laufen, ohne dass man dedizierte Cores einsetzen muss.


ich gehe davon aus, dass uns nvidia noch mit 2000er GTX überraschen wird. also großes die und voll mit shadereinheiten - pascal 2.0 also. wäre nur logisch - denn rohleistung steckt in den shadern der 2000er ohnehin massig - überlegt mal wenn die das übers ganze DIE ausbreiten können^^ die RTX sind für raytracing in FHD und pascal 2.0 also GTX wird dann für 4k-gaming beworben... wenn sie ihre marktmacht ausnutzen wollen, dann wird das so kommen.
 
ich gehe davon aus, dass uns nvidia noch mit 2000er GTX überraschen wird. also großes die und voll mit shadereinheiten - pascal 2.0 also. wäre nur logisch - denn rohleistung steckt in den shadern der 2000er ohnehin massig - überlegt mal wenn die das übers ganze DIE ausbreiten können^^ die RTX sind für raytracing in FHD und pascal 2.0 also GTX wird dann für 4k-gaming beworben... wenn sie ihre marktmacht ausnutzen wollen, dann wird das so kommen.

Das denke ich nicht das Nvidia noch 2000er GTX-Modelle bringen wird. Das Nvidia dann einen neuen Chip produziert ohne Tensor-Kerne und RT-Einheiten wäre zu aufwendig und teuer und wäre auch nicht logisch 2 Chipdesigns für eine Generation Gamer-GPU´s.

Ich persönlich finde das Nvidia uns eine teure Technik aufbrummen will die keiner braucht. was wollen denn wir Gamer? Maximale FPS und gute Frametimes in egal welcher Auflösung ob jemand in FHD/60fps oder 144hz oder 1440 oder in 4K spielt. Raytracing und DLSS ist auch so eine Niete wie Rapid Packed Math und HBM2 von AMD. Alles Techniken die kein Gamer braucht aber die hersteller einem aufschwatzen wollen. Man hat doch gesehen wie beliebt PhysX oder Hairworks ist und wie der ganze Schrott so heißt.

Da drücke ich die Daumen für AMD das mit Navi eine 680 kommt die 1080-Leistung hat denn Turing ist ein Witz in Sachen Preis/Leistung!
 
ich gehe davon aus, dass uns nvidia noch mit 2000er GTX überraschen wird. also großes die und voll mit shadereinheiten - pascal 2.0 also. wäre nur logisch - denn rohleistung steckt in den shadern der 2000er ohnehin massig - überlegt mal wenn die das übers ganze DIE ausbreiten können^^ die RTX sind für raytracing in FHD und pascal 2.0 also GTX wird dann für 4k-gaming beworben... wenn sie ihre marktmacht ausnutzen wollen, dann wird das so kommen.
Sehr wahrscheinlich nicht. Sie haben an der Technik in Turing eigenen Angaben nach 10 Jahre entwickelt und verkaufen es als "Paradigm Shift" in der Grafikberechnung. Da werden sie kaum zurück rudern und eine parallele Serie auflegen, die die RTX-Karten kannibalisiert. Niemand würde die mehr kaufen, weil Raytracing noch in keinem Spiel funktioniert und auch bald nur einer Hand voll. Dann wärs vorbei mit dem Experiment. Stattdessen nutzt Nvidia ihre Marktmacht und opfert Transistoren, um den Schritt zu Raytracing jetzt zu wagen, auch wenn das erst in ein paar Generation wirklich nutzbar wird was Leistung und Verfügbarkeit angeht. Irgendwie müssen sie ja anfangen und jetzt ist eigentlich kein so schlechter Zeitpunkt. Wenn sie gegen AMD konkurrieren müssten, die einen 750mm²-Chip ohne Raytracing, aber mit deutlich mehr Leistung als der bei 2080 Ti hätten, dann wär das was anderes, aber dann wär Turing in dieser Form wohl gar nicht erst erschienen...

Ich persönlich finde das Nvidia uns eine teure Technik aufbrummen will die keiner braucht. was wollen denn wir Gamer? Maximale FPS und gute Frametimes in egal welcher Auflösung ob jemand in FHD/60fps oder 144hz oder 1440 oder in 4K spielt. Raytracing und DLSS ist auch so eine Niete wie Rapid Packed Math und HBM2 von AMD. Alles Techniken die kein Gamer braucht aber die hersteller einem aufschwatzen wollen. Man hat doch gesehen wie beliebt PhysX oder Hairworks ist und wie der ganze Schrott so heißt.
Du vergleichst Äpfel mit Birnen. Im Gegensatz zu Hairworks und Raytracing sind Rapid Packed Math und HBM2 nämlich keine sichtbaren Grafikeffekte, sondern Funktionen der Hardware bzw. einfach ein Speicherstandard. HBM2 nutzt Nvidia bei Volta übrigens auch, um eine ausreichend hohe Speicherbandbreite zu erreichen. Aber mit der Nennung von HBM2 verkauft man keine Grafikkarten, weil dem Spieler egal sein kann wie die Leistung zustande kommt, solange sie da ist. Sichtbare Grafikeffekte sind was komplett anderes. Zumal Raytracing durchaus die Zukunft des Renderings ist und in der Theorie eine deutlich realitätsnahe bzw. fotorealistische Beleuchtung ermöglicht. Mit der Einstellung "was will ich mich besserer Grafik, mich interessieren nur Auflösung und FPS" könnten wir heute vielleicht Half-Life 2 in 16K mit 200FPS spielen, aber die Grafik hätte sich nicht weiterentwickelt. Die Leistung reicht aktuell nur noch lange nicht für einen großflächigen Einsatz von Raytracing, das wird noch einige Jahre brauchen.
 
Zuletzt bearbeitet:
Sehr wahrscheinlich nicht. Sie haben an der Technik in Turing eigenen Angaben nach 10 Jahre entwickelt und verkaufen es als "Paradigm Shift" in der Grafikberechnung. Da werden sie kaum zurück rudern und eine parallele Serie auflegen, die die RTX-Karten kannibalisiert. Niemand würde die mehr kaufen, weil Raytracing noch in keinem Spiel funktioniert und auch bald nur einer Hand voll. Dann wärs vorbei mit dem Experiment. Stattdessen nutzt Nvidia ihre Marktmacht und opfert Transistoren, um den Schritt zu Raytracing jetzt zu wagen, auch wenn das erst in ein paar Generation wirklich nutzbar wird was Leistung und Verfügbarkeit angeht. Irgendwie müssen sie ja anfangen und jetzt ist eigentlich kein so schlechter Zeitpunkt. Wenn sie gegen AMD konkurrieren müssten, die einen 750mm²-Chip ohne Raytracing, aber mit deutlich mehr Leistung als der bei 2080 Ti hätten, dann wär das was anderes, aber dann wär Turing in dieser Form wohl gar nicht erst erschienen...


Du vergleichst Äpfel mit Birnen. Im Gegensatz zu Hairworks und Raytracing sind Rapid Packed Math und HBM2 nämlich keine sichtbaren Grafikeffekte, sondern Funktionen der Hardware bzw. einfach ein Speicherstandard. HBM2 nutzt Nvidia bei Volta übrigens auch, um eine ausreichend hohe Speicherbandbreite zu erreichen. Aber mit der Nennung von HBM2 verkauft man keine Grafikkarten, weil dem Spieler egal sein kann wie die Leistung zustande kommt, solange sie da ist. Sichtbare Grafikeffekte sind was komplett anderes. Zumal Raytracing durchaus die Zukunft des Renderings ist und in der Theorie eine deutlich realitätsnahe bzw. fotorealistische Beleuchtung ermöglicht. Mit der Einstellung "was will ich mich besserer Grafik, mich interessieren nur Auflösung und FPS" könnten wir heute vielleicht Half-Life 2 in 16K mit 200FPS spielen, aber die Grafik hätte sich nicht weiterentwickelt. Die Leistung reicht aktuell nur noch lange nicht für einen großflächigen Einsatz von Raytracing, das wird noch einige Jahre brauchen.

Mit HBM2 und Rapid Packed Math wollte ich zum Ausdruck bringen das auch AMD dem Spieler mit Vega etwas aufschwatzen wollte was uns Gamer nichts bringt. Nimm bitte das nächstemal dann als Gegenargument PhysX und Hairworls weil das waren sichtbare Dinge und auch von den Grünen. Mir ist auch klar das Volta HBM2 nutzt aber habe es AMD zugeschrieben da die HBM mit Hynix entwcikelt haben und es auch auf ihre Gamer-GPU´s geklatscht haben aber tierisch auf die Nase gefallen sind.

Wer sagt bitte das Raytracing Zukunft hat? Nvidia und die Presse?
Ich brauche es nicht denn ich will das eine GPU maximale FPS bringt und BEZAHLBAR ist. Was wird dann eine 2060 leisten? 1070-Niveau?
Nvidia übertreibt es und wenn ich an den Mining-Hype denke wie Nvidia sagte das die Gamer wichtig sind war nicht gemeint die Gamer so derart auszubeuten.
 
"Geringfügig schneller als die GTX 1080" Du meine Güte, ist das langweilig.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Waren das noch Zeiten, als man gespannt wie ein Flitzebogen war, was die neue Grafikkartengeneration drauf hat. Die aktuelle Situation scheint praktisch die Gleiche zu sein, die bis 2017 im CPU-Markt geherrscht hat: es gab zwei Anbieter von CPU´s für den Endkundenmarkt und einer der beiden hatte im High-End-Segment nichts anzubieten, woraufhin sich der andere Anbieter auf Trippelschritte bei der Weiterentwicklung verlegte bei gleichzeitiger Anhebung der Preise. Ja ich weiß, der Vergleich hinkt, weil die RTX-Generation ja einiges an neuer Technologie vorzuweisen hat.

Und wieder kann wohl nur der kleinere der beiden Anbieter etwas an dieser Situation ändern. Also los, AMD, haut endlich mal wieder eine richtig schnelle High-End-Grafikkarte raus die gegen Nvidias High-End-Riege anstinken kann, damit der GPU-Markt auch wieder so in Schwung kommt wie der CPU-Markt!

Munter bleiben!
 
Wenn man das hier so überfliegt möchte man meinen das Marketing von nvidia hat sich auf die 2070 konzentriert. Anders kann ich mir nicht erklären, warum eine 2 Jahre alte 1080 um die 500€ als Schnäppchen gesehen wird. Nicht nur einmal wurde hier geschrieben, dass man RT "vergessen kann" und wieder nur 8GB vram verbaut sind. Man bezahlt hier als momentan für features, von denen man erwartet, dass sie nicht taugen und wenn doch, dann ist die 2070 zu schwach. Das Interessanteste an der Karte im Vergleich zur 1080 ist imo das fps/Watt Verhältnis und darüber weiß ich noch gar nichts :lol: Preise und Verfügbarkeit pendeln sich irgendwann ein, aber sobald die 1080 verschwindet während die 2080(ti) preisstabil bleiben sollten und gleichzeitig die Nachfrage in Richtung 2070 geht, dann wird diese wieder teurer, aber das könnte auch bedeuten, dass die anderen beiden günstiger werden. Siehe Verfügbarkeit Intel und indirekt steigende Preise bei AMD.

Die Frage ist die: Wann erreicht eine derzeit ziemlich uninteressante 2080 eine breite Käuferschaft? Die derzeitigen Preise bei dem Angebot sind ja größtenteils gefakete Lockangebote...
 
was habt ihr denn erwartet.Das Raytracing stammt noch aus eienr ära wo Quake 3 arena raytracing anbot.Das hat nämlich auch 1080 mit 30 fps geschafft kappt.Also da wo die auf echtes Raytracing umgeschwangt wurde.Es sah schon sehr beeindruckend damals aus.Und das griff Nvidia auf.Dachte die tuen es als neues Future raus bringen,in der hoffnung erneut kunden so richtig zu Melcken.Denen fällt echt nix mehr neues ein.Leistungssteigerung sucht man wegen raytracing aus damals echt vergebens.Es war seid dem erscheinen von rtx 2080/2080 ti von vorn herrein klar,das die rtx 2070 nichts sinnvolles werden kann.Bei gtx 2060 ob die was wird.DIe wird wohl zwischen gtx 1060 und gtx 1070 liegen.Was aber auch eher unspektakulär wäre.
 
Mir ist auch jetzt klar warum Nvidia schon einen drastischen Preisanstieg bei Pascal angewendet hatte damit dieses jetzt mit Turing nicht ganz so heftig erscheint wegen Raytracing.
Man sieht doch bei allen Umfragen das die meisten Gamer noch in FHD spielen und eine GPU der Klasse 1060 und RX 580 verwenden . Also sollen die Enthusiasten die mehr Geld ausgeben für ihre Hardware diese neue Technik bezahlen. Nur hängt das eben auch an den Entwicklern ob die Raytracing benutzen denn es gibt auch genug Indie-Spiele und wenn man deren Grafik ansieht fühlt man sich 20 Jahre zurückversetzt. Diese Indie-Entwickler haben nicht die Zeit und nicht das Geld so eine neue Technik einzusetzen. Wie sieht es bei den Konsolen aus denn diese sind immer noch maßgebend in Sachen Spiele.

Ich kann nur von mir aus sagen das Lichteffekte zwar nett aussehen aber ich nicht bereit bin dafür zu Bezahlen zumal ich schon etwas mehr Geld ausgegeben habe für meine GPU als früher. Ich meine wir krächsen heute immer noch rum bei FHD aber 4K gibt es schon eine zeitlang und in manchen Ländern wird schon 16K getestet aber Nvidia meint da einfach mal die Spieler um Geld zu bitten für eine Technik die keiner braucht.

Ich hoffe nächstes Jahr auf Ryzen 3000 und Navi und das AMD vernünftige Preise nimmt denn dieses Jahr ist gelaufen in Sachen GPU´s und CPU´s!
 
Ich will bis spätestens Weihnachten auf WQHD umsteigen und meine Zotac GTX970 AMP hängt im OC Limit. Mir fehlt also nur noch eine fette Karte. Problem ist nur Raytracing interessiert mich in diesem Stadium nicht die Bohne und die Leistung ist mir in den 2 Jahren Entwicklung zu Gering für den noch höheren Preis. Eine gute 1080 gibt es weit und breit nicht mehr und darunter möchte ich nicht (wqhd + 144 hz) Eine gute 1080 Ti liegt leider in einem bereich den ich nicht bereit bin zu Zahlen (800€ + ) Kann mir bitte jemand Helfen ? :huh:
 
Ich will bis spätestens Weihnachten auf WQHD umsteigen und meine Zotac GTX970 AMP hängt im OC Limit. Mir fehlt also nur noch eine fette Karte. Problem ist nur Raytracing interessiert mich in diesem Stadium nicht die Bohne und die Leistung ist mir in den 2 Jahren Entwicklung zu Gering für den noch höheren Preis. Eine gute 1080 gibt es weit und breit nicht mehr und darunter möchte ich nicht (wqhd + 144 hz) Eine gute 1080 Ti liegt leider in einem bereich den ich nicht bereit bin zu Zahlen (800€ + ) Kann mir bitte jemand Helfen ? :huh:

Die Vega´s sind zwar nicht so effizient wie Pascal aber würde ich heute eine GPU kaufen wollen und vorher war bei mir eine R9 280X verbaut und jetzt eine 1080 würde ich zu einer Vega 64 raten und da gibt es schon eine für 484€.
Radeon RX VEGA -> Grafikkarten (VGA) -> Hardware | Mindfactory.de - Hardware, Notebooks & Software

Ich bin von Vega enttäuscht aber wollte ich heute aufrüsten wäre es diese Vega 64.
Da kann man dann sogar noch sagen das man ein Sammlerstück hat in ein paar Jahren denn eine Gaming-Karte mit HBM2-RAM hat nicht jeder ;-)
 
Zuletzt bearbeitet:
Die Vega´s sind zwar nicht so effizient wie Pascal aber würd eich heute eine gPU kaufen wollen und vorher war bei mir eine R9 280X verbaut und jetzt eine 1080 würde ich zu einer Vega 64 raten und da gibt es schon eine für 484€.
Radeon RX VEGA -> Grafikkarten (VGA) -> Hardware | Mindfactory.de - Hardware, Notebooks & Software

Ich bin von Vega enttäuscht aber wollte ich heute aufrüsten wäre es diese Vega 64.

für den preis findest du keine bessere.
 
Jetzt übertreibt Nvidia ganz, die XX70- Reihen standen normalerweise für die gehobenen Mainstreamkarten, dafür ist sie schlicht zu teuer. RTX 2080 ist schon mit 8GB Vram fehl am Platz ( 11GB Version würde die Karte stark aufwerten), die Karte hier ist nur für Tensorflow- Experimente interessant.
 
Ich plane zur zeit ein G-Sync Monitor wobei die auch recht teuer sind... scheiß kunden Bindung :motz: Die frage ist nur ob eine moderne 2070 für den selben preis einer 1080 nicht doch das klügere Produkt ist.
 
Zurück