Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Mal eine blöde Frage...
Die 2070 läuft ja durchgehend im Powerlimit bei den Tests ohne Raytracing / DLSS.
Wie sieht das dann aus wenn das dann mal genutzt wird? Ich meine die Tensor Kerne benötigen doch dann auch noch zusätzlich Saft, was demnach dann doch von dem Rest der GPU abgezogen werden muss und somit auch für niedrigere Takt sorgt. Oder? klärt mich mal auf.

Den selben Gedanken hatte ich auch: RT und DLSS kann man auf der 2070 eigentlich nicht nutzen, da sie hart powerlimitiert ist. Denn dann dürfte die "Restleitung" deutlich unter das Niveau der 1070, fast auf Augenhöhe der 1060 fallen. Sowohl RT als auch Tensor-Cores sollten jeweils mindestens 20 Watt abzweigen, bei 175 Watt PT bleibt vielleicht 125 Watt für die 2304 Shader übrig. Das kann man dann mit einer GTX 1080 Max Q vergleichen, die nur knapp vor eine 1060 kommt...
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Dann wird es wohl bei mir eine neue RTX2070 sein:daumen:
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Hi!

Ich hoffe, ihr kommt mit dem Test parat, ich bin an das Ganze ein bisschen anders herangehen als Raff es normalerweise tut, da ich auch nicht genau weiß, wie er die RTX 2070 überhaupt zu testen gedenkt.
Auch seine genauen Testabläufe kenne ich nicht zu 100 %, irgendetwas wäre also selbst beim Versuch, seine Testmethodik zu replizieren, mit einiger Gewissheit anders abgelaufen, als bei ihm.

Und bevor ich etwas nicht nach seinem Sinne produziere, was er dann anschließend wieder zurecht biegen muss, nehme ich lieber eine Testmethode die mir geläufig ist und weise darauf hin, dass es dieses Mal eben ein bisschen anders abläuft.
Also habe ich im die Karte im Grunde wie in einem Spiele-Technik-Test behandelt, daher auch die etwas andere Spieleauswahl, da kann ich dann genauso gut auch eine etwas andere Wahl treffen.

Ich habe übrigens noch Shadow of the Tomb Raider ergänzt und die Benchmarks der Übersicht halber alphabetisch geordnet. Morgen kommen noch zwei Spiele, Far Cry 5 und The Witcher 3 – da habe ich schon die Ergebnisse, bin allerdings noch nicht zum Auswerten gekommen. Der Testzeitraum war ein wenig knapp ;)

Ich schau nun mal, dass ich auch noch etwas Aussagekräftiges zur RT-Performance fabriziert bekomme, die geupdateten Nvidia-Demos funktionieren nun offenbar.

Gruß,
Phil
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Solange Nvidia solche Preise abruft muss sich AMD nicht wirklich fürchten.
Die meisten sind außerdem schon mit ihrer benötigten Performance eingedeckt. EIne 1080 oder Vega.

Aber eins hab ich bislang gar noch nicht gesehen: wenn der Chip 445 mm² hat, dann bringt Nvidia es zustande trotz der angeblich so vielen Zusatztransistoren (Teonsor, RT Cores, größere Shader, massiv mehr Cache) kleiner zu bleiben als Vega (486mm², 12.5 Mio Transistoren, kleines HBM Interface) und dennoch performanter im normalen Rastern.

Bislang dachte ich, AMD könnte Nvidia ja mit einerm "Rasterizer only" Chip kontern, aber irgendwie dann doch nicht.

@Test
Wir haben bei der MSI Geforce RTX 2070 Armor 8G das Powerlimit über den MSI Afterburner fix auf 114 Watt maximiert, was in einer Leistungsaufnahme von bis zu 200 Watt resultiert.
Vermutlich Prozent gemeint
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

"Turing wird günstig" & "Nvidias Turing Generation steigt in moderate Preisgefilde herab"

GTX 770 in 07.2013 = 325€
GTX 970 in 09.2014 = 319€
GTX 1070 in 10.2016 = 399€
RTX 2070 in 11.2018 = 515€

Über 500€ sind für eine Mittelklasse-Karte meiner Meinung nach nicht als "moderat" zu bezeichnen.
Und als Kunde interessiert mich die Chip-Größe nen feuchten Käsekuchen.
Warum unterstützt und vertretet Ihr diese Preisentwicklung mit solchen Formulierungen PCGH? :what:

Beim i9 9900k Artikel habe ich mich das neulich schon gefragt. Wird da verglichen mit i7 8700k zu 400-450€.
Haben alle vergessen, dass es diese Krücke bereits für ein halbes Jahr um 300€ gab?
Das ist doch Tatsachenverdrehung. Schönrechnerei. Weiß echt nicht was ich davon halten soll. Sorry, aber :huh:
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ich wäre sehr überrascht, wenn es ein Jahr dauern würde, bis 7nm bei Nvidia Einzug erhält. Die längste Zeit, die man AMD freies Feld gelassen hatte, waren die sechs Monate für Evergreen. Und, nicht zu vergessen, Fermi war eine Generation mit starken Problemen im Vorlauf. Beim zeitlichen Ablauf handelte es sich also nicht gerade um freiwillige Planung. Des weiteren deutet wenig auf eine umfassenden Architekturveränderung und viel mehr auf einen Shrink oder Shrink+ hin.
Ob Nvidia sein neues Flaggschiff schon nach so kurzer Zeit obsolet machen möchte? Das wäre für Turing-Käufer ein erheblicher Wertverlust nach relativ kurzer Zeit, wenn die neuen Karten zum alten Preis stark drauflegen (was sie aber auch müssten). Deswegen glaube ich eher, dass Nvidia bis 2020/auf 7nm+(EUV) wartet und gegen Navi mit Preissenkungen bei Turing konkurriert. Ich mein, ein hypothetischer Navi mit 4096 SPs und etwas mehr IPC für unter 300€ wird vielleicht der 2070 gefährlich, aber dann geht man halt auf 350€ runter (Nvidia Bonus, Raytracing) und gut ist. Das wird zwar die Margen senken, aber trotzdem noch profitabel sein. 12nm ist ein reifer Prozess und die Preise für Speicher sollen fallen. So oder so, jetzt ist mMn eh ein schlechter Zeitpunkt, sich eine Karte zu kaufen, wenn man noch ein halbes oder dreiviertel Jahr warten kann...
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Im Gegensatz zum Austausch der GTX 1080 Ti gegen die RTX 2080 hat dei RTX 2070 gegenüber der GTX 1080 aber immerhin keinen einzigen Nachteil.
Das ist im Prinzip zwar korrekt, aber auch genau so traurig, wenn man nicht mehr wegen Vorteilen kauft, sondern sich damit motiviert dass das neue Produkt zumindest keine Nachteile hat. :ugly: :D
:lol:

Das habt ihr beide wirklich schön auf den Punkt gebracht. Da kann Nvidia jetzt einen fetten Störer auf die Produktverpackung kleben: "Keine Nachteile" mit nem thumbs up Piktogramm darunter. Läuft. :ugly:

MfG
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Hi!

Ich hoffe, ihr kommt mit dem Test parat, ich bin an das Ganze ein bisschen anders herangehen als Raff es normalerweise tut, da ich auch nicht genau weiß, wie er die RTX 2070 überhaupt zu testen gedenkt.
Auch seine genauen Testabläufe kenne ich nicht zu 100 %, irgendetwas wäre also selbst beim Versuch, seine Testmethodik zu replizieren, mit einiger Gewissheit anders abgelaufen, als bei ihm.

Und bevor ich etwas nicht nach seinem Sinne produziere, was er dann anschließend wieder zurecht biegen muss, nehme ich lieber eine Testmethode die mir geläufig ist und weise darauf hin, dass es dieses Mal eben ein bisschen anders abläuft.
Also habe ich im die Karte im Grunde wie in einem Spiele-Technik-Test behandelt, daher auch die etwas andere Spieleauswahl, da kann ich dann genauso gut auch eine etwas andere Wahl treffen.

Ich habe übrigens noch Shadow of the Tomb Raider ergänzt und die Benchmarks der Übersicht halber alphabetisch geordnet. Morgen kommen noch zwei Spiele, Far Cry 5 und The Witcher 3 – da habe ich schon die Ergebnisse, bin allerdings noch nicht zum Auswerten gekommen. Der Testzeitraum war ein wenig knapp ;)

Ich schau nun mal, dass ich auch noch etwas Aussagekräftiges zur RT-Performance fabriziert bekomme, die geupdateten Nvidia-Demos funktionieren nun offenbar.

Gruß,
Phil

Du hast super Arbeit geleistet! Das Muster mit den Spielebenchmarks macht auch deutlich mehr Sinn in dem Kontext wie ich finde.
Auch die Auswahl der Titel finde ich aus technischer Sicht gelungen. Ich finde es so sogar deutlich informativer als die Ref.Karten hier ins Feld zu führen.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Und damit bleibt die 20XX Serie komplett uninteressant.
Neukarten Preise über 500€ schrecken mich eher ab. Daher war auch die XX70 Reihe bisher immer am interessantesten für mich.
Und jetzt macht man diese Reihe sinnlos teurer, weil man ihr Technik verpasst, welche sie zwar nun kann, aber nicht in dem Maß das es nützlich ist.

Augen nach einer Günstigen 1080Ti offen halten, ansonsten macht meinen 1070 immer noch gute Arbeit, auch wenn ich mir durch WQHD oder 1080p + 144Hz schon gern etwas mehr Power wünschen würde.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

das in wolfenstein der speicher ausgeht wundert kaum bei 8xaa in 4k. habe nie mehr als 2x msaa oder ähnliches in 4k am laufen
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Zuerst war ich überrascht, dass die Karte auf den ersten Blick so dicht an einer 1080 Ti dran ist. Da sie aber ab WQHD sehr viel deutlicher zurückliegt ist das wohl ein CPU Limit. Trotzdem ist die 2070 wohl die "vernünftigeste" Turing Karte, da nicht wesentlich teurer als die noch verfügbare Pascal oder Vega Konkurrenz.
Aber eins hab ich bislang gar noch nicht gesehen: wenn der Chip 445 mm² hat, dann bringt Nvidia es zustande trotz der angeblich so vielen Zusatztransistoren (Teonsor, RT Cores, größere Shader, massiv mehr Cache) kleiner zu bleiben als Vega (486mm², 12.5 Mio Transistoren, kleines HBM Interface) und dennoch performanter im normalen Rastern.
Was hast du denn erwartet? Die 1080 bringt Vega Leistung schon seit 2 Jahren, und das mit einem (geringfügig) schlechterem Fertigungsprozess und nur mit 314 mm^2 Chipfläche.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Die 2070 ist keine schlechte Karte, aber wirklich kaufen muss man diese nicht. Von einer Neuen Gen wie der 2070 habe ich da schon mehr erwartet. Vor allem für die Jungs die schon eine 1080/TI oder Vega64 haben lohnt der Umstieg nicht.

Und auch ich bin der Meinung, Preise über 500€ für eine Mittelklasse Karte sind abartig. Scheinbar ist das in heutigen Artikeln keine Wortmeldung mehr Wert weil man über die Zeit den Jährlichen Preisanstieg gewohnt ist.

Gruß
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

das in wolfenstein der speicher ausgeht wundert kaum bei 8xaa in 4k. habe nie mehr als 2x msaa oder ähnliches in 4k am laufen

Musst du ja auch, sonst geht deinem Speicherkrüppel in noch mehr Spielen der geliebte VRAM aus :P ( nicht böse gemeint mein Lieber :kuss: )
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Solange Nvidia solche Preise abruft muss sich AMD nicht wirklich fürchten.
Die meisten sind außerdem schon mit ihrer benötigten Performance eingedeckt. EIne 1080 oder Vega.

Aber eins hab ich bislang gar noch nicht gesehen: wenn der Chip 445 mm² hat, dann bringt Nvidia es zustande trotz der angeblich so vielen Zusatztransistoren (Teonsor, RT Cores, größere Shader, massiv mehr Cache) kleiner zu bleiben als Vega (486mm², 12.5 Mio Transistoren, kleines HBM Interface) und dennoch performanter im normalen Rastern.

Bislang dachte ich, AMD könnte Nvidia ja mit einerm "Rasterizer only" Chip kontern, aber irgendwie dann doch nicht.

@Test

Vermutlich Prozent gemeint

Ein Tensor-Core benötigt grob doppelt soviel Fläche, wie ein Shader, RT-Cores sind noch etwas größer, dann überleg Mal wieviel Shader Vega im Vergleich hat, dann weißt du auch, wo die Fläche "verloren" geht. Trotzdem baut AMD enger, was zu geringerem Takt führt. Aber auch bei gleichem Takt liegt AMD bei gleicher Shaderzahl leistungsmäßig deutlich hinten...
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Nach genauem Studium des Tests hier muss man wirklich sagen dass die Karten eine enttäuschung sind. Die G1 und die Nitro lassen sich nochmal dicke übertakten, das heist die 2070 sieht mit non A Chip hier wohl auch kein Land. Der GDDR6 ist langsamer als der HBM, wenn man beide übertaket ist auch die Bandbreite niedriger beim GDDR6, also auch hier keinerlei Vorteile.

Diese Karte ist schlicht überflüssig zu dem Preis, ich hatte bessere Ergbenisse erwartet muss ich sagen. Im Indexparcour siehts wahrscheinlich noch düsterer aus für die Karte, wobei die sich da gegen die Ref.Karte wohl zumindest durchsetzen kann.....welch ein Erfolg:wall:

Die einzigen Karten die etwas Mehrleistung bringen @Stock und OC kosten dann 600 Euro.
Es bleibt alles beim alten, wer in der Klasse kauft sollte eine V56/1070ti nehmen und ein wenig aufbohren, hat die selbe oder mehr leistung und 120-200 Euro gespart.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ob Nvidia sein neues Flaggschiff schon nach so kurzer Zeit obsolet machen möchte? Das wäre für Turing-Käufer ein erheblicher Wertverlust nach relativ kurzer Zeit, wenn die neuen Karten zum alten Preis stark drauflegen (was sie aber auch müssten). Deswegen glaube ich eher, dass Nvidia bis 2020/auf 7nm+(EUV) wartet und gegen Navi mit Preissenkungen bei Turing konkurriert. Ich mein, ein hypothetischer Navi mit 4096 SPs und etwas mehr IPC für unter 300€ wird vielleicht der 2070 gefährlich, aber dann geht man halt auf 350€ runter (Nvidia Bonus, Raytracing) und gut ist. Das wird zwar die Margen senken, aber trotzdem noch profitabel sein. 12nm ist ein reifer Prozess und die Preise für Speicher sollen fallen. So oder so, jetzt ist mMn eh ein schlechter Zeitpunkt, sich eine Karte zu kaufen, wenn man noch ein halbes oder dreiviertel Jahr warten kann...
Also vor einem Absägen des alten Flagschiffes hatte Nvidia noch nie Angst. Das heißt natürlich nur wenig, allerdings gibt es für sie auch einen guten Grund keine Angst davor zu haben: Seit der 1000er-Serie versuchen sie sich ja an der quasi 1:1-Fortsetzung des Preis-Performancegefüges der jeweils alten Gen. Dank zwei Schnipseln ensteht aber dennoch ein Sog nach oben, ein Anlass, zur neuen Generation am oberen Ende zu greifen:
Einerseits, weil man sozusagen die Vorteile der neuen Gen immer noch gratis dazubekommt. Das ist natürlich ein massives Downgrade gegenüber früher. Und andererseits, weil im Gegensatz zu Fermi und früher die teuerste Karte auch immer die rundherum beste Karte darstellt: Eine 480/580 hatte gegenüber der 460/560Ti die schlechtere Effizienz OutOfTheBox und sogar noch immer noch nach Tunings, das ist heute absolut nicht mehr der Fall.

So, was soll das alles sagen? Nvidia bringt sicher ein Update. Vielleicht eines, das nicht auf AMD reagiert, vielleicht eines, mit dem sie sich lächerlich machen, vielleicht z.B. ausschließlich eine neue Titan und neue Tegras, irgendwas skurriles. Aber sie werden 7nm sicher nicht liegen lassen.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Den selben Gedanken hatte ich auch: RT und DLSS kann man auf der 2070 eigentlich nicht nutzen, da sie hart powerlimitiert ist. Denn dann dürfte die "Restleitung" deutlich unter das Niveau der 1070, fast auf Augenhöhe der 1060 fallen. Sowohl RT als auch Tensor-Cores sollten jeweils mindestens 20 Watt abzweigen, bei 175 Watt PT bleibt vielleicht 125 Watt für die 2304 Shader übrig. Das kann man dann mit einer GTX 1080 Max Q vergleichen, die nur knapp vor eine 1060 kommt...

Vielleicht ist das dan das "große +" der Custom karten die deutlich mehr Stromanschlüsse spendiert bekommen... Bitte da dann auch an PCGH dass sie das auch mal unter die Lupe nehmen, vorallem bei den Karten die eben schon ohne DLSS und Raytracing im Powerlimit hängen...
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

So, was soll das alles sagen? Nvidia bringt sicher ein Update. Vielleicht eines, das nicht auf AMD reagiert, vielleicht eines, mit dem sie sich lächerlich machen, vielleicht z.B. ausschließlich eine neue Titan und neue Tegras, irgendwas skurriles. Aber sie werden 7nm sicher nicht liegen lassen.
Ampere soll nächstes Jahr in 7nm kommen. Sehr wahrscheinlich nur für den Profi-Markt, genauso wie es mit Volta war. Macht aus Nvidias Perspektive sicher auch Sinn, den neuen Prozess zuerst für den Profi-Markt zu nutzen, wo man größeres Wachstumspotenzial sieht.
 
Zurück