Geforce RTX 2070: Kaufen Sie die kleinste Turing-Grafikkarte?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 2070: Kaufen Sie die kleinste Turing-Grafikkarte?

Nvidia hat die Geforce RTX 2070 offiziell veröffentlicht. Sie bietet zum grob gleichen Preis etwas mehr Leistung als die GTX 1080 in klassischen rasterisierten PC-Spielen und bringt obendrein die Turing-Funktionen fürs Raytracing und DLSS mit. PC Games Hardware möchte nun gerne von seinen Lesern wissen, ob sie die Geforce RTX 2070 kaufen wollen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 2070: Kaufen Sie die kleinste Turing-Grafikkarte?
 
Wegen der KArte müsste man von 4K auf HD downgraden und hat immer noch nicht die 60fps, wenn man Raytracing nutzen möchte. Was ja auch der sinn der karte sein soll. SLI ist ja gestorben und wird überhaupt nicht weiterentwickelt. Daher würde ich erst die nächste oder sogar übernächste RTX Generation warten...
 
Der Preis ist leider ziemlich unfair. Die günstigeren Modelle sind aktuell etwa 100 € zu teuer, um wirklich sexy zu sein. Die Leistung gab es bereits vor 2 Jahren zum selben Preis...
Von einer neuen Gen erwarte ich jedoch mehr und nicht das Gleichen fürs selbe Geld.
Die paar "Extras" sind derzeit keinen Aufpreis wert.
 
Die 2070 bringt eine ähnliche Leistung wie eine 1080 zum selben Preis und bietet neue Features. Das ist für mich ein Refresh und kein Upgrade. Wenn man jetzt eine Grafikkarte in der Preisregion der 1080 kaufen möchte dann ist die 2070 meiner Meinung nach die bessere Wahl.
 
>>NEIN<<

Das Ding ist für mich irgendwie eine Mogelpackung .... sieht Neu aus macht es aber nicht wirklich besser als die Alten ("für den Preis").

Wenn ich noch mal Geld ausgebe dann eher für eine 1080ti ... eine 2070 zu kaufen, wäre für mich persönlich Geldverschwendung.
 
bin moemntan noch etwas unentschlossen. ist die einzige turing karte, die nicht komplett überteuert ist. brauche eine neue graka und schwanke zwischen der 1070ti oder der 2070. bei beiden will ich noch bis weihnachten warten, in der hoffnung einen guten deal zu bekommen.
 
Der Preis ist leider ziemlich unfair. Die günstigeren Modelle sind aktuell etwa 100 € zu teuer, um wirklich sexy zu sein. Die Leistung gab es bereits vor 2 Jahren zum selben Preis...
Aha u das Featureset u die Effizienz gab’s damals auch schon ,zusammen mit einem nochmals größeren Silzium DIE. der natürlich so wie die gesamte Entwicklung von Turing zum Null Tarif daher kommt:freak:

Und die Maulhelden Firma die vor nem Jahr noch "poor Volta“ geblubbert hat, hat selbstredend natürlich auch noch nen "16 nm"Refresh in Petto , der NVIDIA dazu veranlassen müsste auf ihre derzeitigen Margen zu verzichten ?

Ich bin ja gespannt wenn 7nm TSMC an dem Punkt ist für akzeptabel Yields , wie groß das Geheule dann sein wird, wenn Turing @2.0 kosteneffizient auf Navi losgelassen wird, der ja selbst für den 16nm Turing schon kein Gegner mehr ist

Und RTX Technologie dann dank 7nm Shrink in der Mainstream Liga mitspielt, wo AMD mit Navi nicht mal auch nur im Ansatz eine Antwort für hat...

Wie unfair war u ist denn dann der Vega 64 Preis, der diese Karten seit Anbeginn fast wie festgenagelt an die UVP bindet, wenn du schon Karten kritisierst , die mehr Featuresets mehr Leistung u fast doppelte Effizienz vorweißen können, für nahezu den selben Preis :freak:

Bei AMD ist das natürlich was anderes wenn sie den alten Schrott immer noch so teuer zu verkaufen versuchen, NVIDIA soll gefälligst in die selbe Herstellungsfalle tappen, und die Margen einbrechen lassen, weil einige Turing für 5 Mark 80 zig Lutscherpreise haben möchten, bevor 7nm das überhaupt hergibt für vernünftig wirtschaftende Firmen:lol:
 
Zuletzt bearbeitet:
Aha u das Featureset u die Effizienz gab’s damals auch schon ,zusammen mit einem nochmals größeren Silzium DIE. der natürlich so wie die gesamte Entwicklung von Turing zum Null Tarif daher kommt:freak:

Und die Maulhelden Firma die vor nem Jahr noch "poor Volta“ geblubbert hat, hat selbstredend natürlich auch noch nen "16 nm"Refresh in Petto , der NVIDIA dazu veranlassen müsste auf ihre derzeitigen Margen zu verzichten ?

Ich bin ja gespannt wenn 7nm TSMC an dem Punkt ist für akzeptabel Yields , wie groß das Geheule dann sein wird, wenn Turing @2.0 kosteneffizient auf Navi losgelassen wird, der ja selbst für den 16nm Turing schon kein Gegner mehr ist

Und RTX Technologie dann dank 7nm Shrink in der Mainstream Liga mitspielt, wo AMD mit Navi nicht mal auch nur im Ansatz eine Antwort für hat...

Wie unfair war u ist denn dann der Vega 64 Preis, der diese Karten seit Anbeginn fast wie festgenagelt an die UVP bindet, wenn du schon Karten kritisierst , die mehr Featuresets mehr Leistung u fast doppelte Effizienz vorweißen können, für nahezu den selben Preis :freak:

Bei AMD ist das natürlich was anderes wenn sie den alten Schrott immer noch so teuer zu verkaufen versuchen, NVIDIA soll gefälligst in die selbe Herstellungsfalle tappen, und die Margen einbrechen lassen, weil einige Turing für 5 Mark 80 zig Lutscherpreise haben möchten :lol:

Und natürlich muss von dir wieder ein hier vollkommen sinnloser Seitenhieb gegen AMD kommen... du bist so erbärmlich, ich werde wohl nie erleben, dass irgendwas lesbares von dir kommt. Daher werde ich dich von jetzt an ignorieren. DU bist die Mühe nicht wert.
 
Na was die Grafikindustrie und Monitorhersteller hierzur Zeit anstellen, ist einfach nur noch arm und ziemlich peinlich.
Grafikkarten die für die heutige Hardware definitiv zu schwach sind, werden hier super überteuert an den ahnungslosen Kunden verkauft. Monitore deren Leistung gar nicht erreichbar ist ab auf den Markt damit.

Beispiel: 4k Sollten doch solangsam mal Standart werden, 2K sollten es doch schon sein. Denn einen 2k Monitor mit 144 Hz bekomme ja günstig gekauft.
So nun Baue mir dazu eine 1070 oder nein sogar 1080Ti ein von mir aus auch ein neues Modell.
Wow Spiele nun mit einem i7-8700K und einer 1080Ti Strix mit grade mal 80 FPS. Nun wofür gibt es 4k oder 2k mit den 100 Hz oder mehr??? wenn die Grakarten nicht mal in die nähe der Leistungen kommen.
Oder warum werden mir solche Monitore um die Ohren geschmissen die ich gar nicht ausgereitzt bekomme????? Und darauf eine Lagparade vom feinsten erblicken muss????

Hier wird der Kunde nur zum öffnen des Beutels gebeten, bekommen tut dieser dann leider nur dreck. Diesen kann man schön ansehen aber vorne und hinten nicht an die zu erreichende Laeistung bringen. Spielen in 4k =D ja klar wer gerne in Whicher durch die gegend ruckelt oder In Black Ops4 gerne framedrops auf 30 FPS verzeichnen möchte und dicke lags liebt, soll sich den scheis kaufen.

Alle Anderen, bleibt bei HD kauft nur ne Nvidia 1060. Wenn es sein muss für den Preis der neuen eine ordentliche alte (1080TI) und geniest das gaming.
Bei der 1080TI bekommt ihr lockere 160 FPS > bei HD hin, bei 2k nur noch 90FPS <, bei 4k 60FPS <
Bei der 1060 je nach setup bei HD bis zu 120 FPS und mehr möglich.

Bei einem Monitor mit 144Hz, achtet auch diese als FPS zu erreichen erst dann wird ein Monitorbild ruckelfrei (sichtliche Microruckler "vergleichbar mit Bild zittern").
Mein 4k Monitor schafft 100hz grafikkarte erreicht (altes Call of Duty "low settings" mit 4k bei 100fps super Bildverlauf sieht aber aus wie am Gameboy , spiele da mit 60 FPS (ultra high settings) dann habe ein geruckelzuckel.
Geile Technik!!!!!!!!!!!!!!!!!!!

Fazit: Kauft nur FullHD Monitore dann reichen die Grafikkarten auch!!!
Ab 2K leider nicht mehr, den der FPS verlust ist viel zu hoch um bei 2k eine stabile FPS zum befeuern der Hz an den Monitor senden zu können.
 
Och im Monitormarkt finde ich hat sich die letzten Jahre durchaus einiges getan. Endlich mal, HDR, Sync, bessere Kontraste.
 
Aha u das Featureset u die Effizienz gab’s damals auch schon ,zusammen mit einem nochmals größeren Silzium DIE. der natürlich so wie die gesamte Entwicklung von Turing zum Null Tarif daher kommt:freak:

Und die Maulhelden Firma die vor nem Jahr noch "poor Volta“ geblubbert hat, hat selbstredend natürlich auch noch nen "16 nm"Refresh in Petto , der NVIDIA dazu veranlassen müsste auf ihre derzeitigen Margen zu verzichten ?

Ich bin ja gespannt wenn 7nm TSMC an dem Punkt ist für akzeptabel Yields , wie groß das Geheule dann sein wird, wenn Turing @2.0 kosteneffizient auf Navi losgelassen wird, der ja selbst für den 16nm Turing schon kein Gegner mehr ist

Und RTX Technologie dann dank 7nm Shrink in der Mainstream Liga mitspielt, wo AMD mit Navi nicht mal auch nur im Ansatz eine Antwort für hat...

Wie unfair war u ist denn dann der Vega 64 Preis, der diese Karten seit Anbeginn fast wie festgenagelt an die UVP bindet, wenn du schon Karten kritisierst , die mehr Featuresets mehr Leistung u fast doppelte Effizienz vorweißen können, für nahezu den selben Preis :freak:

Bei AMD ist das natürlich was anderes wenn sie den alten Schrott immer noch so teuer zu verkaufen versuchen, NVIDIA soll gefälligst in die selbe Herstellungsfalle tappen, und die Margen einbrechen lassen, weil einige Turing für 5 Mark 80 zig Lutscherpreise haben möchten, bevor 7nm das überhaupt hergibt für vernünftig wirtschaftende Firmen:lol:

Das Featureset, bildet etwas ab, das bei der RTX 2070 eine deutliche Leistungseinbuse mitbringt, sobald man es konsequent nutzen will.
Da kämpft eine RTX 2080Ti schon heftig.
Ich beziehe das ausschließlich auf UHD-Inhalte, zumal man großspurig in dem Bereich immer erreichbare 60Fps in allen neu erscheinenden Games stemmen wollte.
Das es nicht so ist, zeigen die realen Tests sehr deutlich.
Statt die neuen Grafikkarten wirklich potent für UHD zu machen, spielt man ein Feature ein, welches in der Kombination uneingeschränkt richtig spieltauglich erst in der wohl übernächsten Grafikkartengeneration für performancehungrige ältere, aktuelle und gerade in diesem Jahr erscheinende Games zum tragen kommt.
Das ist bei AMD leider nicht anders!
Bei dem Zweifrontenkrieg gegen Intel und Nvidia nicht vordergründig zu erwarten,
Ich hätte jedoch von Nvidia einen solch dramatischen Performancesprung erwartet, da ja nur AMD der noch alleinige ernsthafte Kontrahent, der die derzeitigen Preise wirklich rechtfertigt
 
Zu wenig Leistung für zu viel Geld. Für 600 würde ich ne 2080 kaufen, für 800 würde ich über ne 2080 Ti nachdenken, aber das wäre auch mein Limit in Sachen Preis/Leistung. Ne neue Karte auf dem Niveau einer 2070 sollte meiner Meinung nach nicht viel mehr, als 400 Euro kosten. Ich werde wohl warten. Auf niedrigere Preise, was AMD in Zukunft so ausfrisst oder evtl. auf die nächste Nvidia Generation.
 
Wegen der KArte müsste man von 4K auf HD downgraden und hat immer noch nicht die 60fps, wenn man Raytracing nutzen möchte. Was ja auch der sinn der karte sein soll. SLI ist ja gestorben und wird überhaupt nicht weiterentwickelt. Daher würde ich erst die nächste oder sogar übernächste RTX Generation warten...

Naja, nicht wirklich. Die Neuen RTX Karten unterstützen ja wieder SLI.....genau das ist ja die nächste "Mogelpackung". Die Karten haben zwar ein NV-Link ABER übertragen nur das normal SLI Protokoll. Also gibt es wieder eine "Master Graka" und eine "Slave Graka". Das neuere NV-Link Protokoll gibts nur bei den Quadro und Tesla Karten. ...zum Glück habe ich mir nicht so ein RTX-Klo gekauft :)
 
Das Ding taugt nur als Alternative zur 1080 und auch nur deshalb, weil es das neuere Produkt ist! Das ist schon armselig für 500 - 700€, find ich!
Insofern; Nein, ich hab was besseres!
Der Preis ist leider ziemlich unfair. Die günstigeren Modelle sind aktuell etwa 100 € zu teuer, um wirklich sexy zu sein. Die Leistung gab es bereits vor 2 Jahren zum selben Preis...
Aha u das Featureset u die Effizienz gab’s damals auch schon ,zusammen mit einem nochmals größeren Silzium DIE. der natürlich so wie die gesamte Entwicklung von Turing zum Null Tarif daher kommt:freak:

Und die Maulhelden Firma ...
Maulhelden Firma ... Ja seh ich auch so, AMD gehört eindeutig in diese Kategorie!
Nur:
„Dein“ tolles Featureset ist bis jetzt und bleibt für die 2070 ohnehin, Marktschreierei einer Maulhelden - Firma, ... aber nicht nur für die 2070!
„Deine“ Effizienz! Ja, die gab‘s vor 2 Jahren mit der 1080! 180W, liegt genau zwischen der „normalen“ 2070 175W und der 2070 FE 185W. Wenn wir nur bei den offiziellen Angaben bleiben aber auch die tatsächlichen Werte, sind nicht sonderlich unterschiedlich.
Entwicklung die nur in Phantasien einer Maulhelden Firma früchte trägt ist Stagnation, keine Entwicklung!
Auch ein größerer Die, ist ledeglich dumme Marktschreierei!
Was ist jetzt, wenn man darauf reinfällt? Erspar ich mir mal...
 
Eine Maxwell wollte ich haben. Eine Pascal wollte ich haben. Eine Turing? Nein.
Vielleicht wird es bei mir seit über 12 Jahren wieder eine rote Karte, mal schauen was AMD machen bzw bringen wird in naher Zukunft.
 
Alle 3 oberen gründe.

Zu wenig Leistung, dafür zu teuer und zu wenig RAM.

3x 980ti Leistung mit 24gb RAM und ich rueste mal wieder auf.
Wird bei der lahmen Entwicklung wohl aber noch 5 Jahre dauern bis wir mal da sind.
 
Zurück