Geforce RTX 2070: Boardpartner halten 519 Euro UVP ein

Ja das passt doch. Wer sich eine Graka Richtung 1080 kaufen wollte, kann sich auch 2070 holen.
Bei der GTX 2080 gibt's halt aufgrund des mageren VRam im Vergeich zur 1080ti einen üblen Beigeschmack. Die Ausstattung hat Nvidea schon irgendwie ungünstig gewählt.
Und ansonsten, aufrüsten von bereits leistungstarken Karten a la GTX 1070 / 1080 kann man sich wohl ganz gut sparen.

Wieso sollte ein denkender Mitbürger das denn machen ? Weil die Karte mit 8GB so zukunftsicher ist oder wegen der hübschen Raytracing-Diashows? :daumen:

Ich hatte mit einer 1080 Ti überlegt, hatte aber gehofft das sie unter 500 fällt. Das sie mit 11 GB dann aber zu starke Konkurrenz für die 2080 ist, war wohl auch nvidia klar. Und wieder ist der Kunde der dumme weil AMD sich zum zweiten mal mit HBM verspekuliert hat. Mit DDR5x/6 hätten sie eine Vega 64 12 G bringen können, bei vermutlich gleichen oder gar niedrigeren Herstellungskosten.
Aber wir können wahrscheinlich froh sein das es Leute gibt die zu viel Geld haben oder behämmert genug sind und soviel Geld ausgeben, damit treiben sie trotz des Preisniveaus die Entwicklung voran. An die Zukunftssicherheit der 20er glaube ich aber beim besten Willen nicht - entweder es setzt sich nicht durch, dann hat man eine Karte mit sinnloser Technik. Oder es setzt sich durch und die nächste Gen. hat soviel mehr Raytracingleistung das die 20er "nichts" mehr wert sind.
Meines Wissens nach ist das Raytracing von nvidia ja auch wieder proprietär, also kann man AMD schön auf Abstand halten, selbst wenn die dann eine Karte mit konkurrenzfähiger Leistung hätten, fehlt eben die proprietäre, etablierte Technik, wie bei Intel mit AVX2
 
da freu ich mich gleich 3x, dass ich mit 280€ vor ca. einem dreiviertel Jahr bei ner 980ti zugeschlagen zu haben, die 1450Mhz auf stock vCore macht, und damit in 1070ti Schlagweite ist (OC vs OC sinds eben max. 10% Vorteil für den Pascal... ich hab im Unigine heaven zwischen 2500-2600, und 1070ti ist zwischen 2600-2800 Punkte).

Ich hätt zwar nen Grund aufzurüsten da ich mir vorige Woche einen 144Hz 27" WQHD gegönnt habe, aber nicht zu diesen Preisen.

Wirklich ein spürbares Upgrade wär für mich erst ab einer 1080ti, das wird die 2070 spekulativ nicht packen, die ich aber auch mit UVP Preisen immer noch zu teuer finde.

Ich rüst erst auf, wenn die Leistung gemessen in FPS/€ eine 1080ti für um die 300-400 gibt.

Und da ich meinen Monitor eh auf 60Hz auch stellen kann, hab ich ziemlich viel Atem dafür.

Und wieder ist der Kunde der dumme weil AMD sich zum zweiten mal mit HBM verspekuliert hat. Mit DDR5x/6 hätten sie eine Vega 64 12 G bringen können, bei vermutlich gleichen oder gar niedrigeren Herstellungskosten.

Ich denke dass sie es schon eingesehen haben, Das was du forderst sollte ja mit Navi dann kommen, in ungefähr genau einem Jahr dann. Wo die Leistung dann landen wird ist fraglich, aber ich schätze mal dass es nicht unter einer 1080 sein wird. Alles andere wäre peinlich mit nem 7nm Prozess.
 
Langweiligste Karte ever.
1080´er Leistung gibts ja nun schon ewig. Und die soll Ende 2018 immer noch über 500€ kosten? :schief:
Naja, eine Modellgeneration von anderen Waren (z.B. Autos, Laptop, Heizung) wird auch nicht automatisch aufgrund deren längerer Existenz günstiger, für mich also kein echtes Argument. Solange nicht das Angebot die Nachfrage deutlich übertrifft bzw. kein Wettbewerber was ähnliches zu einem günstigeren Preis anbietet, tut sich normalerweise mit dem Preis nix (im Gegenteil, eher noch Inflationsausgleich). Daher, funktionierender Wettbewerb ist grundsätzlich hilfreich. Und ein wohlüberlegter Klick/Nichtklick der potentiellen Käufer hilft beim Thema Angebot/Nachfrage. :-)

EDIT: Missverständnis meinerseits, siehe Geforce RTX 2070: Boardpartner halten 519 Euro UVP ein
 
Zuletzt bearbeitet:
Die kann ich eh nicht einbauen, alles über 2 Slot passt nicht in mein ITX Gehäuse.
Schon bei der Pascal Generation war es schwer eine passende Karte zu finden die wenigstens die Luft nach hinten teilweise aus dem Gehäuse statt nach oben leitet.
Irgendwie macht die Technik inzwischen mehr Schritte zurück statt vorwärts.
Immer größere Chips die immer mehr Strom verbrauchen? Nein danke.
Ich dachte eigentlich dass wir diese Zeiten hinter uns hatten...
 
BS, einfach mal die Daten gegenchecken, die wird nicht viel langsamer als eine 2080, 15% vielleicht, selbe Banbreite kaum weniger Shader.
Sobald Mesh Shading unterstützt wird, wird die Karte unter Directx12 oder Vulkan an der 1080 Ti kleben, teilweise auch schneller sein.
Klar und wer so etwas behauptet, der glaubt auch an den Weihnachtsmann! Die RTX 2070 kann froh sein, wenn diese überhaupt ohne DLLS und Raytracing mit der GTX 1080 mithalten kann. Selbst eine RTX 2080 kann froh sein, wenn sie es annähernd mit der GTX 1080Ti aufnehmen kann, auch da werden wir des Öfteren erleben, dass diese sich hinter einer GTX 1080Ti platzieren wird.

Die RTX 2070 ist in Wahrheit eine GTX 2060 zu einem Preis einer GTX 1080, da kann Nvidia froh sein, wenn man überhaupt ein paar von diesen Grafikkarten verkauft. Ich bin wirklich schon gespannt, wie die RTX 2070 mit Raytracing bei einer Auflösung von 1080p performt, aber da diese ja fast um die Hälfte bei den RTX Features kastriert ist, werden da wohl im optimalsten Fall maximal 30 FPS drin sein. Da muss man kein Ingenieurs Wissen haben, sondern nur logischen Sachverstand anwenden, man bekommt also ein RTX Raytracing Ready Feature, nicht mehr und nicht weniger! Den Schrott kann sich Nvidia in ihren Allerwertesten schieben, Sorry! :nene:
 
Ich frage mich wie viele Generationen kommen werden bis man unter 4K das Raytracing sinnvoll, also mit mind. 60 FPS nutzen kann? Ich verstehe die Logik ohnehin nicht. Die 2080Ti ist eigentlich die erste brauchbare 4K Karte und dann wirbt man begeistert mit Raytracing was maximal auf einem 1080p Monitor halbwegs ruckelfrei läuft. Wo ist da die Logik?
 
Natürlich sind Vorjahresmodelle immer deutlich günstiger.
Guck mal bei Fahrrädern, Smartphones, und ja auch Laptops, etc.
Stimmt (und war mir selbst auch bewusst). Ich hatte das anders verstanden. Nämlich dass die 1000er Generation einfach nur aufgrund der langen Zeit am Markt günstiger sein müsste. Aber so war's wahrscheinlich nicht gemeint, sondern eher so wie du es geschrieben hast.
 
Zuletzt bearbeitet:
Die kann ich eh nicht einbauen, alles über 2 Slot passt nicht in mein ITX Gehäuse.
Schon bei der Pascal Generation war es schwer eine passende Karte zu finden die wenigstens die Luft nach hinten teilweise aus dem Gehäuse statt nach oben leitet.
Irgendwie macht die Technik inzwischen mehr Schritte zurück statt vorwärts.
Immer größere Chips die immer mehr Strom verbrauchen? Nein danke.
Ich dachte eigentlich dass wir diese Zeiten hinter uns hatten...

Na dann mach doch im Kopf einen Schritt nach vorne,und kapiere das:" Wer Leistung haben will,auch Leistung erbringen muss."
Und dein ITX Gehäuse ist da völlig unpassend.

Selbst in meinem Smilodon passte die neue msi 1070ti so gerade auf den letzten Drücker.
Und die hat nur 2 Lüfter,.....
 
Hätte Nvidia die Chipfläche doch nur für mehr Shader verwendet, so gabs das noch sinnlose Raytracing Feature. Wie wäre es wenn man erstmal 4k mit 60FPS schafft, bevor man eine neue Baustelle eröffnet und irgendwas anderes anfängt. Das erinnert mich grad an die Autobahn Baustellen... Wenn eine fertig ist wird die nächste ein paar Meter weiter eröffnet.
 
Also finde genial was nvidia da gemacht hat. Hatten ein Haufen defekte quadro Chips übrig,also schnell 2 sinnfreie Sachen ausgedacht Raytracing Feature bei full hd 60 fps.
Hätten sie lieber erst mit der nächsten Generation herausgebracht, kleiner Chip billiger , oder gleich groß aber genug Leistung um es auch wirklich nutzen zu können.
Wird aber genug geben die sich die Karten kaufen.
Außer der 2080ti machen die Karten nur für nvidia Sinn. Da wäre ein halb so großer Chip ohne die tollen Verbesserungen zum preis einer 1080ti besser.
Aber dann gäbe es dieses Jahr nur 2 neue Lederjacken anstelle von 3
 
Ich frage mich wie viele Generationen kommen werden bis man unter 4K das Raytracing sinnvoll, also mit mind. 60 FPS nutzen kann? Ich verstehe die Logik ohnehin nicht. Die 2080Ti ist eigentlich die erste brauchbare 4K Karte und dann wirbt man begeistert mit Raytracing was maximal auf einem 1080p Monitor halbwegs ruckelfrei läuft. Wo ist da die Logik?

NV lügt betrügt und nutzt ohne skrupel die Marktsituation aus und du fragst nach Logik?
Andererseits gibt es tatsächlich schlimmere die unverbesserlich sind und unumstösslich in Ihrer Meinung.

Ich habe eine einfache Empfehlung: "Hört doch mal auf von denen zu kaufen" Gott im Himmel!
 
Ich frage mich wie viele Generationen kommen werden bis man unter 4K das Raytracing sinnvoll, also mit mind. 60 FPS nutzen kann? Ich verstehe die Logik ohnehin nicht. Die 2080Ti ist eigentlich die erste brauchbare 4K Karte und dann wirbt man begeistert mit Raytracing was maximal auf einem 1080p Monitor halbwegs ruckelfrei läuft. Wo ist da die Logik?

Kaufe dann auch die 2180TI welche dann aber ~40% schneller ist :ugly:
 
Sie wird 10 bis 15% über der GTX1080 sein und etwa 10 bis15 hinter der GTX 1080 Ti.
500 Euro sind völlig fair, das PL wird deutlich besser sein als bei einer Vega 64 für 500, weil 15% ,schneller, sparsamer, einfach besser.



Geht aufgrund der Chipgrösse wohl nicht.

Bedankt euch bei den AMD Schnarchnasen und selbst dann ist nicht gesagt, ob AMD nicht genausoviel nimmt.

Ihr glaubt immer AMD ist der Samariter.
AMD hat sich um die UVP gar nicht geschert und die Karten generell einfach 100 Euro teurer angeboten.

Die 2070 mit 450 mm2 ist für 500 völlig fair.
AMD ist teurer. Sollen die doch mal die Preise senken.
Was hast du eigentlich für persönliche Probleme, hat Dir AMD mal weh getan oder warum ziehst du immer ohne Not die AMD Karte, wo hier wirklich jeder die Leistung innerhalb der NV Gen vergleicht? Man man man, ist wirklich traurig.^^

@2070
Bei gleicher Leistung und gleichem Preis wie die 1080 macht die 2070 augenscheinlich mehr Sinn, jedoch muss man erst mal OC Ergebnisse abwarten. In jedem Fall ist es wirklich kein großer Sprung damit gerade einmal die Leistung der vorh. Gen zu erreichen. Davon ab ist dieses Preissegment viel zu teuer geworden und da setzt der Kern meiner Kritik an. Das schlimme ist nicht die Ausuferung im High End Segment, dass ist nach oben sowieso offen, nein, schlimm ist das im mid range Bereich die Preise so stark anziehen. Für mich ein klarer nicht Kaufgrund.

MfG
 
Zuletzt bearbeitet:
Hätte Nvidia die Chipfläche doch nur für mehr Shader verwendet, so gabs das noch sinnlose Raytracing Feature. Wie wäre es wenn man erstmal 4k mit 60FPS schafft, bevor man eine neue Baustelle eröffnet und irgendwas anderes anfängt. Das erinnert mich grad an die Autobahn Baustellen... Wenn eine fertig ist wird die nächste ein paar Meter weiter eröffnet.

Was macht Nvivia eigentlich mit den Chips mit (Teil)defekten Tensorcores? Oder ist die Fehlerquote bei Tensorcores komplett unbedeutend und man kann damit wunderbar mittlere Chips zu teuren "Big" Chips aufblasen? :ka:
 
Die 2070 wird eine gerade mal so Midrangekarte sein. Wer soll die Kaufen, denn diese hat den Preis der früheren High-End-Karten. Jedenfalls fast. die Personen, welche früher ne Midrangekarte wie 1070 gekauft haben, haben um die 350€ bezahlt und sollen nun über 500€ bezahlen. Das kann doch nicht sein, überdies werden diese dann nicht kaufen. Das kann Nvidia doch nicht wollen. Nvidia kann diese allerdings auch nicht für 350€ anbieten weil diese dann aufgrund der großen Preisspanne zu 2080 oder dann Ti viel zu attraktiv wäre, somit die 2080 wohl kein einziger kaufen wird/würde. Ich habe bisher niemals und keine einzige neue Grakageneration übersprungen, dies wird diesmal allerdings passieren. Meine 1080Ti läuft prima, vor allem mit OC. Ich warte dann auf 2080 Ultra oder 2090 Ti oder wie auch immer die Karten heißen werden.
 
Zurück