Nvidia Turing: Geforce RTX 2070 im 3D Mark Timespy der GTX 1080 auf den Fersen

Der Unterschied ist eben, dass Nvidia diese Preise aufrufen kann, und damit ordentlich (um nicht zu sagen extremen) Gewinn einfährt, während AMD in den "sauren Apfel beißen" muss, und pro Chipfläche und verkaufter GPU nicht so viel Gewinn rausschlagen kann...
Letztlich ist also nicht so sehr die Chipfläche entscheidend, sondern welchen Faktor man von den Herstellkosten bis zum Verkaufspreis draufschlägt...dieser kann (realistisch gesehen) von 2 bis XY alles sein..bei Apple sind es so x4... ;)

mfg

Es sieht aktuell eher schwer danach aus als hätte Nvidia den Bogen überspannt mit den Preisen. Die 2080er sprechen da eine deutliche Sprache und auch die "erwzungene" UVP ist ein deutliches Signal das man sich zu weit aus dem Fenster gelehnt hat.
 
Habs mir gedacht. Bereits am 09.10 schrieb ich in einem Thread, das die 2070 für mich eine "Totgeburt" ist. Und genau so sieht es aus. Ein unnötiges und teures Stück Hardware. Auch wenn mich jetzt viele flamen werden, ich würde mir dann doch eher eine schöne RX Vega 64 Sapphire Nitro+ holen. Meines Erachtens die interessantere Karte. Außer natürlich, es gäbe für diesen Preis eine 1080Ti, dann würde ich da zuschlagen :D
Gruß T.

Sie ist keine "Totgeburt", wenn die 1080TI fast genausoviel kostet und nicht mehr hergestellt wird ¯\_(ツ)_/¯

EDIT: Sry, ich meinte natürlich die normale 1080!
 
Zuletzt bearbeitet:
Die RTX 2070 FE ist doch werkseitig übertaktet.
Die GTX 1080 FE nicht... öhm ich glaub die 2070 ist gar nicht 600 Punkte schneller... wtf!


Wer meinte da neulich noch 15% vor der GTX 1080? :lol: :lol: :lol:
 
Es kommt bestimmt noch eine RTX 2060 mit 0,5 Tensorkernen, die schafft es dann 2 Lichtstrahlen zu bündeln :D
Für 450 Euro. " Wir haben die Grafik neu erfunden" also Leute kauft, kauft..
 
Was du nicht Verstehst - Wir GPU Konsumenten wurden seid Je her auf gewisse Leistungssteigerungen bei Genwechsel Konditioniert. Insbesondere Nvidia hat eigentlich eine 60 immer mit der Vorgänger 80 Leistung versehen und dabei ein wenig an der Preisschraube gedreht.
Und entschuldige, aber aktuelle Verhältnisse zeugen davon, es zu weit getrieben zu haben. Irgendwann sind die SCHRAUBEN LOCKER wenn man sie immer weiter dreht.
Und was du, trotz mehrmaliger Hinweise nicht verstehst:
1)Solche Leistunggsteigerungen waren nur nötig, wiel die Konkurrenz stark war
2)Solche Leistungssteigerungen waren nur möglich, weil die Prozesse neu waren.

Beides habe ich geschrieben, beides verstehst du und Zotac in meinen Beiträgen ganz offenbar (bewusst?) falsch.

Wäre Vega schneller, müsste auch Turing schneller werden. Wäre es ein neuer Prozess, wär der Sprung auch größer. Ein Beispiel ist etwa die 760 zur 680. Die nutzen auch einen ähnlichen Prozess, die 760 ist dabei nicht schneller als die 680.


Turing hingegen macht sich so lächerlich angreifbar
Von wem?
AMD ist langsamer und Nvidia hat nur Hausinterne "Konkurrenz" in form von günstigeren Chips, derweil ist der 3000€ TitanV durch eine 1200€ Grafikkarte abgelöst.
Ja, man muss als Pascal Besitzer nicht upgraden, aber wer viel Leistung will kommt um Nvidia nicht herum derzeit.
Auf der eine Seite teure GSync Module Verkaufen +Werbung für sehr sehr teure Monitore mit 144hz HDR in WQHD und 4K machen. Auf der anderen Seite dann riesen Chips mit RT, die sicherlich kostspielig sind, davon aber nur die 2080ti gerade so die 60 FPS marke kratzt @1080p.
...
RT hätte man dan über 2-3 Generationen stück für Stück ins Mainstream tragen können . Wie ein Vorposter schon sagte, jeder muss mitzahlen, damit wenige es nutzen können...
1) also das mit den 60 FpS @ 1080 P hab ich jetzt schon so oft erklärt, das ist mir echt zu dumm, wenn das immer noch nicht angekommen ist. Vor Doom 3 hat man auch geglaubt realistische Beleuchtung ginge einfach erst in 5 Jahren. Doch wenn man ein ganzes Spiel darum herumentwickelt gings doch früher
2)Genau das passiert ja, es kommt halt jetzt für Highend und Enthusiast (was anderes ist der Bereich über 500€ nicht) und dann stückweise nach unten. Das geflenne ist unbegründet, wer RT nicht braucht muss es ja nicht kaufen

Bis dato ist die neue NVIDIA-Generation einfach nur überflüssig - ein Schritt zurück. Mancher würde sie vielleicht sogar eine Enttäuschung nennen - Abzocke trifft es wohl am ehesten. Daran ändert auch - oder gerade deshalb - nicht das Raytraycing-Feature. Wie sich schon bei den - aktuell - besten Karten zeigt, wurde dem Chip eine Zusatzfunktion spendiert, die sie gerade mal so mit vernünftigen Bildraten in 1080p erreichen kann und dann handelt es sich - ähnlich wie bei früheren Features wie der Haardarstellung - nur um selektive Sequenzen, die bedingt performant dargestellt werden können. Bei der RTX 2070 dürfte die Leistung vermutlich gerade mal für 30fps in 1080 reichen - mit etwas Glück - vermutlich jedoch eher sogar mit reduzierten Details. Dafür dann noch einen unverschämten Aufpreis zu verlangen ist lächerlich. Zumal, wenn man bedenkt, dass eigentlich erst einmal 4k für den breiten Markt interessant gemacht werden sollte - für den Spieler ähnlich sinnfrei wie ein halbbackenes Raytraycing-Feature.

Die vernünftige Reaktion wäre ein klares NEIN DANKE und der damit verbundene Konsumverzicht - leider ist Vernunft nicht gerade eine Stärke der Menschheit, daher dürften sich Ende des Geschäftsjahres die Aktionäre des Unternehmens ins Fäustchen lachen..
Ich find sie nicht überflüssig. Ich find sie super. Ich werd sie nicht kaufen. ANdere schon. Und diese werden- wie immer - die Features voranbringen bis man sie für wenig Geld kaufen kann. Jap, Haardarstellung ist ähnlich. Überhaupt moderne Features: Brauchen viel Leistung, bringen wenig optischen Effekt. Letztlich ist das unsere Zeit: Die Optischen Vorteile werden immer kleiner, die Leistungseinbußen größer. So ist das nunmal: rein technisch gesehen haben wir den Fotorealismus zu 70-80% erreicht, aber wie beim Paretoprinzip brauchen die lezten 20% der Leistung nunmal ein vielfaches des Aufwandes den es dafür für die 80% gebraucht hat.

Es ist seit Jahren bekannt und offensichtlich, dass die neuen Effekte weniger ersichtlich sind und auch jedesmal so viel Leistung fressen, dass man sie bei Beginn eigentlich nur in kleinem Maße genießen kann.

@4K für den breiten Markt. Es gibt genug User die sehen den Unterschied zu 4K nicht (genügend Monitorabstand), sehr wohl ob eine Grafik realistischer ist. Ich gehöre dazu. Ich habe genau null davon, dass 4K "für die breite Masse" etwabliert wird. MIch interessiert da viel eher schönere Grafik @ Full HD oder QHD meinetwegen. Ein Foto in Full HD wird immer noch besser aussehen als eine Computergrafik in 4K. Und deshalb ist realistischere Beleuchtung wichtiger als Auflösung.

Und natürlich: teure Grafikkarten sollte man nicht kaufen. Ob ein später Boykott nun was bringt? Der Trend des kleinen Leistungsplus bei großem Preisaufschlag ist seit Jahren ersichtlich. Nvidia hat dafür ja dank mangelnder Konkurrenz extra Klassen über der x80 Klasse eingeführt.


Zum Thema Berichterstattung über die 2000er Generation: Bezahlt NVIDIA eigentlich dafür - oder gibt es gar keine Testexemplare mehr, wenn man sich einmal ehrlich äußern würde? Ist die Gesellschaft bereits derart degeneriert, dass es ihr nicht mehr auffällt, dass das hier eher Werbung als professionellem Journalismus entspricht? Im Großen und Ganzen könnte man das Thema auch in einem einzigen qualifizierten Artikel nach Erscheinen ALLER Karten abhandeln. Das wäre dann endkundenfreundlich - aber daran dürften weder die Hersteller noch deren Erfüllungsgehilfen ein Interesse haben.
Ich empfehle die Heise Berichterstattung zum neuen Nvdia NDA wenn du gerne eine Verschwörungstheorie haben möchtest ;)
Oh super ... Wenn es den so wäre, habe ich diese Leistung seit August 2016 in meinem Rechner ... Und mal ehrlich, glaubst du ernsthaft, dass diese "Features" irgendwie zum tragen kommen, bevor die nächste Generation erscheint?
Inwiefern ist dies plötzlich relevant? Inwiefern war dies nicht schon immer so?
Das erste mal wo Shader ordentlich eingesetzt wurden war auch 2-3 Jahre nach Einführung derer. Ebenso bei AA und Co. Das war also schon immer so. Warum also plötzlich dieses reine Scheinargument bringen?
Raytracing wird noch lange nicht Standard. Aber eingeführt muss es irgendwann werden, damit der Entwicklungsprozess der Spieleentwickler es einbezieht.
Und "immer noch schneller als die Konkurenz" (die weniger kostet und dieser Satz in Bezug auf die Vega 64 sicherlich nicht zutrifft), ist doch eher unbefriedigend, wenn die Konkurrenz aus der Vorgängergeneration stammt.
Vega kostet nur weniger, weil er/sie/es nicht performt.
Und somit gibt es rein faktisch keine richtige Konkurrenz und genau da sind wir beim Dilemma: nvidia hat keine Konkurrenz. Statt sich nur bei Nvidia aufzuregen, könnte man sich genauso aufregen, dass AMD es nicht hinbekommt.

Auslöser des hohen Preises ist der mangelnde Wettbewerb. Jeder von uns würde es ähnlich anstellen (in einem Unternehmen): wenn keine Konkurrenz da ist fragt man halt Preise ab die die Kunden bereit sind zu zahlen.
Die Kunden zahlen offenbar, sonst müsste Nvidia die Preise senken.
Das passiert erst mit dem Release von Navi - falls die Karten schnell sein sollten.

Lasst mich mal herumspinnen.
So sähe das Ergebnis aus wenn AMD dieses Jahr eine Grafikkarte gebracht hätte.
Aus der RTX 2070 wäre die RTX 2060 geworden. Die Leute hätten gejubelt. Eine RTX 2060 mit der Leistung einer 1080.
Aus der RTX 2080 wäre die RTX 2070 geworden, Die Leute hätten wieder gejubelt. Eine 2070 mit der Leistung einer 1080Ti.
Und aus der RTX 2080Ti wäre die RTX 2080 oder 2070Ti geworden. Und in einem Jahr wäre dann eine 2080TI gekommen die den Namen auch verdient.
Nein, das siehst du völlig falsch: denn laut der Forenuser hier hat es überhaupt nix mit der (nicht vorhandenen) Konkurrenz von AMD zu tun. Es ist nur das böse Nvidia schuld. Schwarz-Weiß´-Denken ist hier in!

Also ja: das alles wäre günstiger, wenn AMD eine Konkurrenz darstellen würde. Aber dem ist leider nicht so, wir warten also mal ein Jahr.
Schöner währe es wenn die 2070 Günstiger zum Preis einer 1060 angeboten hätten, die 2080 12 GIgabyte hätte, und die neue Ti RT in Wqhd bei 60 FPS bieten würde. Aber nein absolut gewinnorientiert meiner Meinung nach
daumenrunter.gif
.
Oder gleich die 2980 Ti zum Preis um den meine Frau ihre 1060 gekauft hat (220€)? Aber das Leben ist halt kein Wunschkonzert.
Natürlich wär das schöner, aber auch das hat mit Konkurrenz zu tun.
Schon die früheren Preise (1060 für über 300€) sind lächerlich gewesen. Aber es wird ja sowieso alles nach und nach geschluckt...
Habs mir gedacht. Bereits am 09.10 schrieb ich in einem Thread, das die 2070 für mich eine "Totgeburt" ist.
Und trotz deiner Prophezeigung wird sich die Karte ausreichend verkaufen. Du hast also nicht recht ;)
Abgesehen davon waren schon viel früher die technischen Daten bekannt, so ein toller Prophet bist du also gar nicht ;)


Wer meinte da neulich noch 15% vor der GTX 1080?
lolaway2.gif
lolaway2.gif
lolaway2.gif
Aufgrund der technischen Daten war lange klar wo die 2070 landen wird. Also für mich kommt das jetzt wenig überraschend (mich überrascht eher, wie bei solch offensichtlichen Daten sich die Leute jetzt plötzlich so aufregen können. Und dann nochmal zum Launch).
Unter den richtigen Settings ist die 2070 natürlihc sehr wohl vor der 1080. Stichwort Cherrypicking. Mark my words, Painkiller wird dir das schon zeigen.
Außerdem ist es natürlich eine völlig überarbeitete Architektur. Mit kommenden Titeln und Optimierungen wird Turing noch ein paar Prozent drauf legen - wie sich auch Maxwell von Kepler absetzen konnte nach und nach.

Und nochmal: Turing ist für mich als Käufer (der bereits eine ausreichende Performance hat) völlig uninteressant: ist mir zu teuer und zu wenig Leistungsaufschlag. Aber einen Sinn haben die Chips sehr wohl. Raytracing wird die Zukunft. Kein Feature war von Anfang an perfekt (AA, Hariworks, Tesselation, Shader...) und Ausgereift oder lief sofort auf allen Leistungsklassen im großen Stil.
Die 7nm Generation wird aufzeigen, was Turing (wegen dem alten Prozess der verwendet wird) noch nicht zeigen konnte. Und dann, 2-3 Generationen später (früher sollte mans nicht erwarten) wird sich zeigen, ob Raytracing sich schon bewährt, oder ob wir nochmal 10 Jahre warten müssen. Aber der Weg führt daran nicht vorbei.
 
Zuletzt bearbeitet:
Nein, das siehst du völlig falsch: denn laut der Forenuser hier hat es überhaupt nix mit der (nicht vorhandenen) Konkurrenz von AMD zu tun. Es ist nur das böse Nvidia schuld. Schwarz-Weiß´-Denken ist hier in!

Diesen Satz muss man sich mal auf der Zunge zergehen lassen!
Das liegt irgendwo zwischen fake news und Rabulistik...
Weitermachen!
 
Diesen Satz muss man sich mal auf der Zunge zergehen lassen!
Das liegt irgendwo zwischen fake news und Rabulistik...
Weitermachen!
Was konkret ist daran Fake News, dass der Markt aus Angebot und Nachfrage besteht.
Und, dass die Angebote untereinander konkurrieren?
Du willst mir also sagen, dass der beste/schnellste Chip nicht auch meist der teuerste ist?

Davon abgesehen: diejenigen die mit der aktuellen Performance unzufrieden sind können sich übrigens auf die kommenden 2-3 Jahre freuen, anscheinend liegt TSMC bei ihren Prozessen (entgegen Intel ;) ) im Zeitplan
TSMC Announces First EUV 7nm Risk Production, 5nm Tapeouts in Q2 2019 - ExtremeTech
 
Aufgrund der technischen Daten war lange klar wo die 2070 landen wird. Also für mich kommt das jetzt wenig überraschend (mich überrascht eher, wie bei solch offensichtlichen Daten sich die Leute jetzt plötzlich so aufregen können. Und dann nochmal zum Launch).
Unter den richtigen Settings ist die 2070 natürlihc sehr wohl vor der 1080. Stichwort Cherrypicking. Mark my words, Painkiller wird dir das schon zeigen.
Außerdem ist es natürlich eine völlig überarbeitete Architektur. Mit kommenden Titeln und Optimierungen wird Turing noch ein paar Prozent drauf legen - wie sich auch Maxwell von Kepler absetzen konnte nach und nach.

Und nochmal: Turing ist für mich als Käufer (der bereits eine ausreichende Performance hat) völlig uninteressant: ist mir zu teuer und zu wenig Leistungsaufschlag. Aber einen Sinn haben die Chips sehr wohl. Raytracing wird die Zukunft. Kein Feature war von Anfang an perfekt (AA, Hariworks, Tesselation, Shader...) und Ausgereift oder lief sofort auf allen Leistungsklassen im großen Stil.
Die 7nm Generation wird aufzeigen, was Turing (wegen dem alten Prozess der verwendet wird) noch nicht zeigen konnte. Und dann, 2-3 Generationen später (früher sollte mans nicht erwarten) wird sich zeigen, ob Raytracing sich schon bewährt, oder ob wir nochmal 10 Jahre warten müssen. Aber der Weg führt daran nicht vorbei.

Das war ja auch mehr ein Insider für die die hier so den ein oder anderen Threat mehr beobachten.
Da hat sich jemand in einem anderen Threat sehr weit aus dem Fenster gelehnt als noch nichts bekannt war! :D
 
Vielleicht etwas blauäugig, wenn ich überlegen würde, meine GTX 1080 mit einer RTX 2070 "aufzurüsten", aber was würde es mir bringen?
Speicher ist nicht größer, Raytracing schafft die Karte auch in 1080p nicht wirklich flüssig und ich wäre eine Stange Geld los.
Der kleine Vorsprung an Punkten im Benchmark ist auch hinfällig, da meine 1080 mit optimierter Kühlung und Übertaktung sowieso immer 2 GHz+ läuft.

Klar, hier wird eine 70er der neuen Generation mit einer 80er des Vorgängers verglichen - aber zu Zeiten einer GTX 970 hat man trotz des Speicherdebakels ungefähr die Leistung einer GTX 780 Ti + 0,5 GB mehr Speicher gehabt.

Eine GTX 1070 hatte ungefähr die Leistung einer 980 ti, aber 2 GB mehr.

Bin ich da auch wieder zu blauäugig, bei einer RTX 2070 die ungefähre Leistung einer 1080 ti zu erwarten?
Selbst wenn ich die teure 2080 mit einer 1080 ti vergleiche, bleibt Pascal die bessere Wahl, was den Preis angeht, wobei man bei der 1080 ti 3 GB mehr Speicher hätte.

Also wenn mir nicht mal eine 1080 ti so günstig über den Weg läuft, dass ich damit meine 1080 ersetze, dann bleibe ich dabei und überspringe Turing ganz getrost ohne große Einschränkungen.

Sorry Nvidia, ich mache eure Preisexplosionen nicht mehr mit und bleibe bei der 1080, die ich momentan eh nicht viel nutze, weil ich seit einem halben Jahr viel lieber mit meiner Nintendo Switch spiele.
Auch da unterstütze ich euch ungewollt durch den Tegra X1 - aber wenn ich mir überlege, dass ich eine (egal welche) Konsole mit allem drum und dran + einen Haufen Spiele für den Preis einer einzigen Grafikkarte bekomme, dann hat der PC vorerst leider das Nachsehen.
 
Vielleicht etwas blauäugig, wenn ich überlegen würde, meine GTX 1080 mit einer RTX 2070 "aufzurüsten", aber was würde es mir bringen?
Speicher ist nicht größer, Raytracing schafft die Karte auch in 1080p nicht wirklich flüssig und ich wäre eine Stange Geld los.
Der kleine Vorsprung an Punkten im Benchmark ist auch hinfällig, da meine 1080 mit optimierter Kühlung und Übertaktung sowieso immer 2 GHz+ läuft.
Ja, du hast dir die Antwort schon selbst gegeben:
Wer eine performante Grafikkarte besitzt braucht die RTX Serie nicht weiter beachten. Außer er/sie will noch mehr 4K Performance (2080 Ti) oder Raytracing Early Adopter sein.
Bin ich da auch wieder zu blauäugig, bei einer RTX 2070 die ungefähre Leistung einer 1080 ti zu erwarten?
Jein.
Das sind wohl viele hier: Wenn man jetzt nur die vergangenen Jahre betrachtet, waren Generationssprünge meist größer. Warum sollte es also hier anders sein?

Weil Grafikkarten enorm vom zugrundeliegenden Herstellungsprozess abhängig sind. Und der hat sich im Vergleich zu Pascal kaum verändert. Eigentlich gibt der Prozess grob die Richtung vor: bei Pascal war klar: der 16nm Prozess kriegt knapp doppelt so viele Transistoren bei der selben Chipgröße unter wie der 28nm Prozess. Somit war klar: bei gleicher Chipgröße ist eben doppelt so viel Platz für Hardwareeinheiten und somit theoretisch inetwa doppelte Leistung zu erwarten (unter ähnlichen Bedingungen).

Turing nutzt aber einen ähnlichen Prozess wie Pascal, die Performance geht also nur über die Architekturänderungen und den größeren Chips einher. Das Leistungsplus hält sich demnach ERWARTUNGSGEMÄSS in Grenzen. Deshalb empfiehlt es sich immer bei neuen Prozessen zuzuschlagen und bis zum nächsten Prozesswechsel zu warten (wenn du ein Sparfuchs bist).

Kurzum: deine 1080 wird auch bis zum Launch der 7nm Generation völlig ausreichend sein. Der Vorteil bei der 7nm oder gar 5nm Generation (wenn du die Füße so lange stillhalten kannst) ist ein performanteres Raytracing. (und Rastern bzw kleinere/sparsamere Chips).

Sorry Nvidia, ich mache eure Preisexplosionen nicht mehr mit und bleibe bei der 1080, die ich momentan eh nicht viel nutze, weil ich seit einem halben Jahr viel lieber mit meiner Nintendo Switch spiele.
Auch da unterstütze ich euch ungewollt durch den Tegra X1 - aber wenn ich mir überlege, dass ich eine (egal welche) Konsole mit allem drum und dran + einen Haufen Spiele für den Preis einer einzigen Grafikkarte bekomme, dann hat der PC vorerst leider das Nachsehen.
Der Vergleich ist nicht fair, weil du eine völlig überteuerte 1080 gekauft hast (die mit ihrem vergleichsweise kleinen Chip auch in der Produktion wenig gekostet hat und sicher für ein unteres Preissegment gedacht war, bevor AMD ohne Konkurrenz daherkam) und du so tust, als gäbs nur 600€ Grafikkarten.
Zum Spielen reicht auch eine 150€ GPU.
 
Wie hat Rollo eigentlich über die Vega berichtet? Auch so "neutral" oder eher gelästert?
Naja das sieht jede Seite anders ;)
Meine Intention war auf die Preise von Nvidia einzugehen: die empfinden wir natürlich alle als zu hoch, aber eine Erklärung dafür ist die mangelnde Konkurrenz:
Alle neuen Karten sind gleich schnell oder schneller als die schnellste Karte der Konkurrenz (Vega) und somit kann man sich die Preise auch selbst aussuchen.

Das hab ich gemeint. "Berichtet" hab ich gar nix, über Vega gibts kaum viel zu berichten. Es ist eine performante Karte, aber sie ist dennoch eine Enttäuschung gemessen an ihrer Entwicklungszeit (5 Jahre), Chipgröße (knappe 500mm² trotz platzsparendem HBM Interface und oft langsamer als die 300mm² 1080), Spezialspeicher. Und Releasedatum (Kaufbar mit Customs erst gegen Ende 2017/Anfang 2018, obwohl schon im Dezember 16 "Poor Volta" Werbung rauskam und die Konkurrenz auch 1.5 Jahre früher da war.Aber das ist ja ein anderes Kapitel.
Schöngeredet wurde sie eben aufgrund der zukunftsträchtigen Architektur (das zählt wohl nur für AMD, bei Nvidia ist das scheinbar egal), des zukunftsträchtigen RAMS (auch wenns zu wenig ist, aber auch das zählt nur für Nvidia und ihre doofen 8GB bei der 2080) und außerdem war bei Vega häufig erwähnt das undervolting (was bei großen Chips viel bringt).
 
Und genau so sehe ich die RTX als Enttäuschung. Und mangelnde Konkurrenz ist keine entschuldigung. Die Preise macht Nvidia selbst.
 
Naja das sieht jede Seite anders ;)
Meine Intention war auf die Preise von Nvidia einzugehen: die empfinden wir natürlich alle als zu hoch, aber eine Erklärung dafür ist die mangelnde Konkurrenz:
Alle neuen Karten sind gleich schnell oder schneller als die schnellste Karte der Konkurrenz (Vega) und somit kann man sich die Preise auch selbst aussuchen.

Das hab ich gemeint. "Berichtet" hab ich gar nix, über Vega gibts kaum viel zu berichten. Es ist eine performante Karte, aber sie ist dennoch eine Enttäuschung gemessen an ihrer Entwicklungszeit (5 Jahre), Chipgröße (knappe 500mm² trotz platzsparendem HBM Interface und oft langsamer als die 300mm² 1080), Spezialspeicher. Und Releasedatum (Kaufbar mit Customs erst gegen Ende 2017/Anfang 2018, obwohl schon im Dezember 16 "Poor Volta" Werbung rauskam und die Konkurrenz auch 1.5 Jahre früher da war.Aber das ist ja ein anderes Kapitel.
Schöngeredet wurde sie eben aufgrund der zukunftsträchtigen Architektur (das zählt wohl nur für AMD, bei Nvidia ist das scheinbar egal), des zukunftsträchtigen RAMS (auch wenns zu wenig ist, aber auch das zählt nur für Nvidia und ihre doofen 8GB bei der 2080) und außerdem war bei Vega häufig erwähnt das undervolting (was bei großen Chips viel bringt).

Die RTX ist das selbe wie Vega nur in Grün(der Spruch passte selten so gut^^)
Die Karte wird auf jeden Fall von der Zeit profitieren, etwas skeptisch bin ich noch bei der Rohleistung, wobei der hohe Takt und der schnelle Speicher das mit Durchsatz eigentlich wett machen.
Die 2080 ist ein völliger Fail aufgrund Ihrer Platzierung. Die 2070 ist, wenn der Preis stimmt, ne runde Karte wie ich finde.
Das hat wenig mit den blender Funktionen ala RTX und DLSS zu tun, sondern eher mit der runden Arch die vor allem in modernen Spielen und LL "deutlich" schneller ist als Ihr Pendant.
Für einen Preis bis zu 550 Euro kann man halb nicht meckern, sicher ist das ganze bei einer neuen Arch im Vergleich zum Vorgänger kein wirklicher Fortschritt, aber es ist am Ende die bessere Karte zum selben "vermeintlichen" Preis.
 
Das dumme ist nur, das man seine "Standard" 1080 bei Ebay nicht für über 400 los wird. 150 Euro draufpacken muss um dann die selbe Leistung mit vermeintlichen Features zu bekommen. So als ein wirkliches "Aufrüsten" würde ich es nicht bezeichnen. Eher ein "Umstieg" auf neue Technologie welche noch gar nicht ausgereift ist.
 
Das nächste Problem der jetzt so teuren Nvidia Karten wird sein das auch AMD die Preise erhöhen kann.
Und wenn Intel 2019 oder 2020 kommt wird es doppelt lustig. Intel Produkte sind sowieso schon teurer
als die der Konkurrenz und das wird sich im Grafikkarten Markt nicht ändern. Die Preise werden sich dann in etwa so einordnen. Intel nimmt 10 bis 15% mehr als Nvidia jetzt und AMD bleibt etwa 10 bis 15% unter Nvidia. Die Preise von Nvidia werden in Zukunft so bleiben oder sich sogar noch erhöhen.
 
Der Vergleich ist nicht fair, weil du eine völlig überteuerte 1080 gekauft hast (die mit ihrem vergleichsweise kleinen Chip auch in der Produktion wenig gekostet hat und sicher für ein unteres Preissegment gedacht war, bevor AMD ohne Konkurrenz daherkam) und du so tust, als gäbs nur 600€ Grafikkarten.
Zum Spielen reicht auch eine 150€ GPU.

Also als völlig überteuert gekauft würde ich meine 1080 nicht bezeichnen.
Im Mai 2017 hat sie mich inkl. Cashback 435 € gekostet und war ein guter Sprung von der 970 aus.

Klar, man kann auch mit einer Grafikkarte für 150 € spielen, aber wie sieht das dann aus mit so einer GTX 1050 mit 2 oder 3 GB oder einer RX 560?

Da bekommt man mit einer PS4 oder einer XBox One für 250 / 200 € eine hübschere Grafik und ein besseres Gesamtpaket.
Du hast ja Recht, dass der Vergleich nicht ganz fair ist, aber wenn ich dann die 519 € für eine einzelne RTX 2070 Grafikkarte sehe, zu der man noch einen entsprechenden Unterbau benötigt, dann würde ich persönlich für den Preis dieser Grafikkarte lieber eine Spielkonsole mit allem drum und dran + 6 bis 10 Spiele kaufen (je nachdem, wie neu die Spiele sind).
Nvidia ist in Preisregionen vorgedrungen, in denen man wirklich ins Grübeln kommt, ob es einem das noch wert ist.
Zumindest geht es mir so.
 
Nvidia ist in Preisregionen vorgedrungen, in denen man wirklich ins Grübeln kommt, ob es einem das noch wert ist.
Zumindest geht es mir so.
Nvidia treibt mit den Preisen die Spieler immer weiter zur Konsole. Und der, den es nicht zur Konsole treibt, rüstet seinen PC seltener auf.
Denn alle 2 Jahre eine Grafikkarte für 700,- bis 1200,-€ will sich bestimmt niemand leisten wenn es keine großen Fortschritte gibt.
Und seine gebrauchte zu verkaufen lohnt bei nicht sichtbarem Fortschritt auch nicht, weil niemand da ist der sie kauft.
Sollte Nvidia dieses Gebaren beibehalten, dann lohnt sich eine neue Grafikkarte nur noch alle 4 bis 6 Jahre.
Womit wir beim gleichen Zyklus der Prozessoren sind. Dann gibt es alle 4 bis 6 Jahre ein neues Mainboard + CPU + GPU.
Der PC verwandelt sich dadurch so langsam in eine Spielkonsole. Denn ersichtlichen Fortschritt gibt es auch nur alle 4 bis 6 Jahre.
 
Zuletzt bearbeitet:
Stimmt, da war doch was, die RTX2070 sollte eigentlich mit der GTX1080Ti in den Ring steigen. :gruebel:
Das haben nicht wenige gut informierte Propheten angekündigt. :fresse:

Ich war einer dieser "Propheten" und gebe es hier offen und ehrlich zu. Zur Verteidung muss ich aber sagen, dass zu dem Zeitpunkt der Aussage noch nicht alle technischen Daten, die Architekturänderungen bekannt waren.

Viele von uns haben sich an Volta orientiert und diese karten hatten nur Tensor-Cores, jedoch keine extra Raytracing Hardware verbaut.

Desweiteren glaube ich nicht, dass sich die Leistung linear mit den verbauten Einheit erhöht. Ab einem gewissen Punkt bekommt man die Mehrleistung einfach nicht mehr auf die Straße.

Imo enttäuschend und da gibt's nix gut zu reden.
So ne miese gpu gen von Nvidia hab ich noch nie miterlebt... Und ich habe alle miterlebt.

Das widerspricht sich ganz schön mein lieber. Die 5800FX und die GTX400er-Reihe waren viel schlimmer. Raytracing mag nur für die Early Adopter sein.

Das Highlight wird nach wie vor DLSS sein, dass mit unterstützten bald erscheinenden Spielen geschätzt ~30-50% extra herausholt. Bei der Prämisse würde die Leistung stimmen. Das einzige Hindernis wäre dann nur der Preis.

Und Leute, ich sage es offen und ehrlich. Ihr seid alle zu naiv, wenn ihr glaubt irgendeine 7nm-Karte würde wesentlich billiger werden. Ich erwarte eher noch teure Preise oder in etwa gleichbleibendes Niveau aufgrund der hohen Kosten der neuen Fertigung.
 
Zurück