Was du nicht Verstehst - Wir GPU Konsumenten wurden seid Je her auf gewisse Leistungssteigerungen bei Genwechsel Konditioniert. Insbesondere Nvidia hat eigentlich eine 60 immer mit der Vorgänger 80 Leistung versehen und dabei ein wenig an der Preisschraube gedreht.
Und entschuldige, aber aktuelle Verhältnisse zeugen davon, es zu weit getrieben zu haben. Irgendwann sind die SCHRAUBEN LOCKER wenn man sie immer weiter dreht.
Und was du, trotz mehrmaliger Hinweise nicht verstehst:
1)Solche Leistunggsteigerungen waren nur nötig, wiel die Konkurrenz stark war
2)Solche Leistungssteigerungen waren nur möglich, weil die Prozesse neu waren.
Beides habe ich geschrieben, beides verstehst du und Zotac in meinen Beiträgen ganz offenbar (bewusst?) falsch.
Wäre Vega schneller, müsste auch Turing schneller werden. Wäre es ein neuer Prozess, wär der Sprung auch größer. Ein Beispiel ist etwa die 760 zur 680. Die nutzen auch einen ähnlichen Prozess, die 760 ist dabei nicht schneller als die 680.
Turing hingegen macht sich so lächerlich angreifbar
Von wem?
AMD ist langsamer und Nvidia hat nur Hausinterne "Konkurrenz" in form von günstigeren Chips, derweil ist der 3000€ TitanV durch eine 1200€ Grafikkarte abgelöst.
Ja, man muss als Pascal Besitzer nicht upgraden, aber wer viel Leistung will kommt um Nvidia nicht herum derzeit.
Auf der eine Seite teure GSync Module Verkaufen +Werbung für sehr sehr teure Monitore mit 144hz HDR in WQHD und 4K machen. Auf der anderen Seite dann riesen Chips mit RT, die sicherlich kostspielig sind, davon aber nur die 2080ti gerade so die 60 FPS marke kratzt @1080p.
...
RT hätte man dan über 2-3 Generationen stück für Stück ins Mainstream tragen können . Wie ein Vorposter schon sagte, jeder muss mitzahlen, damit wenige es nutzen können...
1) also das mit den 60 FpS @ 1080 P hab ich jetzt schon so oft erklärt, das ist mir echt zu dumm, wenn das immer noch nicht angekommen ist. Vor Doom 3 hat man auch geglaubt realistische Beleuchtung ginge einfach erst in 5 Jahren. Doch wenn man ein ganzes Spiel darum herumentwickelt gings doch früher
2)Genau das passiert ja, es kommt halt jetzt für Highend und Enthusiast (was anderes ist der Bereich über 500€ nicht) und dann stückweise nach unten. Das geflenne ist unbegründet, wer RT nicht braucht muss es ja nicht kaufen
Bis dato ist die neue NVIDIA-Generation einfach nur überflüssig - ein Schritt zurück. Mancher würde sie vielleicht sogar eine Enttäuschung nennen - Abzocke trifft es wohl am ehesten. Daran ändert auch - oder gerade deshalb - nicht das Raytraycing-Feature. Wie sich schon bei den - aktuell - besten Karten zeigt, wurde dem Chip eine Zusatzfunktion spendiert, die sie gerade mal so mit vernünftigen Bildraten in 1080p erreichen kann und dann handelt es sich - ähnlich wie bei früheren Features wie der Haardarstellung - nur um selektive Sequenzen, die bedingt performant dargestellt werden können. Bei der RTX 2070 dürfte die Leistung vermutlich gerade mal für 30fps in 1080 reichen - mit etwas Glück - vermutlich jedoch eher sogar mit reduzierten Details. Dafür dann noch einen unverschämten Aufpreis zu verlangen ist lächerlich. Zumal, wenn man bedenkt, dass eigentlich erst einmal 4k für den breiten Markt interessant gemacht werden sollte - für den Spieler ähnlich sinnfrei wie ein halbbackenes Raytraycing-Feature.
Die vernünftige Reaktion wäre ein klares NEIN DANKE und der damit verbundene Konsumverzicht - leider ist Vernunft nicht gerade eine Stärke der Menschheit, daher dürften sich Ende des Geschäftsjahres die Aktionäre des Unternehmens ins Fäustchen lachen..
Ich find sie nicht überflüssig. Ich find sie super. Ich werd sie nicht kaufen. ANdere schon. Und diese werden- wie immer - die Features voranbringen bis man sie für wenig Geld kaufen kann. Jap, Haardarstellung ist ähnlich. Überhaupt moderne Features: Brauchen viel Leistung, bringen wenig optischen Effekt. Letztlich ist das unsere Zeit: Die Optischen Vorteile werden immer kleiner, die Leistungseinbußen größer. So ist das nunmal: rein technisch gesehen haben wir den Fotorealismus zu 70-80% erreicht, aber wie beim Paretoprinzip brauchen die lezten 20% der Leistung nunmal ein vielfaches des Aufwandes den es dafür für die 80% gebraucht hat.
Es ist seit Jahren bekannt und offensichtlich, dass die neuen Effekte weniger ersichtlich sind und auch jedesmal so viel Leistung fressen, dass man sie bei Beginn eigentlich nur in kleinem Maße genießen kann.
@4K für den breiten Markt. Es gibt genug User die sehen den Unterschied zu 4K nicht (genügend Monitorabstand), sehr wohl ob eine Grafik realistischer ist. Ich gehöre dazu. Ich habe genau null davon, dass 4K "für die breite Masse" etwabliert wird. MIch interessiert da viel eher schönere Grafik @ Full HD oder QHD meinetwegen. Ein Foto in Full HD wird immer noch besser aussehen als eine Computergrafik in 4K. Und deshalb ist realistischere Beleuchtung wichtiger als Auflösung.
Und natürlich: teure Grafikkarten sollte man nicht kaufen. Ob ein später Boykott nun was bringt? Der Trend des kleinen Leistungsplus bei großem Preisaufschlag ist seit Jahren ersichtlich. Nvidia hat dafür ja dank mangelnder Konkurrenz extra Klassen über der x80 Klasse eingeführt.
Zum Thema Berichterstattung über die 2000er Generation: Bezahlt NVIDIA eigentlich dafür - oder gibt es gar keine Testexemplare mehr, wenn man sich einmal ehrlich äußern würde? Ist die Gesellschaft bereits derart degeneriert, dass es ihr nicht mehr auffällt, dass das hier eher Werbung als professionellem Journalismus entspricht? Im Großen und Ganzen könnte man das Thema auch in einem einzigen qualifizierten Artikel nach Erscheinen ALLER Karten abhandeln. Das wäre dann endkundenfreundlich - aber daran dürften weder die Hersteller noch deren Erfüllungsgehilfen ein Interesse haben.
Ich empfehle die Heise Berichterstattung zum neuen Nvdia NDA wenn du gerne eine Verschwörungstheorie haben möchtest
Oh super ... Wenn es den so wäre, habe ich diese Leistung seit August 2016 in meinem Rechner ... Und mal ehrlich, glaubst du ernsthaft, dass diese "Features" irgendwie zum tragen kommen, bevor die nächste Generation erscheint?
Inwiefern ist dies plötzlich relevant? Inwiefern war dies nicht schon immer so?
Das erste mal wo Shader ordentlich eingesetzt wurden war auch 2-3 Jahre nach Einführung derer. Ebenso bei AA und Co. Das war also schon immer so. Warum also plötzlich dieses reine Scheinargument bringen?
Raytracing wird noch lange nicht Standard. Aber eingeführt muss es irgendwann werden, damit der Entwicklungsprozess der Spieleentwickler es einbezieht.
Und "immer noch schneller als die Konkurenz" (die weniger kostet und dieser Satz in Bezug auf die Vega 64 sicherlich nicht zutrifft), ist doch eher unbefriedigend, wenn die Konkurrenz aus der Vorgängergeneration stammt.
Vega kostet nur weniger, weil er/sie/es nicht performt.
Und somit gibt es rein faktisch keine richtige Konkurrenz und genau da sind wir beim Dilemma: nvidia hat keine Konkurrenz. Statt sich nur bei Nvidia aufzuregen, könnte man sich genauso aufregen, dass AMD es nicht hinbekommt.
Auslöser des hohen Preises ist der mangelnde Wettbewerb. Jeder von uns würde es ähnlich anstellen (in einem Unternehmen): wenn keine Konkurrenz da ist fragt man halt Preise ab die die Kunden bereit sind zu zahlen.
Die Kunden zahlen offenbar, sonst müsste Nvidia die Preise senken.
Das passiert erst mit dem Release von Navi - falls die Karten schnell sein sollten.
Lasst mich mal herumspinnen.
So sähe das Ergebnis aus wenn AMD dieses Jahr eine Grafikkarte gebracht hätte.
Aus der RTX 2070 wäre die RTX 2060 geworden. Die Leute hätten gejubelt. Eine RTX 2060 mit der Leistung einer 1080.
Aus der RTX 2080 wäre die RTX 2070 geworden, Die Leute hätten wieder gejubelt. Eine 2070 mit der Leistung einer 1080Ti.
Und aus der RTX 2080Ti wäre die RTX 2080 oder 2070Ti geworden. Und in einem Jahr wäre dann eine 2080TI gekommen die den Namen auch verdient.
Nein, das siehst du völlig falsch: denn laut der Forenuser hier hat es überhaupt nix mit der (nicht vorhandenen) Konkurrenz von AMD zu tun. Es ist nur das böse Nvidia schuld. Schwarz-Weiß´-Denken ist hier in!
Also ja: das alles wäre günstiger, wenn AMD eine Konkurrenz darstellen würde. Aber dem ist leider nicht so, wir warten also mal ein Jahr.
Schöner währe es wenn die 2070 Günstiger zum Preis einer 1060 angeboten hätten, die 2080 12 GIgabyte hätte, und die neue Ti RT in Wqhd bei 60 FPS bieten würde. Aber nein absolut gewinnorientiert meiner Meinung nach
.
Oder gleich die 2980 Ti zum Preis um den meine Frau ihre 1060 gekauft hat (220€)? Aber das Leben ist halt kein Wunschkonzert.
Natürlich wär das schöner, aber auch das hat mit Konkurrenz zu tun.
Schon die früheren Preise (1060 für über 300€) sind lächerlich gewesen. Aber es wird ja sowieso alles nach und nach geschluckt...
Habs mir gedacht. Bereits am 09.10 schrieb ich in einem Thread, das die 2070 für mich eine "Totgeburt" ist.
Und trotz deiner Prophezeigung wird sich die Karte ausreichend verkaufen. Du hast also nicht recht
Abgesehen davon waren schon viel früher die technischen Daten bekannt, so ein toller Prophet bist du also gar nicht
Wer meinte da neulich noch 15% vor der GTX 1080?
Aufgrund der technischen Daten war lange klar wo die 2070 landen wird. Also für mich kommt das jetzt wenig überraschend (mich überrascht eher, wie bei solch offensichtlichen Daten sich die Leute jetzt plötzlich so aufregen können. Und dann nochmal zum Launch).
Unter den richtigen Settings ist die 2070 natürlihc sehr wohl vor der 1080. Stichwort Cherrypicking. Mark my words, Painkiller wird dir das schon zeigen.
Außerdem ist es natürlich eine völlig überarbeitete Architektur. Mit kommenden Titeln und Optimierungen wird Turing noch ein paar Prozent drauf legen - wie sich auch Maxwell von Kepler absetzen konnte nach und nach.
Und nochmal: Turing ist für mich als Käufer (der bereits eine ausreichende Performance hat) völlig uninteressant: ist mir zu teuer und zu wenig Leistungsaufschlag. Aber einen Sinn haben die Chips sehr wohl. Raytracing wird die Zukunft. Kein Feature war von Anfang an perfekt (AA, Hariworks, Tesselation, Shader...) und Ausgereift oder lief sofort auf allen Leistungsklassen im großen Stil.
Die 7nm Generation wird aufzeigen, was Turing (wegen dem alten Prozess der verwendet wird) noch nicht zeigen konnte. Und dann, 2-3 Generationen später (früher sollte mans nicht erwarten) wird sich zeigen, ob Raytracing sich schon bewährt, oder ob wir nochmal 10 Jahre warten müssen. Aber der Weg führt daran nicht vorbei.