News Geforce RTX 4070 Ti: Leak mit 3DMark-Performance und Bild der GPU

@Manner1a Nicht verkehrt. Allerdings sehen das eben bei weitem nicht alle so - man muss es ja auch nicht.
Aber manchmal würde ich mir bei der ganzen Diskussion, gerade wenn's mal wieder "Fanboy gegen Fanboy"
geht etwas mehr konstruktives in der allgemeinen Diskussion wünschen. Das geht oft verloren.

Denn mal rein objektiv betrachtet sind z.B. GPU's wie die RTX 4090 zwar sau teuer, ohne Frage. Aber
ich kann mich auch nicht erinnern, dass es jemals eine Zeit gab, in der das Verhältnis von Anforderungen
aktueller Spiele und tatsächlich erbrachter Leistung aktueller GPU's so "positiv" war.
Was ich damit sagen will, und ja auch schon vorher angedeutet habe, ist dass sofern man heute eine halbwegs
moderne GPU hat, man kaum Probleme hat Spiele in angemessener Qualität zu spielen.

Die Tatsache dass z.B Nvidia schon die zweite Generation in folge Rekord-Leistungszuwachs abgeliefert hat,
fällt da überraschenderweise gerne mal unter den Tisch. :hmm:

Das war vor 15-20 Jahren nicht so. Da musste man eben oft 2 Generationen an GPU's/CPU's abwarten
um den neuesten AAA Titel angemessen spielen zu können oder mit "Gruselgrafik" leben.
Also sub 30FPS oder massiver Detail- bzw. Aulösungsreduktion. Und das bei Auflösungen bei denen man ohne
ordentliches AF und AA fast Augenkrebs bekommen hat... :schief:

Heute, auch wenn ab und an ein wenig mit DLSS & Co geschummelt, hat man oft so viel Leistung, dass selbst
der Aktuellste AAA Titel bei mindestens 60FPS Läuft.

Kann mich noch erinnern dass ich vor Jahren versucht habe TES Oblivion irgendwie mit angemessener Grafik
zum laufen zu bringen... und dass mit nem 7800 GTX SLI Gespann. Da hieß es dann eben Details reduzieren
und auf "die schöne Grafikpracht" von damals verzichten, oder mit 30FPS leben... Heute kaum vorstellbar.

Und nur um das mal vor Augen zu führen: Eine 7800 GTX hat damals gut 550€ (2005) gekostet.
Inflationsbereinigt kosten heute zwei davon gut 1400€(!), also soviel wie ne RTX 4080 oder knapp
eine RTX 3090 (2020). Nur dass man bei denen heutzutage trotz massiv gestiegener technischer Anforderungen
nicht mit teilweise unspielbaren Bildraten oder Matschgrafik und AA-Flimmern leben muss...

Crysis (1) und das Add-on Warhead sind da noch extremere Beispiele, die man gut mit Cyberpunk 2077
vergleichen könnte. Nur stelle man sich das bitte mit Raytracing ohne DLSS vor!
:what:

Das war die AAA-Gaming Realität von 2008...

Es ist sicherlich nicht alles "Super" was der Markt heute so treibt, aber
heute könnte man das keinem mehr vorsetzen. :ka:
 
Zuletzt bearbeitet:
Na dann viel Spaß damit bei deinem 49er Moni.....der auch nicht grad günstig war :rollen:,
aber zum Glück kann man den ja auch auf 800x600 runterskalieren :haha:

Es werden dann halt alte Sachen gespielt. World of Tanks könnte ich dann wieder anschmeißen. Gibt genügend Sachen, für die man keine 1.000 € Grafikkarte kaufen muss, die nach 2 Jahren schon wieder veraltet ist.

Mittelklasse maximal ist schick, die kommt aber erst noch auf den Markt. Da freut sich das PC Sparschwein, wenn man ihm denn Zeit gibt sich füllen zu lassen.

Prinzipiell verstehe ich was du sagen möchtest. Aber: bei den aktuell aufgerufenen Preisen schlagen dann doch selbst eine potentielle 4060 wahrscheinlich mit 700 € auf und eine 4050 mit 500 €. Mich würde es nicht wundern.

Und falls es so kommen sollte: Warum sollte ich für eine 4 Jahre jüngere Grafikkarte als die, die ich bereits habe, 500 € oder mehr bezahlen, wenn sie kaum schneller ist als meine alte Karte (für die ich weniger als 500 € gezahlt habe)? Das ist der Punkt den ich an der aktuellen Preispolitik nicht verstehe. Ich erwarte keine hundertprozentige Preisstabilität generationsübergreifend in der gleichen Modellreihe, aber einfach mal eine Verdopplung wie bei 4080 oder 4070 nehme ich nicht hin, weil diese Preise nicht gerechtfertigt sind.

Meine Hoffnung: Dass die Teile vom Großteil der Interessenten im virtuellen Ladenregal liegengelassen werden und vielleicht irgendwann die Preise runterfahren.

Nur mal als subjektive Hausnummer: Für das, was die 4070 Ti leisten wird, wäre sie mir ca. 650 € wert. Inflation bereits berücksichtigt.

Interesse habe ich, aufzurüsten. Aber alle vorgestellten Karten der aktuellen Generation sind für mich völlig uninteressant. Auf die Specs und Leistung schaue ich nicht, weil der Preis bereits inakzeptabel ist. Daher fange ich da nicht an Modelle miteinander zu vergleichen, egal ob AMD oder Nvidia. Mag sein dass ich damit in einem Enthusiastenforum recht alleine dastehe, aber alle meine Freunde und Bekannten sehen es ganz genauso.
Und ganz nebenbei: Eine 4070 Ti ist keine Karte für Enthusiasten. Das ist ein 104er Chip. Im Vergleich zu einer 4090 (DAS ist Enthusiast-würdig und darf auch kosten, das sehe ich absolut ein) sieht sie aus wie eine schnelle Karte der letzten Generation. Für mich persönlich war eine xx70 immer Mittelklasse. Die ist keine 1.000 € + wert.
 
Zuletzt bearbeitet:
Ignoriert man Features und Effizienz, müsste man leicht oberhalb von 3090 Ti und 7900 XT herauskommen und leicht unterhalb der 4080 und 7900 XTX: Das ergäbe in etwa eine 2080 Super 200%, es sei denn einem schwebt da ein anderer oder kein Vergleich vor.

Eine theoretische Geforce 6050 ist gerade nicht verfügbar und wenn man sowieso fröhlich Ohren schneiden muss um nicht geplündert zu werden, lohnt es sich wohl nach einem anderen Modell Ausschau zu halten, quasi wenn das Warten unerträglich wird oder die Vorfreude zu groß. Das passiert aber nicht unbedingt in der gewünschten Preis- und Leistungsklasse; es lohnt sich nach Offsets Ausschau zu halten.

Es geht darum, dass keine Männer in schwarzen Lederjacken aus dem Busch springen und einem zum Kauf einer Grafikkarte zwingen. Ja, der FPS/€ Zuwachse wird sich verlangsamen und die Topendkarten werden noch teurer werden, aber es wird noch lange Karten für 300 Euro geben. Und ganz ehrlich, wenn ich sehe wie lange die 1080 mir treu dient, solange hatte ich noch nie eine GPU. Klar, wenn man 4k will, wird das schwierig.
 
Es geht darum, dass keine Männer in schwarzen Lederjacken aus dem Busch springen und einem zum Kauf einer Grafikkarte zwingen. Ja, der FPS/€ Zuwachse wird sich verlangsamen und die Topendkarten werden noch teurer werden, aber es wird noch lange Karten für 300 Euro geben. Und ganz ehrlich, wenn ich sehe wie lange die 1080 mir treu dient, solange hatte ich noch nie eine GPU. Klar, wenn man 4k will, wird das schwierig.

Das ist aber genau der Punkt. Eine 1080 ist über 5,5 Jahre alt und hatte bereits 8 GB VRAM. Das war eine Highendkarte zu der Zeit und kostete hierzulande wie viel? 600 €?

Eine potentielle Lowend-4050 mit wahrscheinlich ebenfalls nur 8 GB VRAM wird sicherlich nicht bis Mitte 2028 alle neuen Titel noch stemmen können so wie die 1080 es heute noch tut (mit reduzierten Details, versteht sich). Das ist definitiv nicht vergleichbar. Und wenn ein Lowend-Produkt fast so viel kostet wie vor 3 Generationen / 5,5 Jahren ein Highend-Produkt... Dann finde ich persönlich dass das ein nicht angemessener Preis ist.

Niemand zwingt einen eine neue Grafikkarte völlig überteuert zu kaufen, korrekt. Aber wenn ich dann neue Titel nur noch mit stark reduzierten Details (sodass sie schlechter aussehen als auf einer Konsole, die gerade mal die Hälfte kostet von einer Mittelklasse (!) Desktop-GPU) oder dann demnächst gar nicht mehr... Dann kehre ich diesem Hobby konsequent den Rücken. Genauso wie ich mein Auto wohl abmelden würde, wenn der Liter Diesel 5 € kosten würde.
 
Ich würde erwarten, dass man bis zum Ende 2023 eine 4070 (non-ti)= für 6XX Euro bekommen wird. Diese dürfte min. 80% mehr Performance liefern als die 1080 und mit ihren 12GB in FHD/WHQD dank DLSS sicher ordentlich bis zur 5070 oder gar 6070 halten.
 
Kommt zum spielen noch Livestreaming und Aufnahme hinzu, braucht es etwas mehr Leistung, aber auch da würde gelten Feintuning ist nötig. Mikroruckler an "unwichtigen" Stellen bei der Darstellung von Spielen werden häufig toleriert, weil man den Streamer mag und das Spiel auch. Auf das Auftreten von Schluckauf nach längerer Zeit wird hier hingewiesen und dem habe ich weniger Wert beigemessen. EIn bisschen hier und da an der Engine herum schrauben wird zeitlich dann auch noch drin sein, so dass der VRAM nicht plötzlich geleert werden muss.

@DragonX1979 : Wenn sie sagen der neuesten Lieblings GPU fehlt mehr VRAM als man hat. :D

@Mr.Floppy : In diesem Fall sollte es auch eine Karte unter 500€ geben, die besser performt zum gleichen Preis wie die eigene seit Jahren treu dienende Karte. Das ist das Mindeste, allerdings wird dieser Fortschritt ausgebremst durch höhere Systemanforderungen trotz aller Updates. Sprich ältere Hardware kann auch in solche Schwierigkeiten geraten. 4050 ist für mich nicht Lowend sondern modern.

Da ich lange Zeit gespart habe, ist mein PC Budget angestiegen und wie es ausschaut, lohnt es sich für mich, da mal wieder in ein Einhorn zu investieren, das in 2 Jahren nicht irrelevant sein wird und nicht federn lassen wird in Sachen Effizienz. Jensen sagte für Enthusiasten beginnend ab $899. Dass weniger Material verwendet wird in Form des AD104 Chips finde ich super, weil er immerhin aus dem Vollen schöpfen kann als Vollausbau, was man in letzter Zeit eher im Notebookbereich sah. Außerdem hat er schon mehr Transistoren als eine der GA102 bei der RTX 3090 Ti und hat deshalb so gute Chancen zu bestehen. Dazu kommt ich bin gar kein typischer AAA Game Spieler.

Das heißt in meinem Fall nicht, dass ich dauerhaft mehr Geld für Grafikkarten ausgeben werde, sondern dass die Aufrüstmatrix durchbrochen wird. Der Kaufen Knopf wird erst gedrückt, wenn sich gut genug in die Software eingefuchst hat: Da wird nichts verschwendet. Die RTX 4080 16GB ist für mich schon teuer, sie hat aber auch andere Nachteile, weshalb ich für sie keine Ausnahme machen würde. Highend hätte ich schon gerne, nur ohne die Nachteile von High End. :P
Dann kehre ich diesem Hobby konsequent den Rücken.
Logisch. Ich würde als Fanatiker trotzdem noch weiter nach Lösungen suchen.
Genauso wie ich mein Auto wohl abmelden würde, wenn der Liter Diesel 5 € kosten würde.
Mit 60 Km/h über die Landstraße schleichen geht nur, wenn einem dabei niemand auf die Fackel geht. Spart auch Gummi, aber ist nicht immer machbar.
Für mich persönlich war eine xx70 immer Mittelklasse. Die ist keine 1.000 € + wert.
Für mich persönlich ist und bleibt diese Ti eine 4080 12GB und bleibt es auch und auch bei 1.000€ sagt mein Gewissen: "Gönn dir" :daumen:

Der mögliche Performance Gewinn zu einer 4080 16GB spielt gar keine Rolle.

Danke für die schönen Einblicke; die eigenen Storys führen zu ganz unterschiedlichem Aufrüstverhalten.
 
Zuletzt bearbeitet:
Nur mal kurz zur Anmerkung, da das gerne außer Acht gelassen wird bei "Preisvergleichen":
Einfach mal so in den Raum gestellt.

~2005 7800 GTX (256M) MSRP $599, Verkaufspreis DE ~549€, bereinigt: 705,50€

~2010 GTX 480 (1,5G) MSRP $499, Verkaufspreis DE ~499€, bereinigt: 590,50€

~2014 GTX 980 (4G) MSRP $549 UVP, Verkaufspreis DE ~554€, bereinigt: 613,60€

~2018 RTX 2080 (8G) MSRP $699($799FE), Verkaufspreis DE ~719€-949€, bereinigt:769€-1015€

~2020 RTX 3080 (10G) MSRP $699, Verkaufspreis DE 799€, bereinigt: 827€

~2022 RTX 4080 (16G) MSRP $1199, Verkaufspreis DE ~1497€

Als kleines Schmankerl: Das technisch maximal(!) mögliche im Consumerbereich:

~2005 7800 GTX 512M 2-Way-SLI MSRP $1298, Verkaufspreis DE ~1298€, bereinigt: ~1668€
~Anfang 2006 7900GX2 Quad SLI MSRP $1398* Verkaufspreis DE (XFX) ~1598€, bereinigt: ~2022,50€
~2010 GTX 480 (1,5G) 4-Way-SLI MSRP $1996, Verkaufspreis DE ~1996€, bereinigt: ~2362€
~2015 GTX TITAN X 4-Way-SLI MSRP $3996, Verkaufspreis DE ~4274€, bereinigt: ~4734€
~2018 RTX TITAN 2-Way NVLink SLI MSRP $4998+$80, Verkaufspreis DE ~5398€+ca.100€, bereinigt: ~5881€
~2020 RTX 3090(FE) 2-Way NVLink SLI MSRP $2998+$?, Verkaufspreis DE ~2998€+80€, bereinigt: ~3189€(1.)
~2022 RTX 3090Ti(FE) 2-Way NVLink SLI $3998+$?, Verkaufspreis DE ~4498€+80€(1.)
~2022 RTX 4090 MSRP $1599, UVP1859€-1949€ Verkaufspreis DE ~2699,98 ASUS Strix OC (29.12.2022)(2.)

Ja... Enthusiasten müssen gerade "heute" wirklich in die Tasche greifen... :schief:

Anmerkung:
1.) NVLink SLI bei der 30er Serie ist theoretisch auch für Gaming möglich,
in der Praxis aber aufgrund fehlender Ambitionen von Spiele- und Engineentwicklern quasi nutzlos,
da es derzeit schätzungsweise nur ~20 Spiele gibt die dies unterstützen! (Explicit Multi-GPU Rendering DX12, Vulkan)
Ziemlich schade, da die 30er Serie die Einzige und Erste ist die Memory-Pooling unterstützt.
2.) Im Consumerbereich bisher kein NVLink SLI. (Explicit Multi-GPU Rendering ohne SLI dennoch möglich, so wie bei allen modernen GPU's)


Ausgewählte Modelle jeweils Basismodelle, bzw. ohne Werks OC (z.B. TUF) von ASUS.
Quelle: Wikepedia.org, Heise.de/preisvergleich, Techpowerup.com, Nvidia.de&.com
 
Zuletzt bearbeitet:
Ich würde erwarten, dass man bis zum Ende 2023 eine 4070 (non-ti)= für 6XX Euro bekommen wird. Diese dürfte min. 80% mehr Performance liefern als die 1080 und mit ihren 12GB in FHD/WHQD dank DLSS sicher ordentlich bis zur 5070 oder gar 6070 halten.
Pascal hat sich über viele Jahre gut gehalten, aber in vielen modernen Spielen ist bereits Turing deutlich überlegen. Eine GTX 1080 steht infolgedessen nicht mehr so gut da wie etwa 2020, sodass schon eine RTX 3070 in etwa doppelt so schnell ist - beim Rasterizing. Ich hatte für 2022 einen coolen Artikel geplant, der sich mit der Performance von GP102 gute fünf Jahre später befasst, aber das Wahnsinnsjahr ließ das nicht zu - mal sehen, ob dafür nach der neuen Ada-Geforce mal Zeit ist. :-)

MfG
Raff
 
Pascal hat sich über viele Jahre gut gehalten, aber in vielen modernen Spielen ist bereits Turing deutlich überlegen. Eine GTX 1080 steht infolgedessen nicht mehr so gut da wie etwa 2020, sodass schon eine RTX 3070 in etwa doppelt so schnell ist - beim Rasterizing. Ich hatte für 2022 einen coolen Artikel geplant, der sich mit der Performance von GP102 gute fünf Jahre später befasst, aber das Wahnsinnsjahr ließ das nicht zu - mal sehen, ob dafür nach der neuen Ada-Geforce mal Zeit ist. :-)

MfG
Raff
Da bin ich völlig bei Dir. Rein von der Leistung bringt bereits die 3070 rund 180% der Leistung der 1080. Eine 4070 könnte 250% bringen und hoffentlich mit 12GB VRAM auch eine etwas angemessenere VRAM Ausstattung als die 3070.
 
Eine 4070 könnte 250% bringen und hoffentlich mit 12GB VRAM auch eine etwas angemessenere VRAM Ausstattung als die 3070.

Ich weiß ich nerve damit, aber... 3 Generationen neuer, (6 Jahre später!), "etwas angemessenere VRAM Ausstattung" für eine heutige Generation (also so, wie es eigentlich normal oder gar Minimum sein sollte für Mittelklasse in 2023), dabei aber ein doppelter Preis zum direkten Vorgängermodell, der zudem deutlich oberhalb des Preises von Highend (3080) der letzten Generation liegt.

Für meine 2070 S habe ich als Neuanschaffung (!) weniger als 500 € gezahlt, Custom-Modell. Ich würde vermutlich diesen Preis jetzt noch bekommen, wenn ich sie gebraucht auf eBay verkaufen würde. Ganz einfach weil es in dem Preissegment nicht viel gibt. Eine 3070 (Mittelklasse, 2 Jahre alt!) kostet deutlich mehr. Und eine 3060 ist in vielen Fällen sogar langsamer als meine 3,5 Jahre alte Mittelklasse GPU.

Daran merkt man, dass der Markt durch die überzogenen Preise der aktuellen Generation schlicht kaputt ist. Ob das noch Nachwehen der Knappheit von Ampere und der massiven Mining- und Scalperprobleme sind, da niemand die zu teuren Ampere-Karten (200%+ Straßenpreise meine ich, die UVP war ja völlig okay) kaufen wollte und jetzt die Lager voll sind mit Ampere-Karten zu den Preisen, die eigentlich die neuen Ada-Karten kosten sollten, das kann man nur spekulieren.

Also wenn eine 4070 zu Release (nicht erst zu RTX 50er-Zeiten) 600 € kosten würde kann ich noch überlegen. Aber um die 1.000 € ist einfach falsch bepreist und ich werde weiter warten. Notfalls so lange, bis ich das Hobby dank der Preispolitik von Nvidia/AMD aufgebe und sie zukünftig an mir 0 € verdienen. Und wenn das sehr, sehr viele so sehen, müssen die Preise weiter steigen und die, die es sich leisten möchten, müssen den Markt dann halt alleine halten. Denn irgendwie muss ja immer mehr und mehr Gewinn gefahren werden.

Wenn es so kommt ist das für mich auch okay, wie gesagt, ich würde das Hobby schon gerne weiterführen, aber das Leben ist halt kein Wunschkonzert und Angebot/Nachfrage reguliert eben den Markt. Ist dann eben ein Hobby das ich aufgeben muss und ich investiere die Zeit dann in mein Schlagzeug. Das Hobby ist äußerst preisstabil. :)
 
@Mr.Floppy - Ich schätze deine Haltung und deine Ausdrucksweise sehr. Persönlich würde ich um ein Puffer an verfügbarer Hardware zu haben für schlechte Zeiten eher nicht dieses Hobby aufgeben, sondern mit moderner, aber eben auch günstiger Einsteigertechnik mich fragen, ob ich mich selbst trollen will, weil die Ziele für die gewünschte Rechenleistung verfehlt werden.

Solange es aber noch Software gibt, mit der ich mich beschäftigen kann, um dazu zu lernen bevor ich wirklich bereit bin und im nächsten Schritt ungeduldig werde, endlich durchzustarten, spielen die Preisprobleme gar keine Rolle.
 
Ich weiß ich nerve damit, aber... 3 Generationen neuer, (6 Jahre später!), "etwas angemessenere VRAM Ausstattung" für eine heutige Generation (also so, wie es eigentlich normal oder gar Minimum sein sollte für Mittelklasse in 2023), dabei aber ein doppelter Preis zum direkten Vorgängermodell, der zudem deutlich oberhalb des Preises von Highend (3080) der letzten Generation liegt.....
Ich verstehe Dich, schaue aber anders auf das Problem. Als ich die 1080 kaufte war das Ziel aktuelle Spiele in FHD mit max. Settings und über min. 60FPS zocken zu können. Das hat sie damals geliefert. Die 3070 schaffte das praktisch in WHQD. Die gleichen Anforderungen wird auch die 4070 non-ti locker erfüllen.

Ob die Karte nun das Topmodell ist oder Mittelklasse ist mir dabei relativ egal. Besonders weil ich davon ausgehe, dass wir mit dem kommenden Multi-Die-Lösungen und 8k noch einmal eine Sprung in der Leistungsfähigkeit und im Preis der Topmodelle sehen werden. Ich kann mit gut vorstellen, dass wir deutlich über 3000-5000 Euro für das Topmodell sehen werden.
 
Es geht darum, dass keine Männer in schwarzen Lederjacken aus dem Busch springen und einem zum Kauf einer Grafikkarte zwingen. Ja, der FPS/€ Zuwachse wird sich verlangsamen und die Topendkarten werden noch teurer werden, aber es wird noch lange Karten für 300 Euro geben. Und ganz ehrlich, wenn ich sehe wie lange die 1080 mir treu dient, solange hatte ich noch nie eine GPU. Klar, wenn man 4k will, wird das schwierig.
Was treu dient? Pascal ist Tot. Neue Spiele gerade wenn Dx12 sind unspielbar. Da ist selbst eine Rx6600 um bis zu 50% schneller und das ist schon eine langsame Karte.

Im 200€ bereich gibt es bis Dato nichts seit 2016.
 
Oder man könnte sagen, die RX6600 liefert heute ein vergleichbares Leistungsniveau wie die 1080 zum Launch in aktuellen Spielen.
 
Was treu dient? Pascal ist Tot. Neue Spiele gerade wenn Dx12 sind unspielbar. Da ist selbst eine Rx6600 um bis zu 50% schneller und das ist schon eine langsame Karte.

Im 200€ bereich gibt es bis Dato nichts seit 2016.
Oder man könnte sagen, die RX6600 liefert heute ein vergleichbares Leistungsniveau wie die 1080 zum Launch in aktuellen Spielen.
Laut Computerbase ist die RX 6600 im Schnitt 18% schneller als eine GTX 1080. Kommt das ungefähr hin mit der Zeit, Auflösung, Anforderungen der Spiele?

Die 6500 XT mit UVP 209€ aber Marktpreis ab 182€ fällt aus, weil die 6600 bereits 99% schneller in Spielen ist, zumal sie sich ja schon an der 5500 XT die Zähne ausbeißt. Warten auf eine RTX 4030 und AMDs Navi33 Lineup wäre das einzige, das schon die Lösung parat haben könnte.
 
Ich weiß ich nerve damit, aber... 3 Generationen neuer, (6 Jahre später!), "etwas angemessenere VRAM Ausstattung" für eine heutige Generation (also so, wie es eigentlich normal oder gar Minimum sein sollte für Mittelklasse in 2023), dabei aber ein doppelter Preis zum direkten Vorgängermodell, der zudem deutlich oberhalb des Preises von Highend (3080) der letzten Generation liegt.

Für meine 2070 S habe ich als Neuanschaffung (!) weniger als 500 € gezahlt, Custom-Modell. Ich würde vermutlich diesen Preis jetzt noch bekommen, wenn ich sie gebraucht auf eBay verkaufen würde. Ganz einfach weil es in dem Preissegment nicht viel gibt. Eine 3070 (Mittelklasse, 2 Jahre alt!) kostet deutlich mehr. Und eine 3060 ist in vielen Fällen sogar langsamer als meine 3,5 Jahre alte Mittelklasse GPU.

Daran merkt man, dass der Markt durch die überzogenen Preise der aktuellen Generation schlicht kaputt ist. Ob das noch Nachwehen der Knappheit von Ampere und der massiven Mining- und Scalperprobleme sind, da niemand die zu teuren Ampere-Karten (200%+ Straßenpreise meine ich, die UVP war ja völlig okay) kaufen wollte und jetzt die Lager voll sind mit Ampere-Karten zu den Preisen, die eigentlich die neuen Ada-Karten kosten sollten, das kann man nur spekulieren.

Also wenn eine 4070 zu Release (nicht erst zu RTX 50er-Zeiten) 600 € kosten würde kann ich noch überlegen. Aber um die 1.000 € ist einfach falsch bepreist und ich werde weiter warten. Notfalls so lange, bis ich das Hobby dank der Preispolitik von Nvidia/AMD aufgebe und sie zukünftig an mir 0 € verdienen. Und wenn das sehr, sehr viele so sehen, müssen die Preise weiter steigen und die, die es sich leisten möchten, müssen den Markt dann halt alleine halten. Denn irgendwie muss ja immer mehr und mehr Gewinn gefahren werden.

Wenn es so kommt ist das für mich auch okay, wie gesagt, ich würde das Hobby schon gerne weiterführen, aber das Leben ist halt kein Wunschkonzert und Angebot/Nachfrage reguliert eben den Markt. Ist dann eben ein Hobby das ich aufgeben muss und ich investiere die Zeit dann in mein Schlagzeug. Das Hobby ist äußerst preisstabil. :)
Ich glaube leider, dass die Realität anders aussieht. Ich glaube sogar, dass Europa nicht einmal ein besonders attraktiver Absatzmarkt für Nvidia/AMD ist. Da dürfte mittlerweile eher das aufsteigende China sowie Südkorea attraktiver sein, weil der Markt u.U. größer ist. Gaming hat dort einen ganz anderen Stellenwert als bei uns. Die haben dort auch eine ganz andere Mentalität, was das Bezahlen überhöhter Preise angeht und zahlen diese auch, weil das Bezahlte dann als Statussymbol dient. Du musst dir nur deren Einstellung zu "Mikro"-Transaktionen ansehen. Der GPU-Markt gerade in China sieht auch deutlich vielfältiger aus als bei uns in Europa. Dort gibt's diverse Custom Modelle, die es bei uns nicht gibt.

Dazu kommt noch, dass Gaming Mainstream geworden ist. Der Markt hat sich in den letzten Jahren exponentiell vergrößert. Damit gibt es auch deutlich mehr Leute, die diese unverschämten Preise zahlen können und das aus Unwissen über die Preisentwicklung über die GPU-Generationen hinweg auch bereitwillig tun.
 
Dazu kommt noch, dass Gaming Mainstream geworden ist. Der Markt hat sich in den letzten Jahren exponentiell vergrößert. Damit gibt es auch deutlich mehr Leute, die diese unverschämten Preise zahlen können und das aus Unwissen über die Preisentwicklung über die GPU-Generationen hinweg auch bereitwillig tun.

Etwas kann aber eben auch nur dann Mainstream werden, wenn es sich der Großteil leisten kann. Genau aus dem Grund hat sich ja der Computer in den 90ern rasend schnell in den Industrieländern verbreitet. Aktuell sind, inflationsbereinigt, Computer bzw. dessen Komponenten in den letzten Jahren auch nicht teurer geworden (jetzt mal die kurzzeitigen Ausreißer bei z.B. RAM und SSDs ausgenommen, das hat sich ja wieder normalisiert).

Würden die Preise wieder deutlich nach oben gehen in Relation zum durchschnittlichen Einkommen, dann fallen natürlich nach und nach wieder Käufer weg. Sprich der Markt würde sich wieder weg vom Mainstream bewegen.

Das trifft aktuell wie oben erwähnt nicht auf den Computer als solchen zu. Arbeitsrechner sind günstiger denn je. Aber Grafikkarten schlagen gerade eben voll aus. Ein Argument, dass aber aktuelle, kleinere Karten eben auch das Niveau von Highend bringen können bei den Einstellungen von damals... Der Vergleich hinkt. FullHD wird, was Gamingsysteme angeht, eben abgelöst.

Ich habe vor der Jahrtausendwende noch in 1024x768 mit Highendhardware gespielt. So eine Auflösung war für 3D halt "gut". Messe ich deshalb die Wertigkeit heute daran, dass eine Mittel- oderLowendkarte heute in 1024x768 mit 128x128 Pixel-Texturen auch 30 fps schafft? Eben. Eine brandneue, gerade erschienene Mittelklasse-Karte sollte Spiele bei maximalen oder zumindest hohen Details in einer aktuell üblichen Auflösung (1440p z.B.) bei 60 fps schaffen. Wir reden ja nicht vom technisch machbar (4k mit Raytracing etc. wie es eine 4090 schafft). Das ist der Entwicklung geschuldet, das war schon immer so dass Texturauflösungen (und damit VRAM-Verbrauch), Auflösungen und fps eben gestiegen sind. Sonst müssten wir uns heute wie im Beispiel erwähnt bei einer Karte für 50 € (damals Lowend) begnügen, um in 1024x768 und niedrigen Details zu spielen.

Problem dabei: So günstige Karten gibt es überhaupt nicht mehr. Wir zahlen Preise für ein Lowendprodukt die vor einigen Generationen für die obere Mittelklasse oder eben Highend angesetzt waren. Eine 3060 schafft keine hohen Details in Cyberpunk 2077 mit Raytracing und DLSS in 60 fps, auch nicht bei 1024x768. Sie kostet aber gerne 400 €, also schon ca. 1/3 eines durchschnittlichen Spielerechners (ohne Peripherie und Monitor). Das steht in keiner Relation mehr.
 
Etwas kann aber eben auch nur dann Mainstream werden, wenn es sich der Großteil leisten kann. Genau aus dem Grund hat sich ja der Computer in den 90ern rasend schnell in den Industrieländern verbreitet. Aktuell sind, inflationsbereinigt, Computer bzw. dessen Komponenten in den letzten Jahren auch nicht teurer geworden (jetzt mal die kurzzeitigen Ausreißer bei z.B. RAM und SSDs ausgenommen, das hat sich ja wieder normalisiert).

Würden die Preise wieder deutlich nach oben gehen in Relation zum durchschnittlichen Einkommen, dann fallen natürlich nach und nach wieder Käufer weg. Sprich der Markt würde sich wieder weg vom Mainstream bewegen.

Das trifft aktuell wie oben erwähnt nicht auf den Computer als solchen zu. Arbeitsrechner sind günstiger denn je. Aber Grafikkarten schlagen gerade eben voll aus. Ein Argument, dass aber aktuelle, kleinere Karten eben auch das Niveau von Highend bringen können bei den Einstellungen von damals... Der Vergleich hinkt. FullHD wird, was Gamingsysteme angeht, eben abgelöst.

Ich habe vor der Jahrtausendwende noch in 1024x768 mit Highendhardware gespielt. So eine Auflösung war für 3D halt "gut". Messe ich deshalb die Wertigkeit heute daran, dass eine Mittel- oderLowendkarte heute in 1024x768 mit 128x128 Pixel-Texturen auch 30 fps schafft? Eben. Eine brandneue, gerade erschienene Mittelklasse-Karte sollte Spiele bei maximalen oder zumindest hohen Details in einer aktuell üblichen Auflösung (1440p z.B.) bei 60 fps schaffen. Wir reden ja nicht vom technisch machbar (4k mit Raytracing etc. wie es eine 4090 schafft). Das ist der Entwicklung geschuldet, das war schon immer so dass Texturauflösungen (und damit VRAM-Verbrauch), Auflösungen und fps eben gestiegen sind. Sonst müssten wir uns heute wie im Beispiel erwähnt bei einer Karte für 50 € (damals Lowend) begnügen, um in 1024x768 und niedrigen Details zu spielen.

Problem dabei: So günstige Karten gibt es überhaupt nicht mehr. Wir zahlen Preise für ein Lowendprodukt die vor einigen Generationen für die obere Mittelklasse oder eben Highend angesetzt waren. Eine 3060 schafft keine hohen Details in Cyberpunk 2077 mit Raytracing und DLSS in 60 fps, auch nicht bei 1024x768. Sie kostet aber gerne 400 €, also schon ca. 1/3 eines durchschnittlichen Spielerechners (ohne Peripherie und Monitor). Das steht in keiner Relation mehr.
Ich will dir ja gar nicht widersprechen. Ich sehe das ja genau so. Nur siehst du an deinen Beispiel auch das Problem der Sache: Die Segmente, die du da aufgezählt hast, werden allesamt nicht von einem Monopol beherrscht. Nvidia hat aber quasi völlige Narrenfreiheit als Monopolist. AMD kannst du halt völlig vergessen. Warum die erst ihre Highendprodukte launchen mussten, ist mir bis heute nicht klar. AMD kann im Ober- und Luxussegment einfach nicht mithalten (schon zu Ampere nicht und aus vielerlei Gründen). Warum die dann nicht einfach die Einsteiger- und Mittelklasse versorgen - also gerade den Markt, der derzeit von Nvidia völlig ignoriert wird - erschließt sich mir einfach nicht.
 
vllt. noch zuviel RDNA2 untenrum auf Halde
und eigentlich vom Preis her keine grüne Konkurrenz

Hut ab vor den Mutigen@ARC!
(die einzige Alternative)

btw.
man darf net vergessen, das man CPU+GPU vom TSMC-Kontingent bestreiten muss
und
Es hat sich wohl angeboten noch einen Teil von RDNA2 länger zu produzieren.(untenrum)

bzgl. Ryzen 7000nonX hofft man sicher auf bessere Verkaufszahlen
 
Ich weiß ich nerve damit, aber... 3 Generationen neuer, (6 Jahre später!), "etwas angemessenere VRAM Ausstattung" für eine heutige Generation (also so, wie es eigentlich normal oder gar Minimum sein sollte für Mittelklasse in 2023), dabei aber ein doppelter Preis zum direkten Vorgängermodell, der zudem deutlich oberhalb des Preises von Highend (3080) der letzten Generation liegt.

Für meine 2070 S habe ich als Neuanschaffung (!) weniger als 500 € gezahlt, Custom-Modell. Ich würde vermutlich diesen Preis jetzt noch bekommen, wenn ich sie gebraucht auf eBay verkaufen würde. Ganz einfach weil es in dem Preissegment nicht viel gibt. Eine 3070 (Mittelklasse, 2 Jahre alt!) kostet deutlich mehr. Und eine 3060 ist in vielen Fällen sogar langsamer als meine 3,5 Jahre alte Mittelklasse GPU.

Daran merkt man, dass der Markt durch die überzogenen Preise der aktuellen Generation schlicht kaputt ist. Ob das noch Nachwehen der Knappheit von Ampere und der massiven Mining- und Scalperprobleme sind, da niemand die zu teuren Ampere-Karten (200%+ Straßenpreise meine ich, die UVP war ja völlig okay) kaufen wollte und jetzt die Lager voll sind mit Ampere-Karten zu den Preisen, die eigentlich die neuen Ada-Karten kosten sollten, das kann man nur spekulieren.

Also wenn eine 4070 zu Release (nicht erst zu RTX 50er-Zeiten) 600 € kosten würde kann ich noch überlegen. Aber um die 1.000 € ist einfach falsch bepreist und ich werde weiter warten. Notfalls so lange, bis ich das Hobby dank der Preispolitik von Nvidia/AMD aufgebe und sie zukünftig an mir 0 € verdienen. Und wenn das sehr, sehr viele so sehen, müssen die Preise weiter steigen und die, die es sich leisten möchten, müssen den Markt dann halt alleine halten. Denn irgendwie muss ja immer mehr und mehr Gewinn gefahren werden.

Wenn es so kommt ist das für mich auch okay, wie gesagt, ich würde das Hobby schon gerne weiterführen, aber das Leben ist halt kein Wunschkonzert und Angebot/Nachfrage reguliert eben den Markt. Ist dann eben ein Hobby das ich aufgeben muss und ich investiere die Zeit dann in mein Schlagzeug. Das Hobby ist äußerst preisstabil. :)
Nichts für ungut, aber bis auf Ausnahmefälle, halte ich die VRAM Diskussion teilweise für etwas übertrieben.
Wenn ich bedenke dass selbst CP2077 maxed-out+RT kaum 10G benötigt...
Es ist eher wahrscheinlich, dass wenn man entsprechende Speichermengen benötigt, die GPU schon vorher
schlapp macht... Denn bei den meisten älteren Spielen wirst du die idR. ja auch nicht benötigen.

Zu dem kann man oft mit etwas Spielerei bei Texturqualität, AA&AF zweistellige Prozentbereiche
des Speichers wieder Freischaufeln...

Das musste ich sogar selbst erleben. Bevor ich die 6G bei meinen TITAN Black Karten in der
Gaming Praxis benötigt habe, war selbst ne 1070 Schneller und die Titan GPU's haben sich
ohne vollen Speicher einen abgekotzt...
Und ich bin mir ziemlich sicher, dass das bei Karten wie z.B. der RTX 3090 nicht anders sein wird.

Man sollte auch nicht vergessen, dass GPU Hersteller sowie Spiele- und Engineentwickler ja nicht
ganz blöd sind. Sondern durchaus die bei den Kunden zur verfügungstehenden Speichermengen bei der
Optimierung und Planung mit einfließen. Zudem sind dafür ja genau die Grafik-Optinonen in PC Spielen da...

Einen größeren Anstieg würde ich erst bei der Nächsten Konsolengeneration erwarten...
 
Zuletzt bearbeitet:
Zurück