News Geforce RTX 4000: Super-Refresh kommt [Gerücht]

Also wenn die rtx4070 super 16gb VRam bekommt, dabei in Rasterleistung die Rx6950xt schlägt dann wäre sie definitiv eine gut Karte.
Warten wir es ab.
 
Wenn die 4080 Super nur etwas schneller als eine normale 4080 ist aber auch nur 16GB VRAM hat gibt es kein einzigen Grund die 4080 Super zu kaufen. Eine 4080 Super müsste schon 20GB VRAM haben oder 24GB haben. Eine 4070 Super mit 16GB würd kein Sinn ergeben weil man dann den Verkauf der normalen 4080 oder auch 4070ti einstampfen kann.
 
Zuletzt bearbeitet:
Die Liste umfasst aber Karten die hier ja erst als spekulativ betrachtet werden. Eben u.A. die 4080Ti-20 und die 4090Ti.
Geh doch einfach in die Ampere Generation zurück. Da sieht man ja wieviel mehr Varianten Nvidia von jedem Chip verkauft hat als aktuell von Lovelace. Ampere hat auch den Vorteil, dass es keine Spekulation mehr abbilden muss.

Augenmerk würde ich auf die Anzahl der Shader richten. Das Nvidia Design ist derart, dass diese ab Werk in 256er Schritten deaktiviert werden. Aktuell verfügbar ist die 4090 mit 64 solchen Blöcken der Größe 256. Die L40 hat 71 von 72 angeblich möglichen. Das klingt härter als es gemeint ist, aber schon die 4090 ist auch kommerzieller Sicht ein Stück weit Ausschuss, ein Chip den man als Karte für nur 1600€ verkaufen kann, weil man 12% des Chip stillgelegt hat. Die L40 kostet im Vergleich schlanke 8000€ und das ist der billige Teil, weil man anschließend einen Service Vertrag für die Treiber kaufen muss der über die Laufzeit weitaus teurer ist.

Zudem gebe ich zu bedenken, dass Nvidia regelmäßig Punktlandungen macht und die Leistung der Karten aus verschiedenen Generationen auf 5% genau einmetern kann, damit die eine Karte nur nicht der anderen zu viel Konkurrenz macht. Da sehe ich eher als Problem, dass es die RTX40 Serie jetzt schon wie lange gibt und es sind immer noch endlos viele neue RTX30 Karten in den Verkaufskanälen.
 
Ja, genau! Als würden die anderen Karten dann günstiger verkauft werden! :wall:
Weiter so! Schön fleißig das Portemmonaie aufmachen! Nur so wird NVIDIA glücklich!
Solche aussagen erscheinen mir sehr wenig objektiv, wenn man sich anschaut das der einzige Konkurrent im oberen Leistungsspektrum das selbe P/L Verhältnis bietet.
 
Solche aussagen erscheinen mir sehr wenig objektiv, wenn man sich anschaut das der einzige Konkurrent im oberen Leistungsspektrum das selbe P/L Verhältnis bietet.
Genau das ist doch das Problem! Der "einzige" Konkurrent! Es braucht mehrere um einen Preisdruck auszuüben.
AMD kann oder möchte das nicht!
 
Es wird doch niemand so sehr gemolken, wie die Grafikkartenkäufer, da es eigentlich keine Konkurrenz gibt!
Andere Firmen haben dieses "Glück" leider nicht und müssen ihre Preise der Konkurrenz anpassen.

Wo, außer bei den Grafikkarten, haben sich die Preise in den letzten paar Jahren denn verdoppelt ? Seit Jahren werden die Grafikkarten, die schneller als der Vorgänger sind, teurer!
Im Einsteigerbereich ist es noch viel schlimmer. Eine 4060, die eigentlich als 4050 verkauft werden müsste, kostet über 300€. Was für ein Witz auf unsere Kosten!

Gute P/L gibt es schon lange nicht mehr!
Traurig, dass so viele es einfach mitmachen und die Preise zahlen! So wird die nächste Gen. noch teurer.
Es ist noch viel Luft nach oben! Nur weiter so!
Das ist so, seit etwa 2013 oder so... Kann ich also nachvollziehen.

Im Grunde denke ich, irgendwo die Mitte würde es machen.

Das GPUs teurer werden, ist in Ordnung. Ich meine Inflation und Euro sind haben sich seit 2013 auch deutlich verändert.

Da ich etwa 2010 wieder im PC eingestiegen bin, nach einer längeren Pause, ist das meine Referenz.
DIe GTX470 kostet da 350€ (Meine 390). Seitdem haben wir 34% Inflation und dazu noch das der Euro in 2010 bei 1,3363 USD lag. Heute bei 1,0538 USD.

So werden aus den 350€ schon mal knapp 600€ in 2030.

In 2010 waren die gängigen Auflösungen 1680x1050 und eher für anspruchsvolle 1920x1200. Nur für Enthusiasten 2560x1600.

Die GTX470 war bei max Details nicht einmal in der Lage immer 60Fps in der Mainstreamauflösung zu liefern.


Also selbst wenn man heute sagt, die Mainstreamauflösung ist aktuell die WQHD, dann liefert das heutige 600€ Äquivalent eine im Schnitt bessere Vorstellung ab, als die 350€ Karte in 2010.


So unfassbar viel Grund zum Meckern sehe ich dann vielleicht nicht.

Klar, die 470 war der zweitgrößte Chip, aber was will man machen. Ist das Glas halb leer, oder voll.

Man kann jammern, das die Preise für mehr Leistung stark gestiegen sind. Aber man muss das theoretisch auch nicht übertreiben.

Und zu dem ganzen "mitmachen / unterstützen" bla bla. Warum sollten jetzt alle über viele Jahre gänzlich auf das Hobby verzichten.

Ich meine als die Preise angefangen haben, überproportional zu steigen war die R9 290X gerade neu. Damit möchte ich heute sicher nicht mehr spielen.

Auch kann man das Rad noch weiter zurück drehen. Zur GTX670/680. Damals konnte Nvidia erstmals mit den kleinen Chips AMD in Schach halten und quasi könnte man das auch als Grundstein sehen.

Wer spielt denn noch mit einer GTX600, oder HD79XX? Alle anderen haben die Entwicklung ja unterstützt.
Wenn die 4080 Super nur etwas schneller als eine normale 4080 ist aber auch nur 16GB VRAM hat gibt es kein einzigen Grund die 4080 Super zu kaufen. Eine 4080 Super müsste schon 20GB VRAM haben oder 24GB haben. Eine 4070 Super mit 16GB würd kein Sinn ergeben weil man dann den Verkauf der normalen 4080 oder auch 4070ti einstampfen kann.
Na, die 4080 ist schon noch deutlich schneller, als eine vermutete 4070 Super.

Und wie bei RTX2070/2080 und 2070s, die 2070s lag fast gleichauf mit der 2080.

So könnte ich mir vorstellen, das eine 4070ti S zum Beispiel ca. so viel leistet wie die 4080. Das dann auch mit 16GB.

Wenn man die 4080S mit 20Gb für zum Beispiel 1300€ bringt, die 4080 auf 1050-1100€ reduziert und die 4070ti S auf 999€ adressiert... werden alle noch fröhlich gekauft. Eine 4070 s mit etwa 4070ti Leistung und ebenfalls 16GB, könnte dann auch 799€ kosten.

Würde ich für denkbar halten.
Also wenn die rtx4070 super 16gb VRam bekommt, dabei in Rasterleistung die Rx6950xt schlägt dann wäre sie definitiv eine gut Karte.
Warten wir es ab.
Na also die 4070 mit 12GB und der RT Leistung der 7900XT(X) ist schon eine gute Karte ;)
Das möchte ich bezweifeln - zumindest bei der hauptsächlich vertretenen 10 GiB Version. Die 3080 hat deutlich genug Rohleistung, wird in aktuelleren Spielen aber durch den VRAM beschränkt, was schade ist.
Das kannst du machen. Aber im Schnitt der Spiele Tests, liegt die nach wie vor im Raster knapp unter der 6800XT und bei RT weit drüber.

Also immer noch keine schlechtere Wahl gewesen, als die 6800XT.

Man konnte jetzt also schon 3 jahre darauf warten das die 6800XT, sehr deutlich von den 16GB gegenüber der 3080 mit 10GB profitiert, ohne das sich nenneswert etwas geändert hat. Wie lang soll man denn noch warten?

Jetzt auch nicht falsch verstehen, mehr Speicher ist immer besser als weniger (Produktunabhängige Aussage).
Aber bei einer Grafikkarte geht es um mehr, als nur Speicher.

Man kauft ein Komplettpaket.
 
Zuletzt bearbeitet:
Das kannst du machen. Aber im Schnitt der Spiele Tests, liegt die nach wie vor im Raster knapp unter der 6800XT und bei RT weit drüber.

Also immer noch keine schlechtere Wahl gewesen, als die 6800XT.

Man konnte jetzt also schon 3 jahre darauf warten das die 6800XT, sehr deutlich von den 16GB gegenüber der 3080 mit 10GB profitiert, ohne das sich nenneswert etwas geändert hat. Wie lang soll man denn noch warten?

Jetzt auch nicht falsch verstehen, mehr Speicher ist immer besser als weniger (Produktunabhängige Aussage).
Aber bei einer Grafikkarte geht es um mehr, als nur Speicher.

Man kauft ein Komplettpaket.
Kommt darauf an, welche Spiele du spielst. Bei einigen der Spiele, die ich gern spiele, wäre die 3080 10 GiB an ihrem zu geringen VRAM krepiert - selbst schon in FHD (und dann natürlich gerade in Q- oder UHD). Nvidia hat nicht umsonst den Speichergeiz-Ruf.
 
Kommt darauf an, welche Spiele du spielst. Bei einigen der Spiele, die ich gern spiele, wäre die 3080 10 GiB an ihrem zu geringen VRAM krepiert - selbst schon in FHD (und dann natürlich gerade in Q- oder UHD). Nvidia hat nicht umsonst den Speichergeiz-Ruf.
Natürlich ist es immer eine Frage, was wer überwiegend spielt. Aber das ist ja keine Möglichkeit, davon pauschale Aussagen aufzustellen, die so nicht so richtig zutreffen.

Wenn man über alle Spiele schaut (Neutral), dann ist im Schnitt nach wie vor die 3080 10GB eine super Karte und wenn man dann 10 Spiele nimmt und man bei 1 die Texturdetails runter schrauben muss, damit es mit 10GB läuft, ist doch nicht schlimm. Zumindest nicht schlimmer, als wenn ich in 1-3 Spiele die RT Details runter schrauben muss.

So in etwa ist meine Sicht.

Bei mir persönlich, da ich überwiegend EGO Shooter Spiele habe ich so gut wie nie Speicherengpässe in der Vergangenheit gehabt.

Von da aus ich aber nicht, das der Speicher bei Nvidia nicht knapp ist. (kann ja meine Erfahrung nicht verallgemeinern).
Aber es geht um mehr, als nur Speicher.
 
Ich würde zu diesen Gerüchten den Ball erst mal flach halten. Bei Ampere waren die nachgeschobenen Karten preislich unattraktiver wie die ursprünglichen Karten. Das kann dieses mal besser werden, aber ich würde nicht darauf wetten.^^
 
Na also die 4070 mit 12GB und der RT Leistung der 7900XT(X) ist schon eine gute Karte ;)
12 GB halte ich 2023 für so eine schnelle und teure Karte einfach zu wenig. Es gibt bereits ein paar Spiele die 12 GB auslasten. Wenn NV mit der rtx3060 schon 12gb im eigenen Haus hat, sorry dann erwarte ich einfach bei einer rtx4070 16gb. Das ist einfach so, wie dass ich jedem >1500€ Gaming Rechner einfach 32gb Ram erwarte auch wenn 16gb aktuell gerade so am Limit meist noch reichen...
Ich will einfach keine 600€Karte bei dem der Vram, "meist, noch gerade so..." reicht. Und Vram Mangel ist übel das führt zu deutlich spürbaren Framedrops und Textur Glitsches...
Was schlimmeres als VRam Mangel gibts gar nicht. Lieber ist die Karte minimal langsamer aber dafür konstante fps mit konstanter sauberen Texturen.
Raytracing ist für mich persönlich total uninteressant. Der optische Mehrwert ist für mich zu vernachlässigen, lieber hane ich 50% mehr fps. Hinzu kann keines meiner aktuellen Titel Raytracing.
 
Und Vram Mangel ist übel das führt zu deutlich spürbaren Framedrops und Textur Glitsches...
Was schlimmeres als VRam Mangel gibts gar nicht. Lieber ist die Karte minimal langsamer aber dafür konstante fps mit konstanter sauberen Texturen.
Raytracing ist für mich persönlich total uninteressant. Der optische Mehrwert ist für mich zu vernachlässigen, lieber hane ich 50% mehr fps. Hinzu kann keines meiner aktuellen Titel Raytracing.
Jeder kauft seine Grafikkarte nach seinem Nutzungsverhalten. Du gehörst halt zu den Menschen, die ohne Ultra Texturen nicht leben können (liest sich zumindest so) und ich stelle die Texturen mit meiner 4070, wenn nötig, auf "Hoch" herunter, um Raytracing einschalten zu können.
Nichts davon ist falsch, weil jeder sein Spiel so einstellt, wie er möchte.
 
12 GB halte ich 2023 für so eine schnelle und teure Karte einfach zu wenig. Es gibt bereits ein paar Spiele die 12 GB auslasten. Wenn NV mit der rtx3060 schon 12gb im eigenen Haus hat, sorry dann erwarte ich einfach bei einer rtx4070 16gb. Das ist einfach so, wie dass ich jedem >1500€ Gaming Rechner einfach 32gb Ram erwarte auch wenn 16gb aktuell gerade so am Limit meist noch reichen...
Ich will einfach keine 600€Karte bei dem der Vram, "meist, noch gerade so..." reicht. Und Vram Mangel ist übel das führt zu deutlich spürbaren Framedrops und Textur Glitsches...
Was schlimmeres als VRam Mangel gibts gar nicht. Lieber ist die Karte minimal langsamer aber dafür konstante fps mit konstanter sauberen Texturen.
Raytracing ist für mich persönlich total uninteressant. Der optische Mehrwert ist für mich zu vernachlässigen, lieber hane ich 50% mehr fps. Hinzu kann keines meiner aktuellen Titel Raytracing.

"Ich" will auch nicht weniger RT Leistung, bei GPUs für XY €.

Du kannst ja in zwei Jahren nochmal berichten wie oft der Speicher wirklich ausgeht.
Auch wie oft, wenn man denn die Alternative der selben Preisklasse gekauft hat mit mehr Speicher, man RT runter reglen musste, oder deaktivieren.

Neutral, kann keiner von uns seine eigene Situation (Spielauswahl) als Basis für pauschale Aussagen heranziehen.
Gibt ja zum Glück Tests die einen objektiveren Eindruck vermitteln.

Und objektiv vermitteln die das die 12GB sicher nicht üppig sind, aber im großen und ganzen noch ganz gut passen.


Ein weiterer Punkt ist immer, das so getan wird, das wenn die 12GB nicht reichen, das dann nur noch schrott grütze raus kommt.
Das ist schlicht quatsch. Einfach etwas mit den Settings spielen. Bis 12GB wirklich nicht mehr reichen und das auch einen großen optischen Unterschied macht haben 2027 (vermutlich). Da erst dann die Konsolen mehr Speicher für die virtuellen Welten adressieren können.

Mit 10-12GB VRam lassen sich schon sehr hübsche Texturen zaubern.

Ich persönlich nutze in der Zeit bis dahin lieber öfter RT, als mich zu ärgern, weil 1-2 Spiele im Jahr suboptimal für die 12GB sind. Von denen ich in 3 Jahren vermutlich nur eines spiele.
 
Zuletzt bearbeitet:
KI / Datacenter Sparte
das kann schneller einbrechen wie es gekommen ist.
AI ist alles gut und schön, jedoch bemisst man dort einen zu hohen Wert. Alles Ultrahype, was in den letzten Monaten nachgelassen hat finde ich. In den Social Media findet sich jetzt weniger AI Themen als es Ende 2022 der Fall war.
 
Die GTX 970 wurde noch für 330€ verkauft und die RTX 4070, die ja eigentlich noch nichtmal eine richtige 4070 ist, sondern eine 4060 Ti, kostete zum Release 660€. Erleuchtet ?
Hast du eine GPU nach Release der GTX600 Reihe gekauft?
Oder gar sogar eine Nvidia nach der GTX600 Reihe?
Aber das bekomme ich eh nicht hin. Zwecklos!

Ich war ja nicht fertig! Und ja, AMD ist als einziger Konkurrent nicht wirklich toll. Es braucht mehrere, wie bei anderen Artikeln auch!
Einer reicht schon, wenn auf Augenhöhe.
Beim Benzin wurde ja auch die Steuer ausgesetzt. Das kann man nicht wirklich als Vergleich nehmen. :-)
 
das kann schneller einbrechen wie es gekommen ist.
AI ist alles gut und schön, jedoch bemisst man dort einen zu hohen Wert. Alles Ultrahype, was in den letzten Monaten nachgelassen hat finde ich. In den Social Media findet sich jetzt weniger AI Themen als es Ende 2022 der Fall war.

Kann passieren, ich sagte auch nur dass die Aktionäre aktuell auf diesen Markt schauen wenn sie Nvidia Aktien bewerten / kaufen.
 
Jeder kauft seine Grafikkarte nach seinem Nutzungsverhalten. Du gehörst halt zu den Menschen, die ohne Ultra Texturen nicht leben können (liest sich zumindest so) und ich stelle die Texturen mit meiner 4070, wenn nötig, auf "Hoch" herunter, um Raytracing einschalten zu können.
Nichts davon ist falsch, weil jeder sein Spiel so einstellt, wie er möchte.
Perfekt, genau so siehts aus. Ich spiele nur Hunt Showdown un d Transport Fever 2. Dort gibt's weder Raytracing noch dlss/fsr. Da zählt allein Rasterleistung. Ich versuche immer die Balance zw. Max Optik und max fps. In Hunt hab ich es so z.B. eingestellt das ich 80fps gefixt habe bei 5120x1440 im mittel bis max Settings auf einer rtx3060ti. Gsync han ich komplett aus da ich 240hz Monitor habe. Ich kanm irgendwie kein Tearing wahrnehmen. Könnte sein dass 80 fps × 3 = 240hz sind. Als das GPU 3 mal je Monitor Hz dargestellt werden. Hab mal so was gelesen aber so genau blick ich das alles nicht.
Jedenfalls ist so alles gut ausblanciert.
Bei Raytracing in der Auflösung bräuchte ich eher gleich ne rtx4080 wenn ich 80-100fps in vielen Titeln haben wollen würde....
 
Ich habe vor ca. 2 Jahren eine gebrauchte GTX 1070 für 188€ gekauft.

Nur doof, wenn der eine die gleichen Preise verlangt! :ka:
Glaubst du wirklich ein paar mehr Anbieter würden da nennenswert was dran ändern?
Die machen es dann wie AMD. Ob die GPU nun 1000, oder 1100 kostet. Oder 600, oder 660.

Offensichtlich verkaufen sich die GPUs gut genug, oder aber die Kosten können nicht weiter gesenkt werden.

Ich persönlich denke ersteres tritt ein.

Ob ich pro verkaufter Einheit 100€, oder 300€ verdiene. Dann ist egal, das ich bei den 300€ nur die Hälfte verkaufe.

Ich denke AMD und Nvidia haben höhere Kosten, aber auch mehr Gewinn pro Einheit. Da werden sich schlaue Leute ausgerechnet haben, das man so eben in Summe mehr verdient.
Ich habe vor ca. 2 Jahren eine gebrauchte GTX 1070 für 188€ gekauft.
Also nach der GTX600 Reihe hast du jetzt erst eine GTX1070 gebraucht gekauft. Sehr löblich.
Nur doof, wenn der eine die gleichen Preise verlangt! :ka:
das kann schneller einbrechen wie es gekommen ist.
AI ist alles gut und schön, jedoch bemisst man dort einen zu hohen Wert. Alles Ultrahype, was in den letzten Monaten nachgelassen hat finde ich. In den Social Media findet sich jetzt weniger AI Themen als es Ende 2022 der Fall war.
Ausschließen kann man nie etwas zu 100%, aber wie soll der AI Markt einbrechen.

Es gibt so einen gewaltigen Bedarf (Bzw. Möglichkeiten), dass das weltweit einbricht halte ich für sagen wir unwahrscheinlich.

Aber schauen wir mal.
 
Zuletzt bearbeitet:
Zurück