News Geforce RTX 4000: Super-Refresh kommt [Gerücht]

Wo, außer bei den Grafikkarten, haben sich die Preise in den letzten paar Jahren denn verdoppelt ?
Nicht verdoppelt, aber nah dran:

- etliche Lebensmittel/Fleischprodukte bei gleichem Konsum
- Kraftstoffe (grad mal geschaut, Mai 2020 für 1,17€/l Super Plus während der Pandemie getankt, letzte Woche für 1,94€/l und wir waren zwischenzeitlich deutlich über 2€/l.)
- Heizkosten/Strom für viele sehr deutlich gestiegen, obwohl sie nicht mehr verbrauchen

Seit Jahren werden die Grafikkarten, die schneller als der Vorgänger sind, teurer!
Die sind wenigstens schneller, mein Auto bleibt gleich schnell, trotz steigender Unterhaltskosten :D

Gute P/L gibt es schon lange nicht mehr!
Stimmt. Werden immer weniger.

Traurig, dass so viele es einfach mitmachen und die Preise zahlen! So wird die nächste Gen. noch teurer.
Richtig. So wird's wohl sein (Regt mich aber, im Gegensatz zu der in Mode gekommenen Abzocke im Alltag, nicht wirklich auf).
 
Na ja, es gab zwar keinen großen Refresh aber es gab bei der 3080 ein Speicherupgrade auf 12GB. Das mag nicht viel sein aber trägt zur Lebenserhaltung entscheidend dazu. Ob dies nun mit "Super" oder "ti" gebrandmarkt wird, ist egal. Es gab aber eine Verbesserung. Ach, und dann gab es noch die 3060 mit 12GB. So verbesserungslos war die letzte Generation also nicht.
ja schon aber einfach nur Speicher Upgrades und aufgebohrte "Super" (das waren ja damals die eigentlichen TI Modelle) ist schon was ganz anderes. Speicherrefreshes gabs so auch zwischendurch immer wieder, 1060.
 
Unpraktisch. Ne 4080Ti/Super für wenig knapp über 1000€ wäre wohl meine erste Bauchschmerz Wahl nach 6 Jahren gewesen.
Hab vorn paar Tagen ne 7900XTX gekauft. Die auch schon mit etwa 1000€ schon nur mit Augen zu kaufbar war.
Ne 4080 mit gleicher Leistung für ein leises Modell mit nochmal 300€ mehr wars mir nicht Wert.
Und die 4090 hat mit 20% Mehrleistung für 1700-1800€ für einen leises Model einen Lächerlich hohen Preis.

Seit ich die andere Karte drin habe, merke ich in den absolut Selben Einstellungen und FPS limiter in so manchen Spiel deutlich flüssigere Spielbarkeit, Dabei war ich gar nicht soooo schlecht aufgestellt mit meinen 11GiB.
Ob schlecht Portiert o.Ä ist eigentlich egal..weil. wenn das Spiel es scheinbar braucht um Flüssiger zu wirken gibs keine Option. Allein der Unterschied von 50-60fps zu jetzt angepassten Settings in 75fps+ und WQHD, ein Traum.
 
Zuletzt bearbeitet:
Ein nicht wirklicher Konkurrent ? WOW! Nein, nicht wirklich!

Ah ja, selektive Antworten, schön. Wo sage ich dass AMD kein wirklicher Konkurrent ist? Natürlich sind sie das. Diese Gen im High-End leider nicht. Nächste vielleicht auch nicht. Aber das betrifft dann nur 1-2 Karten, nicht das gesamte Lineup.

Wo sind nun die doppelt so teuren GPUs?
 
Welches Modell hat sich verdoppelt?

Die 90er? Nope.
Die 80er? Nope.
Die 70er? Nope.
Die 60er? Nope.

Ich hab einfach mal gegoogled und jede Turing Karte mit ihrem Ada Pendant verglichen. Da liegen immerhin 4 Jahre dazwischen. Aber Du wirst mich sicher erleuchten können!
Die GTX 970 wurde noch für 330€ verkauft und die RTX 4070, die ja eigentlich noch nichtmal eine richtige 4070 ist, sondern eine 4060 Ti, kostete zum Release 660€. Erleuchtet ?

Aber das bekomme ich eh nicht hin. Zwecklos!
Ah ja, selektive Antworten, schön. Wo sage ich dass AMD kein wirklicher Konkurrent ist? Natürlich sind sie das. Diese Gen im High-End leider nicht. Nächste vielleicht auch nicht. Aber das betrifft dann nur 1-2 Karten, nicht das gesamte Lineup.

Wo sind nun die doppelt so teuren GPUs?
Ich war ja nicht fertig! Und ja, AMD ist als einziger Konkurrent nicht wirklich toll. Es braucht mehrere, wie bei anderen Artikeln auch!
Nicht verdoppelt, aber nah dran:

- etliche Lebensmittel/Fleischprodukte bei gleichem Konsum
- Kraftstoffe (grad mal geschaut, Mai 2020 für 1,17€/l Super Plus während der Pandemie getankt, letzte Woche für 1,94€/l und wir waren zwischenzeitlich deutlich über 2€/l.)
- Heizkosten/Strom für viele sehr deutlich gestiegen, obwohl sie nicht mehr verbrauchen
Beim Benzin wurde ja auch die Steuer ausgesetzt. Das kann man nicht wirklich als Vergleich nehmen. :-)
 
Zuletzt bearbeitet:
Da verschenkt man ja nix von der Leistungsstreuung der Waver, da wird jedes FPS abgewogen und direkt
in Geld umgesetzt....oh wei oh wei
 
Die GTX 970 wurde noch für 330€ verkauft und die RTX 4070, die ja eigentlich noch nichtmal eine richtige 4070 ist, sondern eine 4060 Ti, kostete zum Release 660€. Erleuchtet ?

Aber das bekomme ich eh nicht hin. Zwecklos!

Wait, war die GTX 970 nicht die "Speicher-Betrug" Karte? Ja genau, das war sie. Hm, ob das jetzt so ein gutes Beispiel ist. Aber Ok.

330€ im Jahr 2014
8 Jahre Inflation drauf und man landet bei irgendwas um die 410€.
Gefertigt: Foundry TSMC Process Size 28 nm

https://www.tomshardware.com/news/tsmc-will-charge-20000-per-3nm-wafer

1697647164355.png


Ada dagegen:
1697647188563.png


Also allein der Wafer Preis hat sich in der Zeit mehr als verfünffacht! Außerdem kosten schnellere und mehr GDDR Module auch mehr. Natürlich gibt man gestiegene Herstellungskosten an die Kunden weiter, JEDE FIRMA MACHT DAS. Herrgott, es ist so lächerlich.

Die Marge hat sich bei Nvidia seit 2014 auf jeden Fall gesteigert. So läuft das in erfolgreichen Firmen die an der technologischen Spitze stehen. Willkommen in der modernen Welt.

Ich will hier keineswegs Nvidia verteidigen und hätte auch nichts gegen günstigere GPUs. Ich kann nur realitätsfremde Argumente einfach nicht vertragen.

Edit: Die-Size spielt natürlich auch eine Rolle bei der Wafer-Kosten Berechnung.

970 - GM204 - 398 mm²
4070 - AD104 - 294 mm²

AD104 ist also ca. 25% kleiner. Das heißt aber nicht dass man 25% mehr GPUs pro Wafer erhält. Ein paar mehr auf jeden Fall, vielleicht 10-15%, das gleicht aber nicht die 5 Mal höheren Kosten pro Wafer aus.
 
Zuletzt bearbeitet von einem Moderator:
Wait, war die GTX 970 nicht die "Speicher-Betrug" Karte? Ja genau, das war sie. Hm, ob das jetzt so ein gutes Beispiel ist. Aber Ok.

330€ im Jahr 2014
8 Jahre Inflation drauf und man landet bei irgendwas um die 410€.
Gefertigt: Foundry TSMC Process Size 28 nm

https://www.tomshardware.com/news/tsmc-will-charge-20000-per-3nm-wafer

Anhang anzeigen 1440652

Ada dagegen:
Anhang anzeigen 1440653

Also allein der Wafer Preis hat sich in der Zeit mehr als verfünffacht! Außerdem kosten schnellere und mehr GDDR Module auch mehr. Natürlich gibt man gestiegene Herstellungskosten an die Kunden weiter, JEDE FIRMA MACHT DAS. Herrgott, es ist so lächerlich.

Die Marge hat sich bei Nvidia seit 2014 auf jeden Fall gesteigert. So läuft das in erfolgreichen Firmen die an der technologischen Spitze stehen. Willkommen in der modernen Welt.

Ich will hier keineswegs Nvidia verteidigen und hätte auch nichts gegen günstigere GPUs. Ich kann nur realitätsfremde Argumente einfach nicht vertragen.

Edit: Die-Size spielt natürlich auch eine Rolle bei der Wafer-Kosten Berechnung.

970 - GM204 - 398 mm²
4070 - AD104 - 294 mm²

AD104 ist also ca. 25% kleiner. Das heißt aber nicht dass man 25% mehr GPUs pro Wafer erhält. Ein paar mehr auf jeden Fall, vielleicht 10-15%, das gleicht aber nicht die 5 Mal höheren Kosten pro Wafer aus.
Gut, dann nehmen wir die GTX 980. Was hat die gekostet ? 599€ ? Oder die 1080 für 649€ ? Die 4080 hat zum Release ca. 1300€ gekostet.
Klar steigen die Kosten, aber in dem Ausmaß ?
Nein, ich finde die Karten durch die Bank mehr als überteuert! Und da bin ich nicht der Einzige!

Lächerlich ist nur die Verteidigung dieser absurden Preise!
Aber wer kaufen möchte bitteschön! Ich halte niemanden ab!

Mehr werde ich dazu nicht mehr schreiben!
 
Gut, dann nehmen wir die GTX 980. Was hat die gekostet ? 599€ ? Oder die 1080 für 649€ ? Die 4080 hat zum Release ca. 1300€ gekostet.
https://www.gamestar.de/artikel/nvi...tion-auch-in-deutschland-gesenkt,3310983.html

GTX 1080 Founders Edition sinkt von 789€ auf 635€

Joah, nimm doch lieber die bereits gesenkten UVPs um Deinen Punkt zu untermauern. Can't make this sh*t up. :lol:

Die 1080ti hat übrigens 819€ UVP zu Release gekostet.
Die 2080ti 1.259€, die 2080 849€.

Das sind alles die Preise der Founders Editions. Zu der Zeit gab es günstigere Custom Designs zu Release, da wird es dann aber schwierig mit den Vergleichen.

Es bleibt dabei, keine Karte kostet "doppelt" so viel außer man geht ein Jahrzehnt zurück. Dass sich das allein wegen der Inflation und unterschiedlichen Herstellungsprozesse überhaupt nicht mehr vergleichen lässt scheint Dir aber egal zu sein.
 
Und wieso sinnlos? Wenn Blackwell tatsächlich erst 2025 kommt, dann ist Anfang 2024 kein schlechter Zeitpunkt für einen Refresh. Wie "sinnlos" die Specs sind muss man abwarten. Die Leaks sehen aber ganz gut aus.
Blackwell soll 2024 kommen und ab dann soll es jährlich neue Architekturen geben:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Ob das wirklich sinnvoll ist, möchte ich bezweifeln, aber das ist wohl Nvidias neue Geschäftsstrategie.
Selbst die 3080 ist nach wie vor gut gealtert. Also einfach mal die Kirche im Dorf lassen.
Das möchte ich bezweifeln - zumindest bei der hauptsächlich vertretenen 10 GiB Version. Die 3080 hat deutlich genug Rohleistung, wird in aktuelleren Spielen aber durch den VRAM beschränkt, was schade ist.
Kann sie Cyberpunk 2077 nativ in 4K 240FPS und Pathtracing darstellen? Nein? Dann ist noch Luft nach oben, sehr viel sogar.
Das ist ein maßlos sinnfreie Übertreibung. UHD liegt laut der Steam Hardware Survey erst bei 3%. Davon dürfte der Hauptteil auf 60 Hz und ein weiterer Teil auf 120 Hz entfallen. 240 Hz ist exotisch und betrifft nur eine vernachlässigbare Anzahl an Spielern. Zudem kannst du scheinbar nicht alles mit bloßer Rohleistung erschlagen. Das sehen zumindest Nvidia, AMD und auch Intel so und bieten AI-Upscaling an. Wenn ich auf meiner 4080 in CP 2077 - einer Tech-Demo wohlgemerkt - dank DLSS Quality in UHD 60 FPS bekomme, reicht das doch aus? Es sind im Übrigen "nur" 60 FPS, weil diverse Mods die Leistung drücken.
Lach, nicht mal ansatzweise. Wenn du Cyverpunk mit Pathtracing komplett aufgedreht spielst ohne Upscaler kommst du teilweise nicht auf 30 FPS in 4K.
Siehe vorheriger Absatz. Die Besessenheit mit "nativ" kann ich mittlerweile nicht mehr verstehen. Wie viele Generationen willst du denn noch warten, bis du Tech-Demos wie die erwähnte mit hoher FPS-Zahl ohne Upscaler spielen kannst?
Mein Monitor hat Dual4K Auflösung und 240Hz, da werden auch die nächsten Gens noch dran zu knabbern haben.
Wenngleich die Auflösung sicher fernab des Mainstreams ist, sind zumindest 4K120Hz oder adäquates Ultrawide häufiger anzutreffen, wenn ich mich im Freundeskreis so umsehe. CPPL ist nicht unbedingt repräsentativ, aber die 4090 ist bereits jetzt kein Overkill mehr. Weitere Spiele werden folgen (ich habe z.B. Alan Wake 2 zum Release nächste Woche vorbestellt), da dürfte mit der 4090 in meiner Auflösung "DLSS on" auch eher verpflichtend sein (wie bei CPPL und Starfield).

Als die 3090Ti auf den Markt kam (03/22), waren es bis zur 4090 nur gut ein halbes Jahr (09 bzw. 10/22), sollte also für eine Runde Refreshment kein Hindernis sein, wenn die 5er erst Ende 2024/Anfang 2025 kommen.
UHD generell liegt erst bei 3% - und hiervon wird viel auf UHD TVs entfallen, die als Bildausgabe benutzt werden. Davon dürfte ein Großteil auf UHD 60 Hz entfallen; vielleicht 1% auf 120 Hz. Wir sind halt in einem Hardware-Forum und haben daher auch einen gewissen Bias. Mit dem Freundeskreis wird es sicherlich ähnlich aussehen? Die Frage ist halt auch, mit welchen Spielen du die 240 Hz ausnutzen willst. Mit der Tech-Demo CP 2077 kommst du mit Upscaling sicherlich gut auf 120 FPS.
Auch die 16 GB reichen bisher bei weitem aus.
Jein. Es gibt durchaus Beispiele, bei denen selbst 16 GiB schon eng wären. Das sind hauptsächlich die Spiele, die kein DLSS unterstützen und in denen man daher nativ spielen muss, wenn man kein FSR nutzen möchte. Gute Beispiele hierfür sind die RE-Remakes, weil Capcom einen Deal mit AMD hat und daher kein DLSS anbietet. In UHD reichen 16 GiB da mit maximalen Settings nicht mehr. Bei der Preisklasse der 4080 hätten mit 20 GiB VRAM tatsächlich auch besser gefallen.
Die MSRP der 3080 lag bei 699 USD, während die MSRP der 4080 bei 1.199 USD lag. Das ist nicht ganz eine Verdopplung, aber halt fast - zumindest aber ein krasser Preisanstieg.
 
Blackwell soll 2024 kommen und ab dann soll es jährlich neue Architekturen geben:

Ob das wirklich sinnvoll ist, möchte ich bezweifeln, aber das ist wohl Nvidias neue Geschäftsstrategie.
Ja, für Datacenter.

https://www.golem.de/news/gpu-und-rechenzentren-nvidia-zeigt-beschleunigte-roadmap-2310-178429.html

1697652717395.jpeg


Offizielle Roadmap. GB200 irgendwann 2024. Die Datacenter GPUs werden meist ein halbes Jahr vor den Gaming GPUs veröffentlicht. TSMC 3nm soll auch noch nicht so rund laufen. Wenn wir "Glück" haben gibt es Ende 2024 tatsächlich Blackwell Gaming GPUs, alle Leaks und Analysen die ich bisher gelesen / geschaut habe sprechen aber eher von 2025.

Das möchte ich bezweifeln - zumindest bei der hauptsächlich vertretenen 10 GiB Version. Die 3080 hat deutlich genug Rohleistung, wird in aktuelleren Spielen aber durch den VRAM beschränkt, was schade ist.

In 4K vielleicht. Ich habe genau die 3080 10GB und bisher im WQHD Betrieb nie VRAM Probleme gehabt. CP2077 - High Details - Pathtracing - DLSS Q belegt ca. 9GB (belegt, nicht nutzt!).
Die MSRP der 3080 lag bei 699 USD, während die MSRP der 4080 bei 1.199 USD lag. Das ist nicht ganz eine Verdopplung, aber halt fast - zumindest aber ein krasser Preisanstieg.

You got me there! Der Sprung war wirklich krass. Aber eben auch nicht "doppelt". :D
 
GA-102 = 17 verschiedene Binnings
GA-103 = 5 verschiedene Binnings
GA-104 = 27 verschiedene Binnings
GA-106 = 12 verschiedene Binnings

AD-102 = 10 verschiedene Binnings
AD-103 = 6 verschiedene Binnings
AD-104 = 11 verschiedene Binnings
AD-106 = 6 verschiedene Binnings

ich würde sagen Lovelace bekommt noch ein paar Karten und nicht nur im Gamingbereich. Jeder Chip wird imo noch mindestens eine Desktop, Laptop und ServerGPU Variante hervorbringen.
 
Wo hast du die Aufstellung her?
Hier

Oben kannst du dich durch die AD Varianten klicken, aber so eine Seite gibt es für jeden Chip, auch von AMD. Am Speicher sieht man sehr gut wieviel GB pro Chip benutzt wurden, wieviel Slots RAM die Variante bestücken kann und wiviel defekt sind. Wieviel Cuda Einheiten deaktiviert sind, wieviel Takt der Chip aushält, etc.

Immer dran denken, selbst mit dem Günstigsten Chip einer Reihen, z.B. der 4070 Variante eines AD104 macht Nvidia Gewinn. Alle Chips auf so einer Seite haben die identischen Herstellungskosten bei TSMC. Die fragen nicht, die machen und Nvidia muss selber sehen was dabei rauskommt. Im Falle eines AD104 kann das eine 600€ 4070 sein, oder eine L4 für 2500€ Gleicher Chip, leicht anderes Binning.

So wird Geld gedruckt.
 
Zurück