Geforce RTX 4080: Zwei Varianten mit 12 und 16 GiB? [Gerücht]

Langsam werden die Gerüchte aber verrückt. Wüsste nicht woher Nvidia die ganzen Rohstoffe her nimmt für drölfzig Modelle wenn auf dem Weltmarkt Knappheit herrscht?!
 
Du weißt aber schon, dass die 3080 vor 2 (!) Jahren ihren Release hatte mit einer UVP von 699 €,
und da wärst Du jetzt noch bereit bis zu 800 € dafür zu zahlen ?!? :rollen:

MfG Föhn.
Klar hab aber auch gelesen das durch (künstliche) Knappheit der Hersteller bei der neuen GEN dir Preise der alten Gen wieder hoch geht.

Nochmal 2+ Jahre ohne Upgrade wäre dann schon sehr hart.

Zudem liegt die UVP jetzt bei 759€ zumindest im Nvidia Store.
 
Irgendwie sorgt das nur wieder für Verwirrung. Fangen sie wieder mit 10GB (4070) und 12GB (4080) an. Kann man nicht kaufen. Dann gibt es 12/16GB, dann kommen irgendwann wieder Super-Varianten...

4050: 8GB
4060: 10GB
4070: 12GB
4080: 16GB
4090: 24GB
fertig!
 
Zuletzt bearbeitet:
Langsam werden die Gerüchte aber verrückt. Wüsste nicht woher Nvidia die ganzen Rohstoffe her nimmt für drölfzig Modelle wenn auf dem Weltmarkt Knappheit herrscht?!
Was hat das mit Rohstoffen zu tun? Eigentlich spart Nvidia sogar Speichermodule wenn sie eine 4080 mit 12GB und eine mit 16GB rausbringen? Der Chip ist ja derselbe...
 
Nochmal 2+ Jahre ohne Upgrade wäre dann schon sehr hart.
Warum?
Wegen der Preissituation (und der enttäuschenden RTX3000) habe ich seit Anfang 2018 kein Upgrade mehr gemacht bei der GPU.
War das hart? Nö. Ich konnte weiterhin alles spielen was ich wollte, sogar in 4K - nur nicht mehr immer auf Ultra und/oder mit hunderten fps.

War auch für mich das erste Mal das eine Grafikkarte länger als rund 2 Jahre benutzt wurde aber es ist selbst bei 4 Jahren viel weniger schlimm als mans sich vorstellt, ehrlich :-)
 
Warum?
Wegen der Preissituation (und der enttäuschenden RTX3000) habe ich seit Anfang 2018 kein Upgrade mehr gemacht bei der GPU.
War das hart? Nö. Ich konnte weiterhin alles spielen was ich wollte, sogar in 4K - nur nicht mehr immer auf Ultra und/oder mit hunderten fps.

War auch für mich das erste Mal das eine Grafikkarte länger als rund 2 Jahre benutzt wurde aber es ist selbst bei 4 Jahren viel weniger schlimm als mans sich vorstellt, ehrlich :-)
Naja ich krebs hier mit meiner 1080 die ich anno Dez 2016 gekauft habe rum.
Bei 1440p ist selbst mit angepassten Einstellungen in vielen neueren Spielen keine 60 Fps mehr flüssig möglich.
Und langsam hat sie trotz Wasserkühlung, UV und 60 Fps limiter öfters Aussetzer.
Wollte zuerst Ampere hab aber durch diesen tollen Samsung Prozess die Finger weggelassen. Jetzt verschiebt sich der Release der 70 und 80 nach hinten und nun Knausern die auch noch mit Speicher. Während AMD mit der ersten Gen Multi Chip rumfummelt.
Das läuft bestimmt so gut wie die vorhersage vom Cache bei hohen Auflösungen bei der Momentanen Gen.
Zusätzlich wollte ich endlich mal in die Welt von RayTracing einsteigen.
Spiele die das können werden Immer günstiger und mehr.
 
Warum?
Wegen der Preissituation (und der enttäuschenden RTX3000) habe ich seit Anfang 2018 kein Upgrade mehr gemacht bei der GPU.
War das hart? Nö. Ich konnte weiterhin alles spielen was ich wollte, sogar in 4K - nur nicht mehr immer auf Ultra und/oder mit hunderten fps.

War auch für mich das erste Mal das eine Grafikkarte länger als rund 2 Jahre benutzt wurde aber es ist selbst bei 4 Jahren viel weniger schlimm als mans sich vorstellt, ehrlich :-)
Gut meine 1080 ist seit 6 Jahren im System und stößt mittlerweile an immer größere Grenzen, und in naher Zukunft erscheinen dann doch Titel wo ich mir Sorgen um die Performance in WQHD mache. Aktuell geht das noch das ich mit Mittleren Settings in WQHD um die 60-80 FPS erreiche.

Nicht das die Preise wieder völlig explodieren und wir 2023/4 da stehen wo wir vor einem Jahr waren : RX 6800 XT 1400€, Verfügbarkeit 0
 
Eher andersrum sind die 12GB@192bit ne Effizienzmaßnahme, damit man net so sehr über RDNA3 rauskommt.
Da werden sich manche Käufer erstmal Ihr vorh. NT anschauen und dann die Graka passend kaufen.

Die 4GB weniger Speicher machen beim Stromverbrauch kaum was aus. So lange NVidia da nicht noch den Takt der GPU drosselt o.Ä. lässt sich durch den kleineren Speicher keine nennenswerte Effizienzsteigerung erzielen.

Generell sind 12GB für eine 4080, die locker für hochwertiges 4K Gaming reichen wird, aber auf jeden Fall zu wenig. Ebenso sind 10GB für die 4070 zu wenig. Würde ich niemals kaufen zumal der Preisunterschied auch nicht besonders groß sein kann, es sei denn er wird künstlich größer gemacht als er sein dürfte.
 
Naja ich krebs hier mit meiner 1080 die ich anno Dez 2016 gekauft habe rum.
Bei 1440p ist selbst mit angepassten Einstellungen in vielen neueren Spielen keine 60 Fps mehr flüssig möglich.
Und langsam hat sie trotz Wasserkühlung, UV und 60 Fps limiter öfters Aussetzer.
Wollte zuerst Ampere hab aber durch diesen tollen Samsung Prozess die Finger weggelassen. Jetzt verschiebt sich der Release der 70 und 80 nach hinten und nun Knausern die auch noch mit Speicher. Während AMD mit der ersten Gen Multi Chip rumfummelt.
Das läuft bestimmt so gut wie die vorhersage vom Cache bei hohen Auflösungen bei der Momentanen Gen.
Zusätzlich wollte ich endlich mal in die Welt von RayTracing einsteigen.
Spiele die das können werden Immer günstiger und mehr.

Was soll ich denn sagen ich muss noch mit einer gtx780 arbeiten. Da habt ihr ja regelrechte Luxusprobleme. Schlimmer noch finde ich das ich mit dem ding nicht mehr ins uefi komme da zeigt die karte schlicht kein bild mehr an. Für eine neue sitze ich erstmal die aktuelle lage aus.
 
Mein erster Gedanke war nicht schon wieder so ein Mist...
Da blickt man ja bald gar nicht mehr durch...
NAJA wir auch immer... Ich hole mir sowieso definitiv die RX 7900 XT nach meiner jetzigen RX 6900 XT LC
 
Dann viel spaß beim teuer Einkaufen.
Kommt auf den Zeithorizont an.
Wenn ich ne 1200€-Karte mit viel vRAM kaufe und die 5-6 Jahre benutze ist das deutlich günstiger, als alle 2 Jahre ne 600€-Karte zu kaufen.

Betrachtet doch Hardware mal nicht nur nach Preis und Leistung sondern auch nach Nutzungszeit.
Ich kaufe jetzt seit übertrieben gesagt Jahrzehnten vergleichsweise sauteure Hardware, also Oberhlasse oder HighEnd. HEDT-Plattforman, Titan-Karten, 5950X, 4K-TFTs, riesige SSDs, HD800-Kopfhörer+DAC usw..

All das wird finanziert durch das zurücklegen von 100€ pro Monat. Das ist weniger, als viele Leute für Kippen ausgeben, von anderen teuren Hobbys ganz zu schweigen. Der letzte Kauf war der 5950X im November 2020. Das ist 22 Monate her. Bedeutet ich habe 2200€ in der "Hardwarekasse" (es ist noch mehr da sie nach dem CPU-Kauf nicht leer war). Mit dauerhaft 100€/Monat hat man in der heutigen Zeit fast schon Mühe, das ganze Geld sinnvoll in Hardware zu investieren (also ohne das Geld für überteuerten Kram rauszuwerfen).

Dass das nicht jeder so machen kann (grade wenn jetzt Energie und Inflation durchdrehen) ist natürlich lar, es geht nur darum zu zeigen, dass Hardware gegenüber anderen Ausgaben selbst im HighEnd nicht so extrem teuer ist. Mit dem, was ich an Heiz- und Stromkosten pro Jahr zahle kannsten ganzes Regal an schnellen Grafikkarten kaufen. :ka:
 
Mein erster Gedanke war nicht schon wieder so ein Mist...
Da blickt man ja bald gar nicht mehr durch...
naja wie auch immer... Ich hole mir sowieso und definitiv die RX 7900 XT nach meiner jetzigen RX 6900 XT LC
 
Lege mal noch nen 1000er drauf ?
Wenn hier 16GB als viel vRAM durchgehen - ne 6800XT kriegste schon für 750^^

Aber ja, kann man machen, aber ich mach eher die Erfahrung das der Chip eher schwächelt als das ich mich mit vollen VRAM herumärgeren müsste.
Ich habe beides erlebt - sogar die 12 GB meiner TitanXP vor über 6 Jahren wurden bei TombRaider in 4K tatsächlich knapp (ja, nicht nur voll sondern sogar mit seltenen Nachladerucklern), aber das ist natürlich die Ausnahme.

Der wesentliche Punkt ist: Wenn die GPU zu langsam wird kannste Details, Auflösung (/DLSS...), usw reduzieren, das ist oft ohne große Einbußen machbar. Beim vRAM geht praktisch nur Texturqualität was sofort hässlich wird - denn wenn der vRAM zu klein wird fallen die fps ja nicht von 90 auf 70 sondern von 90 auf 3 alle paar Sekunden.

Es ist aber heute lange nicht mehr so schlimm wie vor 10-15 Jahren. Damals haste mit ner "kleinen" Karte beim vRAM 2-3 Jahre später verloren gehabt (1,5 GB-GTX580 war gefühlt jahre vor der 3GB-Version unbenutzbar). Heute kannste mit ner 8GB-Karte was seit vielen Jahren in der Oberklasse Standard ist noch sehr gut leben.
 
Der wesentliche Punkt ist: Wenn die GPU zu langsam wird kannste Details, Auflösung (/DLSS...), usw reduzieren, das ist oft ohne große Einbußen machbar. Beim vRAM geht praktisch nur Texturqualität was sofort hässlich wird - denn wenn der vRAM zu klein wird fallen die fps ja nicht von 90 auf 70 sondern von 90 auf 3 alle paar Sekunden.
Das stimmt nur halb, die Auflösung zu reduzieren damit der Chip nicht "zu langsam" ist würde auch den VRAM Bedarf massiv senken. Genauso macht es DLSS, spart bei mir bereits auf Quality ~700MB ein. Wenn man Raytracing als "weniger Details" betrachtet dann spart man damit auch spürbar VRAM ein.
 
6800XT kriegste schon für 750^^
Aktuell vllt. paar Monate zurück, da musste mann noch mehr als 1000 Euro hinlegen und das ging ewig so.

Aber das kann sich schnell wiederholen.

Ich habe beides erlebt
Das hab ich auch aber das sind wie du selbst siehst Ausahmen. Und wegen 1-3 Games lege ich nicht doppelt soviel aufn Tisch.

Aber das kann jeder anders handhaben, wie ihn das besser gefällt.

Ich lege jedenfalls mein Geld für wichtigeres bereit, als nen Spielzeug zu kaufen, was mich zusätzlich noch schaden könnte...Sag nur 400 Watt :ugly:
 
Zurück