Eilmeldung: Nvidia stellt Geforce RTX 4090 und RTX 4080 mit 12 und 16 GB vor

Ach wie wurde ich für meine preislichen Schätzungen gegeiselt von einigen welche von Kapitalismus keine ahnung haben XD Das ist aber schon heftig. Ich bin hier bei den CPU GPU Bottleneck Tests gespannt. Selbst die neue Prozessorgeneration wird wird vermutlich nen krasses Bottleneck für die CPU in Spielen wie Total War Warhammer darstellen.... über den Verbrauch wurde da noch garnicht gesprochen. Prinzipiell aber brachiale Entwicklung für Enthusiasten mir passendem Geldbeutel.
 
Wer Bock drauf hat, soll zuschlagen. Wer nicht, der halt nicht.

Das macht Karten wie eine 3080 oder höher jetzt nicht obsolet.
Entspannt euch, der Gebrauchtmarkt wird für viele was dabei haben.
 
Da die ersten Korrekturen, ADA nur 50% schneller in Rasterperformance:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Auf die Balken bin ich auch schon gestolpert und das die RTX4080 12GB wohl hart an der RTX3090 zu knabbern hat.

Raytracing, DLSS und co sind toll keine Frage aber die Grundleistung ohne diese ganzen Möglichkeiten sollten auch stimmen. Ansonsten ist das verschwendete DIE Fläche in meinen Augen.

Mal sehen was die Tests dann zeigen.
Gerade weil die RTX4080 16GB ggü der RTX4090 spürbar langsamer rechnen sollte / müsste.
 
Eigentlich sind sie genau das. Wenn du auch noch in 8 Jahren aktuelle Treiber haben willst, dann kauf dir eine Nvidia, bei AMD kann es passieren, dass du nach 5 Jahren ohne dastehst. Wenn man die Treiber hackt, dann kommt man sogar auf deutlich über 10 Jahre. Aber es gibt keine Garantie, dafür das Nvidia sowas in 10 Jahren nicht, wie AMD es heute schon macht, verhindert.
Ach, gibt es DLSS neuerdings auch für Pascal und Co.?
Ich sprach von Performance/Features für ältere Gens. Was die Langlebigkeit angeht ist Nvidia beim Treibersupport in der Tat vorbildlich und besser als AMD. Aber nicht unbedingt bei Optimierungen.
Sobald sie eine neue Generation draußen haben werden vorangegangene eher stiefmütterlich behandelt sofern es um Leistungstweaks geht. Oder warum legten die letzten paar Gens AMD Karten im Vergleich über die Jahre immer etwas zu?

Ansonsten: Win10 Treiber kriegst du bei AMD bis hinunter zur HD 5000er Serie (2009) mit Datum 3/1/2016
Win 11 bis zur Radeon 400 (2016), letztes Update 8/22/2022. Die 7970er (2012) eines Kollegen hat ihr letztes Update diesen Juni bekommen.
 
Manchmal sind die Jungs&Mädels bei LTT doch auf Zack,
unnamed.png
 
Gab's ja sogar schon für 480 auf Amazon und für den Rest kann man sich noch einen tollen TV kaufen ? , PC gaming im highend Bereich gibt es doch eh nur 2-3 interessante Spiele welche dann wirklich die GPU nutzen. Seit paar Jahren schon bin ich auch vom 100% PC Gamer zum 70% Konsolen Spieler geworden, alle paar Jahre eine Konsole kaufen und das Game starten ohne nachzudenken.

So wird es bei mir auch werden. Ich hab mir vor Kurzem ne 6700 XT für knapp 450€ geschossen und in 1440p laufen (95%) der AAA Games alle mit 80+ FPS auf Ultra. Zudem wurden etliche Games verschoben und auf die die ich wirklich warte wie Diablo IV (oder Dragon Age 4, Mass Effect, Hogwarts etc) werden sicher keine 4090/80 benötigen für maximale Grafik.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Heiße Luftpumpe genau wie Ampere. Watn Müll?
 
Werden niemals im Schnitt 2x Leistung werden, von 4x ganz zu schweigen.
Der 5800X3D schwankt auch stark beim Leistungszuwachs und trotzdem wurde er für 500€ gefeiert, als gäbe es kein Morgen.
Wir wissen halt nicht, ob die GPU dort limitierte oder vielleicht die CPU?
Abgesehen davon schrieb Nvidia auch nirgends, dass es im Schnitt über alle existierenden Spiele die 2x Leistung wäre.
Passend zur "rechten Zeit" erschienener Leak:

AMD scheint da viel Wind aus den Segeln nehmen zu wollen
RedGamingTech ist keine valide Quelle.
 
Nur ob man darüber noch lachen kann weiß ich nicht so wirklich....
Ich mein der Preis fürs Topmodell, geschenkt wer sich das holt der hat ne dicke Brieftasche. Da seh ich nicht mal das Problem, aber der Preis der 80er und Baby 80er ist schon mehr als dreist.
Die Nummer mit DLSS 3.0 nur auf ADA ist dann noch die Sahnehaube um die Kunden zu debütieren. NV kann sich wirklich alles erlauben, unglaublich.
Uns Kunden steht es doch frei da mitzumachen. Oder eben auch nicht! Bin mit meiner RTX 3080 noch gut dabei, da kann ich Ada getrost auslassen. Zudem, diese Preise/Verbrauchsentwicklung gefällt mir überhaupt nicht. Ich bin gespannt, was für Scalperpreise der Händler uns dieses mal wieder erwarten:rolleyes:

Preise dich ich locker zahlen könnte, aber nicht will. Irgendwann ist schluss mit lustig...

Gruß
 
Eieiei was bin ich verbal im Forum verdroschen worden als ich vor nem halben Jahr orakelt habe ne 4090 könnte tatsächlich doppelt so schnell wie ne 3090 werden und die Karten werden SEHR viel teurer werden.
Wie war das...

Und jetzt?
4090 = 3090 -Performance x2 und
1500€ für ne 4080er

Palimpalöm.
Naja, was kann Nvidia für den schwachen Euro? Ada ist $100 teurer als Ampere. Dank des schwachen Euros, wirds für uns natürlich wesentlich teurer oder hat irgendeinen wirklich gedacht, dass Nvidia sagt: "Wir bieten die in Deutschland günstiger an machen möglicherweise sogar Verlust, nur damit die PCGH Forenmitglieder zufrieden sind"?

weil er 150€ günstiger als ein 12900K bzw. 300€ als der 12900KS SE ist.
Hat halt trotzdem nur 8-Kerne, stinkt in Anwendungen ab und in Spielen schwankt die Leistung stark. Manche Spiele profitieren ordentlich und andere wiederum gar nicht. ADL hingegen ist ein Allrounder.
 
Immerhin hat nVidia die Logik mancher Käufer aufgegriffen und umgesetzt, indem die doppelte Leistung den doppelten Preis rechtfertigt. *Sarkasmus off*

Aber die irren Preise, die die letzten zwei Jahre gezahlt wurden, scheinen die Hersteller nur weiter bekräftigt zu haben.

Hoffen wir, dass AMD den Spielverderber gibt und auf den Boden der Tatsachen zurückkehrt und sich durch gute Preise Marktanteile sichert.
 
Der 5800X3D schwankt auch stark beim Leistungszuwachs und trotzdem wurde er für 500€ gefeiert, als gäbe es kein Morgen.
Wir wissen halt nicht, ob die GPU dort limitierte oder vielleicht die CPU?
Abgesehen davon schrieb Nvidia auch nirgends, dass es im Schnitt über alle existierenden Spiele die 2x Leistung wäre.

RedGamingTech ist keine valide Quelle.
1663710929966.png


Schwer zu erkennen, aber da hat eher nicht die CPU limitiert. 4K Setting, i9 12900K. Allerdings muss man dazu sagen dass die Spiele links eben "alt" sind. Alte Engines, kein DLSS (bis auf AC Valhalla). Also rohe Rasterleistung legt wohl "nur" um 50-100% zu im 3090ti - 4090 Vergleich. Was ich immernoch beeindruckend finde...

Wenn DLSS dazu kommt geht's halt richtig ab, und da ziehen auch die Vergleiche voll da es ja auch auf der 3090ti eingeschaltet ist. In RT Games startet dann die Rakete endgültig und hebt ab, CP2077 +300% mit noch höheren RT Settings, wtf...
 
Zurück