Geforce RTX 4080 im Geekbench: Knapp schneller als die RTX 3090 Ti

Das Board dürfte kaum teurer sein. Sie haben ungefähr gleiche Bedingungen dafür - bis auf die RAM Chips.
Durch den einen 12 Pin Anschluss ist das Boarddesign sogar noch einfacher, als mit 2-3x 8 Pin Stecker.
Beim Kühler sind sie selbst Schuld.. sie haben auf 600W hin entwickelt und brauchten einen entsprechenden Kühler. Dass sie erst NACH der Herstellung der Werkzeuge für die Kühler bemerkten, dass die Karte auch bei deutlich weniger Stromaufnahme viel Leistung bringt, ist dann eher auf schlechtes Projektmanagement zurückzuführen.
Glaube ich nicht, Nvidia braucht wohl seit Ampere ein kostenintensives Backdrill Verfahren, wegen GDDR6X.

Das mit den Kühlern ist echt ne seltsame Sache...
 
Glaube ich nicht, Nvidia braucht wohl seit Ampere ein kostenintensives Backdrill Verfahren, wegen GDDR6X.

Dabei ist "deutlich teurer" für Backdrill allerdings relativ zu sehen. Es macht in der großen Masse sehr viel aus, pro Platine allerdings ein paar $. Dadurch wird der Preis nicht vervielfacht.
 
Das die Mittelklasse die Oberklasse wegballert das ist schon seit Jahrzehnten vergangenheit. Hach waren das noch zeiten als die Unterklasse der neuen Gen die Oberklasse der Vorhergehenden Gen regelrecht eingestampft hat. Da gabs noch Leistungszuwächse im Faktor 3.
 
Hhhmm...ist natürlich alles andere als Offiziell, aber wenn das stimmt...ist das Teil wirklich schwach wie ich finde. Wo liegt denn erst die 4080 / 4070Ti mit 12GB?

Die 4080 ist auch zu schwach für das, was sie kostet. Knapp vor einer 3090ti, diese ist aber schon unter 1400 Euro als Custom Modell zu haben und hat 8GB mehr Speicher. Die Customs der 4080 bewegen sich hingegen im Bereich 1700-2000 Euro. Und der fehlende DLSS 3 Support ist mit einer 3090ti einfach nur egal, da reicht DLSS 2 vollkommen aus, wenn man es überhaupt braucht...
 
Die 4080 ist auch zu schwach für das, was sie kostet. Knapp vor einer 3090ti, diese ist aber schon unter 1400 Euro als Custom Modell zu haben und hat 8GB mehr Speicher. Die Customs der 4080 bewegen sich hingegen im Bereich 1700-2000 Euro. Und der fehlende DLSS 3 Support ist mit einer 3090ti einfach nur egal, da reicht DLSS 2 vollkommen aus, wenn man es überhaupt braucht...

Na die 3090Ti gab es bereits für 1200€.

Sollte die 4080 nur annähernd 1700€ kosten glaube ich wird Nvidia einen absoluten Dämpfer bekommen wobei es ja nicht Nvidia selber sondern die Händler sind die selbst mit aufschlagen. Ich kann mich an das Geweine noch erinnern dass die Karte nicht verkauft werden die man aus Gier gekauft hat, dann war der Miningboom sowie auch "die Scalperei" vorbei.

Lasst uns abwarten, aber ne 4080 für 1700€ zu kaufen macht 0 Sinn, dann lieber die 4090 als FE für 1949€.
 
Nicht ganz richtig.
Denn seit Nvidia SLI nutzt, ist es schon so, dass beide (bzw. 3 oder 4) Grafikkarten die gleichen Informationen im Speicher haben müssen und sich der Gesamtspeicher nicht vermehrt - steht so auch in jedem SLI Test seit Übernahme von 3Dfx durch Nvidia, da eigentlich nur 3DFX SLI für Halbbildberechnungen nutzte.
[...]
War das nicht, was ich geschrieben hatte?

Und ich dachte eher, dass die Frametimevarianzen/Mikroruckler der Grund waren, für Games nicht mehr auf Multi-GPU (ob nun auf einer Platine oder per Brücke in einem PC) zu setzen.
 
Nach bisherigen Infos ist bei RDNA3 aktuell (mutmaßlich wegen eines Designfehlers in Hardware der erst im Refreshchip behoben werden kann) bei allerspätestens 2,9 GHz Schluss und zwar völlig egal wie viel Spannung, Leistung, etc. erlaubt wird.

Ursprünglich waren wohl über 3 GHz ab Werk angepeilt und damit direkte Konkurrenz zur 4090 (daher auch der Name 7900), den Boardpartnern wurde "easily over 3 Ghz" gesagt und das Betabios geht bis 3,7 Ghz max.
Daraus wurde am Ende dann nichts und man verkauft praktisch ne 7800 als 7900.
Meh. Nenn mich langweilig, aber mir ist ein 4080 Konkurrent mit halbwegs vernüftigem Preisschild (lol 1000€), Leistungsaufnahme und Kühlerdimensionen lieber als ein 4090 Konkurrent - inklusive 600W Leistungsaufnahme und 4 Slot Kühler.
 
Meh. Nenn mich langweilig, aber mir ist ein 4080 Konkurrent mit halbwegs vernüftigem Preisschild (lol 1000€), Leistungsaufnahme und Kühlerdimensionen lieber als ein 4090 Konkurrent - inklusive 600W Leistungsaufnahme und 4 Slot Kühler.
Ich hätte gern beides gesehen - eine 7900XT auf RTX4090 Niveau und eine 7800XT für die RTX4080.
Aktuell ist halt ziemliches Chaos.
- Eine RTX4080 die wahrscheinlich viel zu langsam für den Namen ist (neue 80er nur auf alter 90er Niveau)
- Eine andere RTX4080 die eigentlich ne 4070 ist (und wohl auch als solche kommt) und eigentlich auch zu langsam dafür ist
- Eine RTX4090 die unangreifbar schnell und daher beliebig teuer ist - und gelegentlich rumschmort
- Eine 7900XTX die die 4090er angreifen sollte, es aber nicht schafft und stattdessen gegen die 4080 antreten muss
- Eine 7800XT die kaum am Horizont sichtbar ist

...all das in Preisregionen die von Normalität für größeres Publikum (= unter 500€) Welten entfernt sind.

Ich finde das alles zwar rein technisch spannend aber ansonsten völlig "kaputt". :ka:


Ganz ehrlich, wenn ich jetzt eine Kaufentscheidung treffen müsste würde ich meine 2080 verkaufen, eine RTX4090 kaufen, die auf <= 300W einstellen und (wieder) mindestens 4-5 Jahre laufen lassen.
 
War das nicht, was ich geschrieben hatte?

Und ich dachte eher, dass die Frametimevarianzen/Mikroruckler der Grund waren, für Games nicht mehr auf Multi-GPU (ob nun auf einer Platine oder per Brücke in einem PC) zu setzen.
Ich hab deinen Text so verstanden, dass SLI wegen mangelnder Bandbreite zwischen den Karten die Bildinformationen in beiden Karten RAMs halten musste.
Allerdings hätte man schon eine PCIe 6 Bandbreite gebraucht, um die Daten fürs abwechselnde berechnen der Bilder in nur einer Karte zu halten.
Man hätte es durchaus so machen können, dass beide Karten unterschiedliche Daten haben - wenn Nvidia es wie 3DFX gemacht hätte - SLI als Interleave Verfahren (Eine Karte berechnet die geraden, eine die ungeraden Zeilen eines Bildes) behalten und dafür mehr Tearing in Kauf nehmen.
Dann würde sogar noch temporales AA funktionieren, wenn ich mich recht erinnere.

Allerdings war das eh immer schon ein extremer Nischenmarkt bei den Selbstbauern.
Irgendwann hat es sich für AMD und Nvidia schlicht nicht mehr gelohnt, da noch Arbeit reinzustecken.
 
gabs noch Leistungszuwächse im Faktor 3.
Wann soll das denn gewesen sein? Bin schon lange dabei, eigentlich seit der Vodoo 1 und an eine Verdreifachung kann ich mich nicht so Recht entsinnen! Selbst dort gab es in meiner Erinnerung keine solche Sprünge, mit der Ausnahme von Sli Verbänden ala V5 6000 oder so! Aber Single Chip zu Single Chip waren selbst Verdoppelungen nicht gerade anmder Tagesordnung.

Man hätte es durchaus so machen können, dass beide Karten unterschiedliche Daten haben - wenn Nvidia es wie 3DFX gemacht hätte - SLI als Interleave Verfahren (Eine Karte berechnet die geraden, eine die ungeraden Zeilen eines Bildes) behalten und dafür mehr Tearing in Kauf nehmen.
Ist aktuell keine Option mehr, zu Zeiten des 3dfx Slis waren die Konstellationen ganz andere und solche Berechnungen denkbar, heute schon lange nicht mehr. Die GPU braucht vereinfacht gesagt die Infos des vorherigen Bildes.
 
Natürlich, jeder neutrale Mensch trennt das auf! Nur nicht neutrale trennen nicht.
Der Gamer baut die Grafikkarte ein und stellt dann die Regler nach rechts, wie bei jedem anderen Grafikeffekt auch.
Egal ob das RT, ambient occlusion, downsampling, Kantenglättung, Tesselation, DLSS/FSR low/mid/high/ultra, höhere Textursettings Dirext12/11 oder schießmichtot heißt.

RT wird dann im Grafikmenü schlichtweg nur noch unter Ultra laufen und nicht explizit erwähnt.
Was bringt mir eine teurere und in meinen Szenarien langsamere Karte?
Das Szenario heißt ja "ultra" und nicht RT on oder RT off.
Diese Frage stellt sich ja dann gar nicht mehr.
Die Entscheidung muss jeder für sich treffen, ich habe aktuell ein einziges Spiel mit RT in der Playlist, dagegen 20 Spiele ohne!
Das ist schon ein Kunststück, da so gut wie jeder moderne Titel mit Strahlentechnologie erscheint.
Dazu kaufe ich spätestens alle 2 Gens eine neue Karte und sehe für mich aktuell keinen Sinn in RT Leistung zu investieren.
Eben genau wenn du nur alle 2 Generationen eine neue Karte kaufst, lohnt sich das.
Oder wie performt die RX 5700XT so mit indirekter Beleuchtung in ? Ach man kann es gar nicht nutzen.
Selbiges wird mit der zweiten RDNA Gen passieren. Die 6900XT wird auf lange Sicht hinter einer 3080 zurückbleiben, es sei denn deren V-ram geht zur Neige. Allerdings kann man dann auch noch die Textursettings eine Stufe runterstellen.
 
Zuletzt bearbeitet:
Ganz ehrlich, wenn ich jetzt eine Kaufentscheidung treffen müsste würde ich meine 2080 verkaufen, eine RTX4090 kaufen, die auf <= 300W einstellen und (wieder) mindestens 4-5 Jahre laufen lassen.
Klar, das ist eine Option. Aber ich habe ehrlich gesagt keine Lust 2000€ für eine GPU auszugeben, nur um sie dann auf 300W zu beschränken und einen neuen Kühler draufzuschnallen damit das Monster nicht drei Slots im Gehäuse blockiert. Und da fange ich noch nichtmal mit der uralten DP Version der Karte an, was die Zukunftssicherheit der Karte in näherer Zukunft deutlich einschränken könnte.

Da kaufe ich mir lieber jetzt eine GPU in der <1000€ Klasse, und rüste dann in drei Jahren nochmal auf. Oder halt auch nicht, je nachdem was es dann so am Markt gibt.
Eben genau wenn du nur alle 2 Generationen eine neue Karte kaufst, lohnt sich das.
Oder wie performt die RX 5700XT so mit indirekter Beleuchtung in ? Ach man kann es gar nicht nutzen.
Selbiges wird mit der zweiten RDNA Gen passieren. Die 6900XT wird auf lange Sicht hinter einer 3080 zurückbleiben.
Kommt drauf an. Bis dato sind GPUs mit deutlich weniger Grafikspeicher immer schlechter gealtert als solche die am Anfang etwas überdimensioniert waren. Daher ist meine Vorhersage eher, dass man auf der 3080 irgendwann in den Genuss von Powerpoint kommt wenn man die Details zu weit hochdreht, weil die Karte in den Systemspeicher swappen muss.
 
Das ist schon ein Kunststück, da so gut wie jeder moderne Titel mit Strahlentechnologie erscheint.
Die Hersteller haben ein gutes ROI zusammen mit den Entwicklern. Das Marketing der jeweiligen Hersteller schmiert dem Konsumenten auch eine Menge Honig ums Maul, damit dieser auch die Produkte mit diesen angepriesenen Features auch kauft. Ob es für den jeweiligen Endverbraucher sinnvoll ist sich einen Klopper für 2k € in sein Gehäuse zu stecken oder nicht ist jedem selbst überlassen.

Ich für meinen Teil werde zur 7900XTX greifen obwohl das Geld für eine 4090 vorhanden ist. Mir persönlich ist bei einem Verkauf nach ein paar Jahren einfach das Geld zu schade, dass im wahrsten sinne wirklich verbrannt wird. In zwei Jahren ist die Karte bestimmt nicht mal mehr die Hälfte wert.
 
Na die 3090Ti gab es bereits für 1200€.

Sollte die 4080 nur annähernd 1700€ kosten glaube ich wird Nvidia einen absoluten Dämpfer bekommen wobei es ja nicht Nvidia selber sondern die Händler sind die selbst mit aufschlagen. Ich kann mich an das Geweine noch erinnern dass die Karte nicht verkauft werden die man aus Gier gekauft hat, dann war der Miningboom sowie auch "die Scalperei" vorbei.

Lasst uns abwarten, aber ne 4080 für 1700€ zu kaufen macht 0 Sinn, dann lieber die 4090 als FE für 1949€.

Es wurden doch schon Preise der 4080 Custom Modelle geleakt. Das bewegte sich im Rahmen 1700-2000 Euro für halbwegs gute Modelle.
 
Aber kann man es den Leuten verübeln?

Seit nunmehr zwei Generationen wird und wurde RT hier im Forum massiv angepriesen, wirklich sinnvoll ist es erst seit DLSS 2.3 da ist, vorher war es eben ob NV oder AMD nicht nutzbar. Mit der 4090 ändert sich das in meinen Augen. Daher kann ich schon den einen oder anderen verstehen (sehe es ja im Grundsatz selber so), der RT (nich) nichts abgewinnen kann. Letztlich wird hier auch sehr viel auf ein Spiel, in deren Umsetzung RT wirklich mal gut ist, abgestellt ist, als zweites Argument kommt dann, dass es schon 200 Spiele gibt und alle Triple A (MWII?) Spiele damit kommen. Dabei wird immer wieder vergessen, dass von den 200 Spielen die es geben mag, 95% für die allermeisten User uninteressant sind, 90% eine nicht wirklich gelungene Umsetzung von RT bieten und 50% auch mit bisheriger Hardware nicht wirklich gut liefen! Bleiben am Ende vieleicht 10 Spiele übrig die im Kontingent sind, wo es sich lohnen würde über RT nachzudenken.

Ja, ich stehe der Technik noch sehr skeptisch gegenüber und fühle mich teilweise an die wilden 3D Hypezeiten erinnert! Oder PhysX war auch mal so eine Erfindung, die sich letztlich zwar durchgesetzt hat, aber eben nie so wie man es erwartet hat. Ja, RT wird sich durchsetzen, aber wenn es ähnlich PhysX läuft (wo Verrückte wie ich sich extra eine zweite GPU gekauft haben, die nur die PhysX Effekte berechnen sollte) wird sich das ganze erst durchsetzen, wenn es im Mainstream möglich ist und da sind bei solchen Preisen wie aktuell, bald eher Karten eie eine 4030 / 7300 zu erwarten.

P.S.
Ich habe erst zwei Spiele gespielt, in denen ich RT richtig gut fand, CB2077 und Dying Light. In allen anderen Spielen (bspw. F1 2021) bemerke ich es einfach nicht und empfinde den Performanceverlust in keiner Relation zum Grafikgewinn (gut, bin ja auch AMD User aktuell und daher mehr betroffen). Aber am Beispiel Dying Light möchte ich noch hinzufügen, dass eine 3090 (non TI) mir nicht ausreichen würde um zu spielen. DLSS ist dort eine Katastrophe und "schmiert" wie Sau, ohne DLSS und mit RT MAX ist es aber schon nahezu unspielbar (meine im Kopf zu haben, dass es damals die Percentils waren und gar nicht die AverageFPS; war aber nicht mein Rechner und ich hab mir das nur mal angeschaut, weil der Kollege schon dachte, sein Monitor wäre hin)
Ja, natürlich kann man es den Leuten verübeln.
RT wurde hier nie im Forum angepriesen. Es wurde verteidigt, gegenüber dem als Nichtigkeit abtun. So ist meine Wahrnehmung dazu.

Auch finde ich nicht, das es erst seit DLSS2.3 nutzbar ist. Für mich ist es wie bei allen technischen Weiterentwicklungen bei Grafikkarten.

Umgebungsverdeckung, oder Tessellation waren anfangs auch extrem hungrig für den optischen Nutzen. Das ist nunmal so.

Ich selber habe gespielt und war positiv von der Optik angetan, durch RT Metro Exodus, Deathloop, Guardians of the Galaxy, Cyberpunk, Dying Light 2, CoD MW...

Meine Sichtweise ist weit weniger negativer, genau wie damals bei anderen Neuerungen.

RT muss sich nicht durchsetzen, da sich schon längst die Hersteller einig sind, das es die Zukunft ist (auch die Softies). Wenn ich sehe, wie gut eine 3060TI, oder 3070 in 1080p schon RT kann (oder besser gesagt gut genug) dann sollte das mit der kommenden Gen RTX4000 und RX7000 schlussendlich in der Masse ankommen. Ich rede jetzt nicht von den uralten Gurken.
Nicht ganz richtig.
Denn seit Nvidia SLI nutzt, ist es schon so, dass beide (bzw. 3 oder 4) Grafikkarten die gleichen Informationen im Speicher haben müssen und sich der Gesamtspeicher nicht vermehrt - steht so auch in jedem SLI Test seit Übernahme von 3Dfx durch Nvidia, da eigentlich nur 3DFX SLI für Halbbildberechnungen nutzte.

SLI und Crossfire sind gestorben, weil temporale AA Methoden eine abwechselnde Bildberechnung durch 2 Grafikkarten unmöglich machen.
Immerhin brauchen diese AA Methoden die Inflormationen aus den älteren Bildern, um AA im neuen Bild zu schaffen.
Bei SLI (und Crossfire) Karten fehlt genau das vorhergehende Bild und damit die Chance, temporale AA Methoden zu nutzen

Das Board dürfte kaum teurer sein. Sie haben ungefähr gleiche Bedingungen dafür - bis auf die RAM Chips.
Durch den einen 12 Pin Anschluss ist das Boarddesign sogar noch einfacher, als mit 2-3x 8 Pin Stecker.
Beim Kühler sind sie selbst Schuld.. sie haben auf 600W hin entwickelt und brauchten einen entsprechenden Kühler. Dass sie erst NACH der Herstellung der Werkzeuge für die Kühler bemerkten, dass die Karte auch bei deutlich weniger Stromaufnahme viel Leistung bringt, ist dann eher auf schlechtes Projektmanagement zurückzuführen.
Ist SLI nicht gestorben, weil zu wenig interesse bestand, wenn der Balken sich nicht annährend verdoppelt ;)

SLI wie wir drüber reden ist der AFR Modus, in denen genau wie du sagst jede Karte abwechselnd Bilder rechnet und damit die Probleme mit dem temporalen AA´s hat.

SLI bietet aber auch die Möglichkeit (SFR) mehrere GPUs an einem Bild rechnen zu lassen. SFR hat aber den Benchmarkbalken nur um 30-60% verlängert, gegenüber 50-90% bei AFR.

Ungeachtet dessen, das die Spielbarkeit so eigentlich beim SFR sogar besser war, als beim AFR weil die Frametimes gleichmäßiger waren und das trotz deutlich geringerer Fps. Das ist aber nie beim Kunden angekommen. Der hat nur gesehen, Balken kürzer = schlecht.

Aus heutiger Sicht, gibt es wenig gute Gründe für mGPU. Da mGPU mit der selben Rohleistung immer etwas langsamer bleibt, als in einer GPU. Es gibt zu wenig Leute die sich zwei RTX4090 in den Rechner pappen würden.
Auch da würden sich 10-30 Kunden finden lassen in DE ;) (auch wohl 100-200) Aber das reicht nicht, um das sich ein Hersteller da nochmal ran macht.
Ich hätte gern beides gesehen - eine 7900XT auf RTX4090 Niveau und eine 7800XT für die RTX4080.
Aktuell ist halt ziemliches Chaos.
- Eine RTX4080 die wahrscheinlich viel zu langsam für den Namen ist (neue 80er nur auf alter 90er Niveau)
- Eine andere RTX4080 die eigentlich ne 4070 ist (und wohl auch als solche kommt) und eigentlich auch zu langsam dafür ist
- Eine RTX4090 die unangreifbar schnell und daher beliebig teuer ist - und gelegentlich rumschmort
- Eine 7900XTX die die 4090er angreifen sollte, es aber nicht schafft und stattdessen gegen die 4080 antreten muss
- Eine 7800XT die kaum am Horizont sichtbar ist

...all das in Preisregionen die von Normalität für größeres Publikum (= unter 500€) Welten entfernt sind.

Ich finde das alles zwar rein technisch spannend aber ansonsten völlig "kaputt". :ka:


Ganz ehrlich, wenn ich jetzt eine Kaufentscheidung treffen müsste würde ich meine 2080 verkaufen, eine RTX4090 kaufen, die auf <= 300W einstellen und (wieder) mindestens 4-5 Jahre laufen lassen.
Das zeichnet die Probleme schon sehr gut ab ;) Jedoch wenn ich eine Kaufentscheidung treffen müsste, dann würde ich um 500€ das beste P/L Verhältnis für meine Ansprüche (Auflösung, Speicher, RT, oder was auch immer) suchen und kaufen. Danach abwarten, bis es wieder etwas mit mindestens 30%, oder mehr schneller ist, mehr Speicher hat, eine höhere RT Leistung bietet und das für wieder um 500€.

Nennt mich gerne Low End zocker, oder so. Aber mir ist erstens, jeder Preis über UVP eine Frechheit und zweitens, eine GPU nicht so viel Wert. Bei der 3080 zu Release, zur UVP hätte ich mit 699€ eine Ausnahme gemacht...
 
Zuletzt bearbeitet:

Danke, den Wahrheitsgehalt vorausgesetzt, dass das so kommt ist es einfach für derartige Karten lächerlich. Ja meine 4090 war auch hart teuer aber ist auch die Speerspitze und für mich hat es sich gelohnt. Die Karten darunter vor allem jetzt hier durch deine Links sind Maßlos übertrieben. Ich habe auch erst vor wenigen tagen nen Kumpel eine 6900XT empfohlen die er für 649€ ergattern konnte. Er wollte nicht warten und sein Budget hat kaum mehr hergegeben. Das nenne ich einen krassen Preis.

Na mal sehen...woe das noch hinführt.
 
Nennt mich gerne Low End zocker, oder so. Aber mir ist erstens, jeder Preis über UVP eine Frechheit und zweitens, eine GPU nicht so viel Wert. Bei der 3080 zu Release, zur UVP hätte ich mit 699€ eine Ausnahme gemacht...
Das kann und soll ja jeder für sich entscheiden. Ob man eine Grafikkarte für 500 oder 1500+€ kauft ist ja am Ende auch oft nicht nur davon abhängig was man will bzw für gerechtfertigt hält sondern was finanziell machbar ist und was nicht.
Ich bin in der glücklichen Lage, dass die Anschaffung einer 4090 machbar wäre ohne dass ich Angst haben muss kein Geld mehr für Essen und Heizung zu haben - trotzdem werde ich sie für keine Ahnung 2400€ oder was das Ding grade kostet sicher nicht kaufen.
 
Danke, den Wahrheitsgehalt vorausgesetzt, dass das so kommt ist es einfach für derartige Karten lächerlich. Ja meine 4090 war auch hart teuer aber ist auch die Speerspitze und für mich hat es sich gelohnt. Die Karten darunter vor allem jetzt hier durch deine Links sind Maßlos übertrieben. Ich habe auch erst vor wenigen tagen nen Kumpel eine 6900XT empfohlen die er für 649€ ergattern konnte. Er wollte nicht warten und sein Budget hat kaum mehr hergegeben. Das nenne ich einen krassen Preis.

Na mal sehen...woe das noch hinführt.

Naja, die Founders hat eine UVP von 1.469 Euro. Es ist ja üblich, dass gute Custom Modelle ein gutes Eckchen teurer sind, aber Preise knapp unter 2000 Euro (also 500 Euro über UVP der Founders) sind schon mehr als frech. Das lässt sich auch mit dem besten Customdesign / Garantie usw. nicht rechtfertigen.

Die 6900XT ist Stand heute der mit Abstand beste Deal, wenn man eine performante GPU kaufen möchte. Verglichen mit dem, was man z.Zt. bei NVidia geboten bekommt, ist die Karte für 650 Euro schon fast geschenkt.

Brauche selbst dringend eine neue GPU, dümpel noch mit ner 2060S in WQHD rum und liebäugel auch mit der 6900XT obwohl ich immer totaler NVidia Jünger war. Das einzige, was mich bisher vom Kauf abgehalten hat ist die eher maue Raytracing Performance.

In dem Preisbereich um die 700 Euro ist bei mir auch Schluss. Ich bin nicht bereit deutlich über 1000 Euro für eine GPU auszugeben, auch wenn ich es locker könnte. Hab noch die Denke aus den 2000ern und 2010ern im Kopf, als man für 250-350 Euro ne super Mittelklasse und für 500-600 Euro ne mittlere Oberklasse GPU bekommen hat.
 
Zurück