News Wegen RX 7800 XT: Nvidia soll "sehr viele" RTX-4070-Super-GPUs produzieren lassen [Gerücht]

Einige hier sind schon echt Hobbylos den ganzen Tag wie kleine Kinder am Diskutieren...

Was trägt Dein Beitrag nun zum Thema bei? Hast Du Dir die Beiträge durchgelesen, wenn ja, warum? Oder bist Du einfach ins PCGH Forum um zu stänkern? Bist Du etwa "hobbylos"? Ist es kein Hobby ein "PC Enthusiast" zu sein? Fragen über Fragen....
 
komischerweise war der Verbrauch bei Ampere kein Problem für viele, auch hier auf dem Board und jetzt meint man bei Ada wieder dass es gegenüber RDNA3 eines wäre,

wobei der Verbrauch der 4070Ti sowie der 4080 gar nicht soweit auseinander liegt zur 7900XT/X, aber die 4070 gegenüber der 7800XT reißt es dann wieder raus, einfach nur stumpfes Stammtischgehabe mehr nicht
Lehn dich nicht zu weit aus dem Fenster sonst wirst du als AMD Fanboy beschriehen das passiert hier bei einigen genau so schnell wie man bei dem Stromverbrauch bei Ampere weggucken konnte...
 
Ne vorm Pc sitzen würde ich jetzt nicht unbedingt als richtiges Hobby bezeichnen

Ist vor einer Angel sitzen ein Hobby? Oder ins Stadion gehen und ein Fussball Spiel anschauen? Deine "Definition" von Hobby scheint sehr speziell zu sein. Für mich ist ein Hobby etwas was man in seiner Freizeit gerne macht, egal um was es geht.
Lehn dich nicht zu weit aus dem Fenster sonst wirst du als AMD Fanboy beschriehen das passiert hier bei einigen genau so schnell wie man bei dem Stromverbrauch bei Ampere weggucken konnte...

Wieso soll man dann jetzt beim Stromverbrauch von RDNA3 wegschauen? Darum geht es ja... Der Ampere vs RDNA2 TDP Vergleich war ja sehr ähnlich...
 
Hier im Forum war DIE HÖLLE los weil Ampere 20-50 Watt mehr TDP hatte (bei vergleichbaren Karten) als RDNA2.
Wie immer war/ist das halt einseitige Betrachtung.
Im Raster war RDNA2 effizienter
1.jpg

Wenn Raytracing ins Spiel kam dreht sich das Blatt komplett
3.jpg

Nur wenn man bei AMD von MAX spricht kommt Raytracing ja nicht vor
 
Bislang halten sich die Klagen von 3080-Besitzern in Foren wie diesen wohl eher in ziemlich engen Grenzen.

...
Das ist kein Anhaltspunkt, dass dem nicht so wäre. Die wenigsten verkünden öffentlich, dass Sie Ihren Kauf bereuen. Im Gegenteil, die meisten reden Ihre eigenen Karten eher besser, damit sie sich nicht als "Fehlkäufer" outen.

Ist doch heutzutage eher so... Besitzer loben Ihre Karten in den Himmel und die anderen machen sie runter (mal platt gesagt).

Ich habe mich bewusst wegen des Speichers gegen eine 4070 und für einen 7800XT entschieden, weil es für meine Zwecke die bessere Karte ist (Simulation und Aufbau sind nicht RT-lastig). Ich würde aber auch keinem seine 4070 schlecht machen.
 
0,000001% aller Fälle = keine Relevanz. Niemand optimiert auf diesen Fall. Niemand kauft etwas nur für diesen Fall.
Starfield hat(te) eine achtstellige Spielerschaft. In deiner "Rechnung" mit deiner aus den Fingern gelutschten Zahl hat es aber wohl den denselben Stellenwert wie ein 2€-Steam-Spiel mit 20 Spielern. Keine weiteren Fragen, Euer Ehren.
Deine Aussage, dass die These "Nvidia macht schönere Bilder als AMD weil es 1(!!!!!!!!!!!!!!!) Spiel gibt, welches per Default mit Upscalern ausgestattet ist" korrekt ist, da es in Zukunft immer so sein wird ist sehr unwahrscheinlich, da 80% der Games auch heute keine Upscaler brauchen um mit 100+ FPS zu laufen.
Genau, weil die meisten Spiele es heute nicht benötigen, wird es in Zukunft auch nicht anders sein. Bestechende Logik. Wenn wir die überall anwenden würden, würden wir noch in Höhlen wohnen.
Die offensichtliche Entwicklung hat mit Starfield, Remnant 2 und vielen anderen Spielen schon begonnen. Wenn Nvidia mit seinen schlappen 80% Marktanteil sagt Upscaling wird Standard, dann ist das auch nur Glaskugel, nicht wahr? :ugly:
Die letzten Jahre ist ein Auflösungsslider in vielen AAA-Spielen am Start, und der ist öfter default unter 100%. Sogar ARK hat das 2015 schon gemacht. Jetzt wo sich DLSS/FSR/XESS immer mehr durchsetzen, werden Entwickler das sher wahrscheinlich auch immer öfter nutzen statt dem eigenen Upscaler.
 
Starfield hat(te) eine achtstellige Spielerschaft. In deiner "Rechnung" mit deiner aus den Fingern gelutschten Zahl hat es aber wohl den denselben Stellenwert wie ein 2€-Steam-Spiel mit 20 Spielern. Keine weiteren Fragen, Euer Ehren.
Auf Steam alleine gibt es über 50.000 Spiele. Das heißt, alleine nur auf Steam entspricht 1 Spiel ungefähr: 0,002%

Sag mir fix, welche Firma der Welt optimiert auf 0,002%? Wenn du die Firma gefunden hast, sag mir Bescheid, ich hab da noch ne Brücke, die ich loswerden muss.

Genau, weil die meisten Spiele es heute nicht benötigen, wird es in Zukunft auch nicht anders sein. Bestechende Logik. Wenn wir die überall anwenden würden, würden wir noch in Höhlen wohnen.
Lesen. Ich redete von der falschen Allgemeingültigkeit der Aussage. Sagen wir Ori 5 zum Beispiel. Das wird auch 2030 nicht per Default mit Upscaler gespielt werden (höchstwahrscheinlich). Starfield 6 natürlich schon.


Interessant, dass du von Höhlenbewohnern sprichst, aber dann die Aussage von mir, dass eine Zeit kommen wird, in der 24GB VRAM nicht mehr für FHD ausreichen werden für völlig hanebüchen und unrealistisch hältst.
Manchmal hab ich das Gefühl deine Nase hupt wenn man draufdrückt ;)
 
Auf Steam alleine gibt es über 50.000 Spiele. Das heißt, alleine nur auf Steam entspricht 1 Spiel ungefähr: 0,002%
Zum mittlerweile dritten Mal: Starfield ist kein Einzelfall. Und ein AAA-Spiel wie Starfield mit allen anderen Steam-Spielen zu vergleichen was Spielerzahlen/Verbreitung angeht oder den Optimierungswillen der GPU-Hersteller.. :lol: Das ist selbst für deine Verhältnisse erbärmlich.
Interessant, dass du von Höhlenbewohnern sprichst, aber dann die Aussage von mir, dass eine Zeit kommen wird, in der 24GB VRAM nicht mehr für FHD ausreichen werden für völlig hanebüchen und unrealistisch hältst.
Der Vergleich war Schwachsinn, denn Upscaling ist teilweise heute schon Standard und/oder Pflicht. 24GB VRAM für 1080p nicht. In keinem einzigen Spiel. Das es nie so kommen wird hab ich nie behauptet. Glatte Lüge. Aber nix neues bei dir.

Lass uns das beenden. Für dein Gesülze ist mir meine Zeit zu schade.
 
Ich habe nicht gesagt, dass auch nur einer der Punkte falsch bzw. nicht zutreffend ist.
(...) anderen Punkte mal mehr oder mal weniger zutreffend sind(...),
Entweder es trifft zu, oder nicht. Weniger zutreffend gibt es nicht. Aber du bist ja der Meister der Wortklaubereien.
Danach machst du ein klares ad Hominem, startest einen persönlichen Angriff und sagst auch wieder das sei ja gar nicht so, also ich weiß leider auch nicht was du von mir möchtest.
 
Wie immer war/ist das halt einseitige Betrachtung.

Nö, meine Aussage stimmt zu 100% und ist keine subjektive Betrachtung. Ampere hatte zwischen 20-50 Watt mehr TDP als die RDNA2 Pendants. In der Aussage steckt nur "TDP", keine Effizienz in irgendwelchen Szenarien. Darum ging es damals im Forum, und jetzt wo sich das Blatt gewendet hat, ist die "TDP" plötzlich egal und nicht mehr so wichtig. Das nervt mich...
 
komischerweise war der Verbrauch bei Ampere kein Problem für viele, auch hier auf dem Board und jetzt meint man bei Ada wieder dass es gegenüber RDNA3 eines wäre,
Kein Problem würde ich so nicht sagen; es hat halt nur die Leute in vielen Fällen nicht davon abgehalten, trotzdem zu einer Ampere-Nvidia zu greifen. Dass die Leute ohne diese Schwäche erst recht zu einer Ada-Nvidia greifen, ist ja nur folgerichtig.
 
So ist FSR 3 nicht "2 Stufen schlechter" als DLSS.
Natürlich ist es 2 Stufen schlechter. BQ und Bildruhe. Mach dir selbst Bild und Videovergleiche.
Es gibt bessere FSR Implementierungen, indem es nur eine Stufe ist, aber meistens sind es 2.
Balanced sieht besser aus als FSR Quality, quasi immer.
Nur scheint dir Effizienz bei GPUs ungemein wichtig zu sein, bei CPUs wiederum völlig unwichtig.
Was lediglich eine unsinnige Unterstellung darstellt, aber du kannst ja auch nicht "argumentieren".
Welche CPU hättest du denn genommen? Den 13900K mit der Plattform, oder den 7950X ohne X3D?=)
War der 7950X in Spielen effizienter? Nö.
Und das ist - wie ich bereits erwähnte - ironisch. Falls du das nicht siehst, ist das schade.
Achso, dann war das alles Ironie, obwohl das Argument ja richtig ist und es gar nicht um CPUs ging, sondern um GPUs. :lol:
Dann stimmst du ihm doch zu. Also wozu dann die Diskussion?
Aber "sehr bald =/= jetzt".
Bei den neuen Spielen ist FSR/DLSS die Standardeinstellung, bzw wird von den Spielern sowieso aktiviert, weil TAA zu nutzen unsinnig wäre was Aufwand/Nutzen angeht. Gut bei FSR kommt man häufiger nicht an Nativ ran, aber es ist viel besser als die Auflösung zu senken.
Sehr bald sind auch 24GB VRAM zuwenig für FullHD.
In etwa 10 Jahren, ja, vielleicht.
Jetzt natürlich noch nicht (außer man brute forced es) - aber es hat daher aktuell keine Relevanz.
In welchem Spiel bekommt man in Full HD die 24GB voll? Die Tatsache, dass du das mit der Verbreitung von FSR und DLSS vergleichst, impliziert ja einiges. Hast du überhaupt eine 4080?=)
 
Zuletzt bearbeitet:
Lehn dich nicht zu weit aus dem Fenster sonst wirst du als AMD Fanboy beschriehen das passiert hier bei einigen genau so schnell wie man bei dem Stromverbrauch bei Ampere weggucken konnte...
Naja, es gibt schon noch einen Unterschied zwischen weggucken und in Kauf nehmen.

Beim Kauf ist der Stromverbrauch ja nur einer von vielen Faktoren, und für die meisten auch ein eher nachrangiger.

In der Summe aller Faktoren abseits des Stromverbrauchs scheint die Mehrheit der Leute nun mal ziemlich klar Nvidia zu bevorzugen. Von daher ist es wenig überraschend, dass der Makel eines höheren Stromverbrauchs als die Konkurrenz, bei Nvidia eher in Kauf genommen wird, während er bei AMD eher zum endgültigen Deal Breaker wird, weil es dann in der Liste der Vorteile um den größeren VRAM ziemlich einsam wird. Hat aber nichts mit weggucken zu tun, sondern einfach nur mit der Gewichtung einer Vielzahl von Faktoren, die beim Kauf relevant sind.
 
Natürlich ist es 2 Stufen schlechter. BQ und Bildruhe. Mach dir selbst Bild und Videovergleiche.
Es gibt bessere FSR Implementierungen, indem es nur eine Stufe ist, aber meistens sind es 2.
Balanced sieht besser aus als FSR Quality, quasi immer.
Du könntest keine subjektivere Aussage treffen, selbst wenn du es versuchen würdest. Welche AMD GPU hast du denn für deine Vergleiche herangezogen?

Du und dein Buddy macht halt immer die gleichen Fehler. Ihr stellt eine Aussage in den Raum (in dem Fall von dir): "Die Bildqualität von Nvidia ist besser als die von AMD" > siehe eingefügtes Zitat.
Und bei AMD ist weder die BQ, der Stromverbrauch noch die RT Leistung "angemessen".
Dabei beziehst du dich für diese Aussage nicht auf Upscaling sondern behauptest es einfach so allgemeingültig. Dann spricht man euch darauf an und plötzlich kommen die hanebüchensten Aussagen.

Und zur Effizienz: Wer sich einen 14900K in den Rechner bastelt (und ihn dann noch übertaktet, was wie wir alle wissen, die Effizienz noch weiter runterzieht im Gegensatz zum undervolten), dem ist Effizienz egal. Und das ist ein valider Standpunkt, das meine ich Ernst und nicht negativ. Aber dann argumentiere nicht mit Effizienz bei anderen Bauteilen.

Das ist wie (um dein Autovergleich aufzugreifen) n Musclecar mit ~20l/100km Verbrauch zu fahren aber dann zu sagen: "Aber ich tanke ja nicht immer voll, sonst verbraucht der ja mehr wegen des hohen Gewichtes des Benzins im Tank".

In welchem Spiel bekommt man in Full HD die 24GB voll? Die Tatsache, dass du das mit der Verbreitung von FSR und DLSS vergleichst, impliziert ja einiges. Hast du überhaupt eine 4080?=)
Keine Ahnung, ich wollte nur @HisN vorbeugen, welcher (früher) gerne Mal Screenshots gepostet hat mit übergelaufenem VRAM wenn er irgendwo Sätze wie "XYZ VRAM kriegt man nicht voll" gelesen hat :ugly:

Nachtrag: Ich habe das in keiner Silbe mit der Verbreitung von FSR/DLSS verglichen, sondern mit der Verbreitung von Spielen, in denen eine native Auflösung wahlweise nicht auswählbar ist oder per Default ein Upscaler eingestellt ist. Und das war ein Beispiel, was dein Kumpel eingebracht hat. Aber das weißt du, nur du scheinst ganz gerne zu lügen :)

Und im Gegensatz zu dir hab ich mir meine Signatur nicht nur so hingewünscht sondern tatsächlich hochgeladen. Also ja, ich habe eine 4080. Ich weiß zwar nicht, was das ganze mit dem Thema zu tun hat, aber dir ist das ja scheinbar wichtig zu wissen.
 
Ja, ich habe weiterhin Spaß mit meiner 3080 10GB und keine Probleme. Ich zocke in WQHD, selbst CP2077 mit PT und DLSS Balanced reizt da nicht den VRAM aus und läuft bei 50-60 FPS. Kann das eine 6800XT auch? Ich denke nicht...
Gibt aber auch andere Spiele, mit denen man selbst in QHD und RT mit DLSS Quality etwas mehr als 10GB benötigt.
Man sieht es auch in den Tests, dass die 4070 12GB die 3080 10GB da abzieht.
Das man mit Reglern sicher beheben und dennoch RT nutzen.
Aber das volle Programm RT+FG(FSR3), max Settings usw. läuft nicht, obwohl die Karte genügend Leistung hätte und selbst DLSS Ultra Performance noch ganz gut ausschaut. Im Gegensatz zu FSR.
Vor 3 Jahren habe ich die 3080 gekauft, was war da los hier im Forum, "VRAM Krüppel", "nächstes Jahr wird da nix mehr laufen", etc etc. Nichts davon ist eingetroffen in meinem Fall.
Legacy läuft mit 10GB auf ultra wie ein Sack Nüsse, da braucht man eher ~ 11GB, es sei denn man benutzt Regler.
Hier im Forum war DIE HÖLLE los weil Ampere 20-50 Watt mehr TDP hatte (bei vergleichbaren Karten) als RDNA2. Und das ging einseitig und ausschließlich von Team Red aus.
Ampere war dennoch effizient, vor allem dann wenn RT mit reinkam. Selbst die 3090Ti kann heute noch mit einer 7900XTX mithalten.
Jetzt bei RDNA3 vs Ada ist das natürlich ALLES nicht mehr so wichtig. Schon witzig wie sich die Fähnchen im Wind drehen...
Die Fähnchen drehen sich nicht nur bei AMD Befürwortern, zumindest ist das mein Eindruck.
Du könntest keine subjektivere Aussage treffen, selbst wenn du es versuchen würdest. Welche AMD GPU hast du denn für deine Vergleiche herangezogen?
Schau doch einfach den Vergleich von HWU, wenn du mir schon nicht glaubst.:ka:
Wieso sollte ich um den FSR Upscaler zu nutzen eine AMD GPU benötigen? Aber ja, auf einer AMD GPU habe ich mir das auch schon x mal angesehen.
Dabei beziehst du dich für diese Aussage nicht auf Upscaling sondern behauptest es einfach so allgemeingültig.
Nein, ich rede in diesem Zusammenhang permanent von Upscaling (was sowieso jeder nutzt) und du weißt genau, dass ich auch nur das meine und mich darauf beziehe.:schief:
Dann spricht man euch darauf an und plötzlich kommen die hanebüchensten Aussagen.
Welche Aussage ist von mir denn "hanebüchen"?
Und zur Effizienz: Wer sich einen 14900K in den Rechner bastelt (und ihn dann noch übertaktet, was wie wir alle wissen, die Effizienz noch weiter runterzieht im Gegensatz zum undervolten), dem ist Effizienz egal.
Natürlich ist die Effizienz bei einem Max-Leistung Setup sekundär. Das eine hat doch null mit dem anderen zu tun.
Wenn ich sage, dass eine 4070 einen deutlich niedrigeren Stromverbrauch als die 7800XT hat, ist das genauso als Argument gültig. Was hat das mit meinem High End System und OC zu tun? :ugly:
Und das ist ein valider Standpunkt, das meine ich Ernst und nicht negativ. Aber dann argumentiere nicht mit Effizienz bei anderen Bauteilen.
Finde ich charakterlich nicht in Ordnung von dir, lieber Drayygo. Aber das weißt du eh.
Das ist wie (um dein Autovergleich aufzugreifen) n Musclecar mit ~20l/100km Verbrauch zu fahren aber dann zu sagen: "Aber ich tanke ja nicht immer voll, sonst verbraucht der ja mehr wegen des hohen Gewichtes des Benzins im Tank".
Diesen "Frame" gibst ja du vor. Du hast hier als einziger ein OC System wo es um Leistung geht mit einem puren Vergleich von GPU A/B hergestellt, alleine um etwas provokantes rauszuhauen.
Ich habe das in keiner Silbe mit der Verbreitung von FSR/DLSS verglichen, sondern mit der Verbreitung von Spielen, in denen eine native Auflösung wahlweise nicht auswählbar ist oder per Default ein Upscaler eingestellt ist.
Es gibt X Spiele in denen pauschal ein Upscaler eingestellt ist. Guten Morgen.
Und das war ein Beispiel, was dein Kumpel eingebracht hat. Aber das weißt du, nur du scheinst ganz gerne zu lügen :)
Der Mensch soll ja täglich über 200 mal lügen. Sehr schlaue Argumentation. ;)
 
Zuletzt bearbeitet:
Du solltest vielleicht mal googlen, was ad hominem bedeutet :)

Klar ist das Stromverbrauchsargument valide - das habe ich nie bestritten. AMD ist bei GPUs aktuell (bzw. seit einer Weile) ineffizienter.
Nur ist es ironisch, bei GPUs den Stromverbrauch bzw. die Effizienz als Argument zu nutzen, während man sie bei CPUs ignoriert (bzw, die Effizienz durch Übertaktung sogar aktiv verschlechtert).
https://de.m.wikipedia.org/wiki/Argumentum_ad_hominem. Gern geschehen. ;)

Passt schon. Und nein, das ist nicht ironisch, weil das zwei völlig verschiedene Stromverbrauchswelten sind und es zudem vom Use Case abhängt.
 
bei den vergleich Effizienz amd nvidia interessiert mich nur die tbp und genau das ist bei amd blöd festgelegt
Während amd aufs maximum an Takt zielt egal wieviel Watt dafür benötigt wird legt man die tbp so hoch das man nvidia sehr nah kommt an den angedachten preispunkt als Konkurrenzprodukt
Indem fall amd rx7800xt soll gegen rtx4070 abgreifen
Während nvidia die gpu nach festen tbp auslegt wo diese ihren maxed perf anhand der maximalen vcore erreicht was bei ampere etwa 1,08v-1,1v ist und bei ada um die 1,05-1,07v ist je nach chipgüte
meist rennt man in ein cpu limit .
Daher kann man fps vs watt sehr verwirrend sein also muss die devise sein die theoretische tf vs watt her oder immer geachtet auf die gpu load vs watt vs fps
amd könnte den n32 auch so festlegen wie 1,5-1,8ghz 180w etwa 18tf 60cu
Was sagt das aus das rdna3 komplett fehlgeschlagen ist im kerndesign und es wurde versucht den sram zu verkleinern der aber bei zu wenig spannung Fehler produziert
Lösung aktuell man ballert mehr Strom durch damit die daten Kohärent bleiben.
Darum wird es auch kein refresh von n31 oder n32 geben
Das sieht man an n33 das trotz n6 kein Deut schneller ist als n23 trotz double issue alu
Womit die sku im Notfall geringer Taktet als n23

n44 wird das aufdecken da man an den Kern der arch ändert und dann die angedachten 3,2ghz erreicht ich gehe sogar von 3,55ghz aus und das bei gleicher tbp von nur 170w

aber zurück zu tbp allgemein mein ziel ist es nicht mehr als 180w tbp als optimum zu sehen ob das dann mehr fps amd vs nvidia ist ist mir herzlich egal.
Am ende kommt es auf drei dinge an
preis vs perf vs Verbrauch. Leise wäre dabei noch schön

Die letzte sehr gute sku wo das alles zutraf war die gtx1060 im idle unhörbar dank zero fan und unter last kaum wahrnehmbar bei nur 120w tbp.
Meine derzeitige rtx3060 170w geht so, die perf ist nah an der grenze teils 30fps auf FHD nativ von spielen ab 2023.
Eigentlich der Zeitpunkt wo ich ne neue gpu kaufe.
Eine amd kommt in meinen pc nur dann wenn diese 150w tbp mindestens die doppelte perf hat und die dxr perf min um 100% höher ist und zuletzt nen zero fan Modus hat.
Das sehe ich kaum bei amd kommen bei nvidia wäre das die rtx4070 wäre da nicht das hohe tbp limit von 200w
Das kann man fixen mitn neuen sku mit ner rtx4070 d6 180w tbp limit und gddr6 statt gddr6x was der Grund für die 200w sind. Und ne maxed uvp von 479€
Das ist umsetzbar und geht eventuell so raus und wäre am schnellsten

Wie gesagt tbp ist wichtig nicht wie viele fps pro watt herauskommen da siegt immer der dickste chip mit dem geringsten Takt.
Indem fall ein ad102 ,mit 128sm und nur 2,6ghz etwa 250w das in fps aufzudröseln hängt von den spielen ab wie gut diese dxr nutzen derzeit kann keine cpu diese gpu auslasten.
Nur sind mir 250w zu viel und stock also 450w gehen überhaupt nicht.
man kann sich anlügen und dann einfach nen fps cap setzen da erreicht selbst meine sku werte um die 40w bei entsprechend alter software. neue software wofür ich die gpu kaufe hat dennoch die maximalen verbrauch anhand der eingestellten Pt limit bei mir sind das 100w Irrwitziger weise genau dem 58% pt limit geringer geht es nicht.
Reduziere ich den Takt wird es weniger so geht uv heutzutage nix mit manueller vcore anpassen bis es instabil wird. Sehr gerne bei amd gpu wird das gemacht und dann sich beschweren das die Treiber unsauber sind.
Soviel zu den Uv Threads
 
Native ohne DLSS. TPU testet nicht mit DLSS bzw testet extra.
Natürlich schafft es eine 4090 PT in native 4k, sieht dir doch die Werte an, die ich verlinkt habe.
Hier bei PCGH schafft die 4090 in 2160p selbst mit Hilfe von quality-upsampling gerade mal 28 fps und bei tpu sind es in nativ mehr? Na klar.
Das ist ja fast so toll wie mit dem Alphacool Lüfter.
Laut Text schafft eine manuell übertakteten 4090 in der PCGH-Benchszene gerade mal 20 fps.
 
Zurück