News RTX 5080 versus RTX 4080: Von Hand gezählte Frames verraten die Performance

PCGH-Redaktion

Kommentar-System
Teammitglied
Durch von Hand gezählte Bilder in einem Gameplay-Video auf der CES gibt es eine erste Einschätzung zur Performance der Geforce RTX 5080. Ohne DLSS 4 fällt der Zuwachs im Vergleich zur RTX 4080 offenbar recht niedrig aus.

Was sagt die PCGH-X-Community zu RTX 5080 versus RTX 4080: Von Hand gezählte Frames verraten die Performance

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Kommt ja alles völlig überraschend, 20-30% Performancezuwachs waren sowas von klar und realistisch out of Softwaretuning. Lediglich die 5090 wird mehr oben drauf packen, aber so wie es aussieht auch von den 50% weit weg bleiben und eher +30% bieten. Für mich eine bisher absolute Katastrophe, mehr Leistung mehr Watt und nahezu keinen Effizienzgewinn.
 
Naja, "absolute Katastrophen" sehen für mich anders aus, zumal das, was frühzeitig über Fertigung und Architektur bekannt war, ja auch von vorneherein kaum mehr erwarten ließ, und somit nichts davon überraschend kommt. Derart eher stagnierende Generationen gab's ja immer mal wieder, und bei den 60er-Karten ist Leistungszuwachs im gefühlten Promillebereich sowieso seit Jahren der Normalfall. Zumal die Karten immerhin auch entsprechend bepreist sind.

Alle 4000er-Besitzer können sich freuen, dass sich soeben die geplante Lebensdauer ihrer Karten etwas verlängert hat, und für alle Besitzer älterer Karten könnte sich das Aufrüsten trotz des geringen Leistungszuwachses lohnen, insbesondere, wenn man von Modellen mit 6-10 GB VRAM kommt. Könnte schlimmer sein.
 
Das Ergebniss überrascht nun nicht wirklich, etwas anderes konnte man doch nicht erwarten? Weder von den Specs, noch von der Vorstellung hat das einen aus den Socken gehauen. Alles nur durch Feenstaub...

Imho eine absolut langweilige und enttäuschende Generation. Es gab quasi nichts außer ein paar extra Frames, die man aus dem nichts zaubert um die subjektive Flüssigkeit des Bildes zu erhöhen.
 
Das einzig Neue ist halt mehr Fake Frames.

Und bis das andere Zeug in mehr als 5 Games implementiert ist, ist wahrscheinlioch schon die nächste Gen da.
(Edit: damit es auch jeder rafft, damit mein ich Neural Rendering/Neural Textur Kompression)


Es sei denn die Neue DLSS/DLAA Version läuft auf den älteren Gens wesentlich langsamer, dann könnte Blackwell schon nen guten Boost geben.
 
Zuletzt bearbeitet:
Also ich verstehe die Aufregung nicht ganz. Bis anhin war es doch meistens so dass man jeweils eine Generation überspringen konnte und sich der Wechel nur bedingt lohnt, wenn man eine 80er oder höher sein eigen nennen kann. Die 3080 mit 10Gb mal ausgeklammert.
 
Also ich verstehe die Aufregung nicht ganz. Bis anhin war es doch meistens so dass man jeweils eine Generation überspringen konnte und sich der Wechel nur bedingt lohnt, wenn man eine 80er oder höher sein eigen nennen kann. Die 3080 mit 10Gb mal ausgeklammert.

Denk mal an die CPU Generation Intel 2000 bis 7000.
AMD war weit abgeschlagen, Intel konnte machen was Sie wollten. Die Folge:
2600k, Release 2011 hat mit leichten OC (quasi jeder hat ihn übertaktet) im Cinebench R15 fast 800 Punkte bekommen. Quelle
7700k, Release 2017 hat ohne OC (weil Intel schon das Meiste rausgeholt hat) 940 Punkte bekommen. Quelle

17% Leistungszuwachs in 6 Jahren.

AMD ist wieder abgeschlagen und nVidia quetscht uns jetzt schon aus. Das wird nicht genauso wie Intel 2000-7000, es wird noch schlimmer.
 
Zuletzt bearbeitet:
Ist halt nur eine refresh Generation, mit der 6000er Reihe dürfte wieder ein ordentlicher Sprung kommen durch den node shrink.
Die neue Architektur scheint auch nicht wirklich effizient zu sein wenn die paar zusätzlichen Cuda Cores mehr Energie brauchen bei gleichzeitig reduzierten Taktraten im Vergleich zum Vorgänger.
Erklärt auch den riesen Fokus auf AI, irgendwo muss ja mehr Leistung herkommen damit die Leute unbedingt eine neue Karte wollen.
 
Das einzig Neue ist halt mehr Fake Frames.

Und bis das andere Zeug in mehr als 5 Games implementiert ist, ist wahrscheinlioch schon die nächste Gen da.


Es sei denn die Neue DLSS/DLAA Version läuft auf den älteren Gens wesentlich langsamer, dann könnte Blackwell schon nen guten Boost geben.
Hast wohl nicht aufgepasst oder....
Dlss4 läuft vorm Start weg mit 75 Spielen an....
Und dieses angebliche Thema das Vorgänger Gens iwie langsamer gemacht werden hält sich auch schon ewig is aber a nie eingetroffen und b auch noch nie nachgewiesen worden....
 
Jetzt wird erstmal gemeckert. Ein halbes Jahr später siehst du hier überall die Blackwell GPUs in den Signaturen. Ich kenn doch die PCGHler ;)
Warum auch nicht wenn es nichts besseres zu kaufen gibt, dann nimmt man halt mit was geht.
Ob dann hier unten 9070XT, oder 5070(TI), oder 5080, oder gar 5090 steht.

Ich bin am meisten gespannt auf MFG in der PCGH(Praxis) und auf FSR4. Sowie was bei der 9070XT wirklich an Leistung bei rum kommt und wie der Preis dazu steht.
Denk mal an die CPU Generation Intel 2000 bis 7000.
AMD war weit abgeschlagen, Intel konnte machen was Sie wollten. Die Folge:
2600k, Release 2011 hat mit leichten OC (quasi jeder hat ihn übertaktet) im Cinebench R15 fast 800 Punkte bekommen. Quelle
7700k, Release 2017 hat ohne OC (weil Intel schon das Meiste rausgeholt hat) 940 Punkte bekommen. Quelle

17% Leistungszuwachs in 6 Jahren.

AMD ist wieder abgeschlagen und nVidia quetscht uns jetzt schon aus. Das wird nicht genauso wie Intel 2000-7000, es wird noch schlimmer.
Sky Lake war bei gleichem Takt und Kernen 27% schneller, als Sandy Bridge in Spielen. Dazu gab es noch höheren Takt.
 
Ist halt nur eine refresh Generation, mit der 6000er Reihe dürfte wieder ein ordentlicher Sprung kommen durch den node shrink.
Die neue Architektur scheint auch nicht wirklich effizient zu sein wenn die paar zusätzlichen Cuda Cores mehr Energie brauchen bei gleichzeitig reduzierten Taktraten im Vergleich zum Vorgänger.
Erklärt auch den riesen Fokus auf AI, irgendwo muss ja mehr Leistung herkommen damit die Leute unbedingt eine neue Karte wollen.
Erinnert euch doch mal an turing da war es auch nicht anders....
Lovelace war nur so ein riesen Sprung und effizienter weil der Prozess von Samsung so schlecht war
Die 5090 is was des angeht schon mal kein refresh.
Was die anderen Karten angeht könnte noch eine super oder eine 5080 ti kommen
 
Hast wohl nicht aufgepasst oder....
Dlss4 läuft vorm Start weg mit 75 Spielen an....
Und dieses angebliche Thema das Vorgänger Gens iwie langsamer gemacht werden hält sich auch schon ewig is aber a nie eingetroffen und b auch noch nie nachgewiesen worden....
Hast du wohl nicht aufgepasst.

Mehr Fake Frames ist Teil von DLSS4 und Nvidia selbst sagt, dass die neuen Transformer Modelle für Frame Gen und DLSS/DLAA mehr Rechenpower brauchen.

Alles was sonst noch bleibt, ist Neural Rendering/Neural Textur Kompression und das musst erstmal in auch nur ein game implementiert werden.
 
Zuletzt bearbeitet:
Zurück