News RTX 5080 versus RTX 4080: Von Hand gezählte Frames verraten die Performance

Hab mit der 3080 leider schon die 4080 geskippt. Aber jetzt werden 10GB echt zu wenig, und die 16Gb der 5080 sind genauso auf kante genäht. :wall:
RTX 5070 Ti mit 16 GB VRAM für ~890€ nehmen.
Die RTX 5080 mit 16 GB VRAM für ~1200€ lohnt sich halt null.

Die RTX 5080 wird wie damals die RTX 4070 Ti ein Reinfall, um den man besser einen großen bogen macht! :nicken:
 
Ich finde schade, dass man DLSS so abgeneigt ist. Auch Seitens PCGH wird hier von einer "Verfälschung" gesprochen. Wir beschweren uns schon jetzt über die Hitzeentwicklung und den Stromhunger der Karten. Wie sollten Diese zukünftig UHD mit Features wie Raytracing und Co nativ berechnen? Wie viel Leistung sollen die Karten denn noch aufnehmen um dann überdimensionierte Kühlkörper ins Schwitzen zu bringen? Ich denke ohne KI geht es nicht mehr und man sollte dieses Feature nicht aus der Gleichung nehmen. Ja es wird nicht zu 100% von Allen unterstützt. Neuere Titel setzen zunehmend auf die Technologie und für ältere Titel braucht man in der Regel keine neuen Karten ;). Von ner guten 30er oder 40er Karte zu wechseln (erst recht bei 1080p/1440p) würde ich nicht. Im UHD-Bereich kann es dank MFG aber schon bisl was bringen denke ich. Natürlich nur meine persönlichen Gedanken.
Generell bin ich DLSS ob Hochskalierung oder Bildgenererierung als Zusatzfeature für 144Hz+ User gar nicht abgeneigt.
Problematisch ist, dass die Spielehersteller jetzt noch mehr bei den Optimierungen schlampen können, DLSS holts ja wieder raus - und es ist ja bei modernen Titeln heute schon oft Pflichtprogramm.
Wenn man sich da z.B. mal ein Crysis 3 von 2013 anschaut, da wundert man sich was man damals mit einem Bruchteil der Grafikleistung zustandegebracht hat - ohne Trickserei und in nativer Auflösung!
 
16 GB sind aber auch 60% mehr Speicher. Die reichen aktuell auch für alles aus. Ob Du so noch die 6080 abwarten willst muss Du wissen...
Du schreibst es. Aktuell. Leute, die gerne mal etwas länger Ruhe haben wollen, wären über 20-24GB froh. Und nvidia wäre nicht nvidia, wenn die 5080 Super nicht dann auf einmal mehr Speicher und eventuell sogar noch deutlich flotter als die 5080 ist, damit sich alle, die schon direkt am Anfang zugeschlagen haben, schön ärgern und eventuell sogar nochmal upgraden.
RTX 5070 Ti mit 16 GB VRAM für ~890€ nehmen.
Die RTX 5080 mit 16 GB VRAM für ~1200€ lohnt sich halt null.

Die RTX 5080 wird wie damals die RTX 4070 Ti ein Reinfall, um den man besser einen großen bogen macht! :nicken:
Würde nvidia die als FE rausbringen, würde ich wohl diesmal zuschlagen.
 
Das hat nvidia bei keiner gen gemacht eher war es so das Nvidia features in games unterstützt hat das die alte gen nicht kann.
Multi fg Setzt voraus das man hardware sheduling der gpu im OS an haben muss.
Das bringt Probleme mit sich da dies instabil ist insbesondere auf Bezug auf legacy spielen. bsod sind nicht ausgeschlossen durch Programme.
Die folge man kann gar nicht FG nutzen auch nicht bei der aktuellen rtx40 Serie folglich existiert das feature nicht was bleibt ist die pure raster und dxr perf. und das in die die 18% gerade mal als min perf. Zuwachs zu sehen die man erwartet
nvidia hatte es aber an der hand der gb203 hat nativ 108 sm 96sm nutzbar die rtx5080 mit 90sm wäre locker drin gewesen und das bei gleicher tbp.
Stattdessen schaltet man einen gpc ab und muss dann 6sm deaktivieren wegen der yield das schreit förmlich nach nenn rtx5080ti Nachschub 2026 mit dann 96sm
 
Für mich ist der Rohrleistungszuwachs ohne DLSS eigentlich nur relevant, wenn nur wenige ältere Spiele DLSS 4 bekommen. Bei einem Turbo-Diesel Motor würde mich die Leistung ohne Turbolader ja auch nicht wirklich interessieren.
Problematisch ist, dass die Spielehersteller jetzt noch mehr bei den Optimierungen schlampen können, DLSS holts ja wieder raus - und es ist ja bei modernen Titeln heute schon oft Pflichtprogramm.
Wenn man sich da z.B. mal ein Crysis 3 von 2013 anschaut, da wundert man sich was man damals mit einem Bruchteil der Grafikleistung zustandegebracht hat - ohne Trickserei und in nativer Auflösung!
Inwiefern ist das denn problematisch, wenn Entwickler mit weniger Optimierung dieselbe Leistung hervorbringen können und sich mehr auf z.B. Gameplay oder Design konzentrieren können? Nur mit älterer Hardware, die kein DLSS kann, ist das dann doch ein Problem.
 
Doch, es zeigt, dass NV keinen Wert mehr auf Gamer legt und stattdessen alles auf Softwaregedöhns schieben will.
Wenn aufgrund des gleichen Fertigungsprozesses keine großen Sprünge die über +30% hinausgehen möglich sind, redest du von "Nvidia legt keinen Wert mehr auf Gamer"?

Das ergibt doch von vorne bis hinten keinen Sinn was du da an Argumenten aus dem Kochtopf zusammengerührt hast.

Und natürlich wird es Richtung AI und Software gehen, ging es ja mit DLSS schon. Du kannst Leistung nicht aus dem Nichts schöpfen. Software und Strategien mehr aus der Hardware zu holen werden wichtiger.
wir habe seit der RTX2000 keinen signifikanten IPC Boost mehr bekommen,
Bei GPUs geht's auch weniger um IPC, sondern mehr um Auslastung. Vergleiche mal den Corecount einer CPU mit denen einer GPU.
stattdessen wird seither die Auflösung intern reduziert, dann ein Bild dazugechätzt und jetzt werden 3 von 4 Frames geschätzt.
Da wird nichts geschätzt. Geschätzt hat man mit DLSS1, das ist 5 Jahre her.
Geiler Fortschritt. Gamer sind für Jensen doch nur noch eine dumme Melkkuh und wir lassen es mit uns machen.
Dann zieh doch nach Afrika und pflanze dort Bäume, wenn dich technischer Fortschritt überfordert und du ihn nicht verstehst. Gibt so viele Artikel auf PCGH wo das erklärt wird.
 
Oh mein Gott!
Blackwell das Fake Konstrukt per se scheint wirklich vor meinen Augen zu kolabieren.
Die RTX5070 wird voraussichtlich noch nicht einmal eine RTX4070s schlagen können.
Ganz im Gegenteil.
Die 7168 (+17%) vs. 6144 cores und der fast identische Takt sprechen eine deutliche Sprache.
Die Karte dürfte unter normalen Umständen in der Luft zerrissen werden und eine verdammt schweren Stand, selbst gegen die 9070 non XT haben.

Bei der RTX5070Ti vs. 4070Ti super und RTX5080 vs. 4080 super sieht es nicht viel besser aus.
Nvidia kocht eben auch nur mit Wasser und was der Jensen da präsentiert hat Stichwort 5070 = 4090
grenzt schon fast an vorsätzliche Täuschung des Kunden und sollte eigentlich bestraft werden.
Ich vertraue daher auf PCGH, dass sie beim Review dieser Karten diese entsprechend abstrafen werden.

1736634022740.png
1736634171552.png
 
Nvidia kocht eben auch nur mit Wasser und was der Jensen da präsentiert hat Stichwort 5070 = 4090
grenzt schon fast an vorsätzliche Täuschung des Kunden und sollte eigentlich bestraft werden.
Unsinn. Jensen hat ganz klar gesagt das die "leistung" nicht ohne AI möglich ist.
Ausserdem stand im kleingedruckten noch einiges. Getäuscht wird da niemand. Es ging lediglich um die FPS performance im vergleich zur 4090, und da liefert die 5070 eben mehr als eine 4090, zitat "ohne AI und MFG nicht möglich".
 
Unsinn. Jensen hat ganz klar gesagt das die "leistung" nicht ohne AI möglich ist.
Ausserdem stand im kleingedruckten noch einiges. Getäuscht wird da niemand. Es ging lediglich um die FPS performance im vergleich zur 4090, und da liefert die 5070 eben mehr als eine 4090, zitat "ohne AI und MFG nicht möglich".
Das Statement ist trotzdem irreführend. Es ist einfach cleveres Marketing, weil er voraussichtlich genau weiß, dass viele genaue diese Catchline in ihren Instagram Reels neu veröffentlichen werden in denen das Kleingedruckte und von ihm hinzugefügte eben weggelassen wird. Das ist mit ziemlicher Sicherheit genau kalkuliert
 
Ich bin ja persönlich immer wieder aufs neue verwirrt, wie sich manche so darüber aufregen können. Ich habe die Präsentation live gesehen und wusste sofort was Sache ist... Klar ich fände es auch netter, wenn Nvidia einfach aufteilen würde zwischen Zuwachs in Rasterleistung und neues DLSS, aber wirklich verheimlicht haben die nicht wie die FPS zustande kommen. 😅

grenzt schon fast an vorsätzliche Täuschung des Kunden und sollte eigentlich bestraft werden.
Ich vertraue daher auf PCGH, dass sie beim Review dieser Karten diese entsprechend abstrafen werden.
Wieso sollte PCGH die Karten dafür massiv abstrafen? Das hat dann ja kaum noch was mit objektivem Testen zu tun...

Am Ende des Tages verlieren wir doch alle nicht dadurch. Ja es ist vielleicht enttäuschen, wenn es nur 20% Leistungszuwachs sind, aber wir bekommen mehr Leistung, neue Softwarefeatures, ggf. besseres RT-Performance.

Da Frage ich mich immer wieso diese riesige Aufregung und so viel hate. Dann kauft halt die Karte nicht, wenn sie euch nicht "genug" Mehrleistung hat.
 
Das Statement ist trotzdem irreführend. Es ist einfach cleveres Marketing, weil er voraussichtlich genau weiß, dass viele genaue diese Catchline in ihren Instagram Reels neu veröffentlichen werden in denen das Kleingedruckte und von ihm hinzugefügte eben weggelassen wird. Das ist mit ziemlicher Sicherheit genau kalkuliert
Ich verstehe schon was du meinst, im kern ist es aber defacto keine Lüge / Täuschung. Nichtsdestotrotz hast du recht, einige spezialisten werden natürlich sich weder informieren noch sonstige Bemühungen anstellen sich mal genauer zu informieren und sich nur an der aussage ohne das kleingedruckte zu beachten aufhängen und zu einer 5070er greifen.
Das nennt man halt Marketing.
Übrigens macht das Apple, Samsung und Konsorten genauso. Es wird mit aussagen jongliert und gelogen ohne dabei wirklich zu lügen.
 
Hab mit der 3080 leider schon die 4080 geskippt. Aber jetzt werden 10GB echt zu wenig, und die 16Gb der 5080 sind genauso auf kante genäht. :wall:
Ich spiele auf 1440p. Bisher habe ich fast nie über 10GB VRAM Verbrauch gehabt. Ich denke auch nicht, dass die 16GB die nächsten zwei Jahre knapp werden.

Und ganz ehrlich. Etwas Regler bedienen tut auch nicht weh und viele Spiele sehen bei hoch immer noch gut aus.
Wenn ich eine RTX 3080 hätte, würde ich noch aushalten, auch wenn es schwer erscheinen mag.
Ich lehne mich mal weit aus dem Fenster und behaupte, dass die generellen Anforderungen der Spiele an die Hardware nicht signifikant steigen werden, wenn wir RT mal außen vor lassen. Insofern dürfte es auch meist reichen, RT mal ein oder zwei Stufen runter zu stellen. Dadurch leidet die Grafikqualität nur geringfügig.

Von RT mal abgesehen (was wirklich grandios aussehen kann) hatten wir bisher ja keine großen Sprünge hinsichtlich Grafikqualität mehr.
 
NV macht genau das was ich befürchtet habe als AMD bekannt gab das sie keine High End GPU´s produzieren werden.

Wenn ich mir die Specs zwischen AD103 und GB203 anschaue wird mir eigentlich übel. Das wird von der Rohleistung ein ähnlicher Sprung wie zwischen 4080 und 4080s (ok ein paar % noch oben drauf weil sie auch was optimiert haben werden) nur das MFG reist hier was. Aber von der Rohleistung ist für eine neue Gen einfach zu wenig.
 
16 GB sind aber auch 60% mehr Speicher. Die reichen aktuell auch für alles aus. Ob Du so noch die 6080 abwarten willst muss Du wissen...

Warum vermutet man nicht, dass NV in der Ti/S „Zwischengeneration“ bei der 5080S mehr drauf packt?

Wer weiß, ist weitere 2 Jahre warten vielleicht gar nicht nötig? 🤔
 
Das Statement ist trotzdem irreführend. Es ist einfach cleveres Marketing, weil er voraussichtlich genau weiß, dass viele genaue diese Catchline in ihren Instagram Reels neu veröffentlichen werden in denen das Kleingedruckte und von ihm hinzugefügte eben weggelassen wird. Das ist mit ziemlicher Sicherheit genau kalkuliert
Nicht nur auf Instagram...🫣😅


1000110663.png
 

Anhänge

  • 1000110663.png
    1000110663.png
    135,3 KB · Aufrufe: 38
Noch kennen wir die genaue Performance der 5000 serie nicht, aber ich denke das wir keinen grossen Spruenge sehen werden. 5090 vielleicht 30% schneller als 4090, dafuer aber auch 125W mehr Verbrauch. Die anderen Karten dürften allesamt maximal 20% schneller werden.
Eigentlich lächerlich.
Wahrscheinlich kann man aus der 4080S mit bisschen OC und TDP von 320W auf 360W auch noch 10% rausholen, dann liegt die 5080 kaum noch vorn.
Sieht für mich wie eine Fail Generation aus.

Hat auch sein gutes, denn AMD wird dann nicht komplett nach hinten fallen, wenn sie 4080 Performance bieten koennen sind sie ja nicht so weit hinter Nvidia, zumindest bis 5080. Dann kann UDNA in 2027 vielleicht auch mit Nvidia 6000 mithalten,
Wir brauchen AMD dringend und müssen hoffen das Intel auch noch was nachliefert.
Könnte mir ne 350W Arc B780 auch vorstellen auf 4080 Niveau.
 
Für mich ist der Rohrleistungszuwachs ohne DLSS eigentlich nur relevant, wenn nur wenige ältere Spiele DLSS 4 bekommen. Bei einem Turbo-Diesel Motor würde mich die Leistung ohne Turbolader ja auch nicht wirklich interessieren.

Inwiefern ist das denn problematisch, wenn Entwickler mit weniger Optimierung dieselbe Leistung hervorbringen können und sich mehr auf z.B. Gameplay oder Design konzentrieren können? Nur mit älterer Hardware, die kein DLSS kann, ist das dann doch ein Problem.

Wird es gemacht? es wird einfach genauso weiter gemacht mit weniger Optimieren..^^

Ich denke Eher die können es einfach nicht besser auch mit dlss 300 wird es scheiß spiele geben wenn die 0 optimieren müssten ;)

Es würden einfach nur mehr Spiele kommen die genauso schlecht sind wie Heute schon :)
 
Du schreibst es. Aktuell. Leute, die gerne mal etwas länger Ruhe haben wollen, wären über 20-24GB froh. Und nvidia wäre nicht nvidia, wenn die 5080 Super nicht dann auf einmal mehr Speicher und eventuell sogar noch deutlich flotter als die 5080 ist, damit sich alle, die schon direkt am Anfang zugeschlagen haben, schön ärgern und eventuell sogar nochmal upgraden.
Ich glaub eher dass die 5080S auch nur wieder 16 GiB haben wird, denn diese Menge reicht die nächsten zwei Jahre gerade so aus. Nvidia ist ganz nah dran an den Entwicklern und die 5080 hätte 100% 20-24 GiB wenn die vermuten würden dass nicht reicht. Die wollen mit dem Speichergeiz ganz einfach Leute wie uns hier im Forum dazu bringen die 5090 mit 32 GiB und für das Doppelte Geld zu kaufen denn hier sind genau die die für ihr Hobby soviel Kohle raus ballern. Irgendein Game kommt dann das die 16 GiB sprengt und dann darfst upgraden.
 
Wenn aufgrund des gleichen Fertigungsprozesses keine großen Sprünge die über +30% hinausgehen
Wenn es mal 30% wären


Bei GPUs geht's auch weniger um IPC, sondern mehr um Auslastung. Vergleiche mal den Corecount einer CPU mit denen einer GPU.
Grds hast du damit Recht, aber das was wir unter IPC verstehen, sprich Leistung durch Takt und Kerne.


Und natürlich wird es Richtung AI und Software gehen, ging es ja mit DLSS schon. Du kannst Leistung nicht aus dem Nichts schöpfen. Software und Strategien mehr aus der Hardware zu holen werden wichtiger.
Brainwash accomplished
 
Zurück