News RTX 5080 versus RTX 4080: Von Hand gezählte Frames verraten die Performance

Hast du wohl nicht aufgepasst.

Mehr Fake Frames ist Teil von DLSS4 und Nvidia selbst sag, dass die neuen Transformer Modelle für Frame Gen und DLSS/DLAA mehr Rechnepower brauchen.

Alles was sonst noch bleibt, ist Neural Rendering/Neural Textur Kompression und das musst erstmal in auch nur ein game implementiert werden.
Offenbar weißt du nicht was du schreibst du sagtest doch bis das implementiert ist dauert es ewig und jetzt kommst du plötzlich mit ganz anderen ausreden ja ne is klar....
 
Bin ja echt schon auf Tests gespannt. MFG inkl. Frametimes glättung Stelle ich mir aber gut für OLEDs zum problem vrr Flicker vor. Wenn das so funktioniert wäre es schon ein Killerfeature.
 
Offenbar weißt du nicht was du schreibst du sagtest doch bis das implementiert ist dauert es ewig und jetzt kommst du plötzlich mit ganz anderen ausreden ja ne is klar....
Neural Rendering/Neural Textur Kompression ist nicht Teil von DLSS4 was gleich in allen dabei ist ...

Das Einzig Neue ist mehr Fake Frames. Alles andere läuft auch auf den älteren Karten.
 
Nvidia-Chef Huang versteht es deutlich besser als seine Kollegen von AMD, einen kleinen Fortschritt als großen Meilenstein zu verkaufen und damit höhere Preise und einen höheren Stromverbrauch zu rechtfertigen. Reife Leistung! :hail::banane:

ist das so?
ich habe bei beiden eigentlich nur gehört FAKEFRAMES und AI AI AI AI
lachender gewinner ist INTEL mit der b580
 
Naja, "absolute Katastrophen
Naja, wie würdest du es denn nennen? Eine komplette Stagnation sehe ich als Katastrophe, es hat sich architektonisch nahezu nichts getan im Bereich der Rasterleistung, stattdessen sollen wir mit nun 3 Pseudoframes nur weiter verarscht werden.


Im gleichen Fertigungsprozess ist das weder eine Katastrophe noch sonst irgendeine Überraschung
Doch, es zeigt, dass NV keinen Wert mehr auf Gamer legt und stattdessen alles auf Softwaregedöhns schieben will.wir habe seit der RTX2000 keinen signifikanten IPC Boost mehr bekommen, stattdessen wird seither die Auflösung intern reduziert, dann ein Bild dazugechätzt und jetzt werden 3 von 4 Frames geschätzt. Geiler Fortschritt. Gamer sind für Jensen doch nur noch eine dumme Melkkuh und wir lassen es mit uns machen.

Kommt sowas bald auch für Autos? Dann habe ich endlich mehr als 100PS.
Na, lass das die Regierung nicht hören, die bauen das sonst in die Blitzer ein, statt 50 fährste dann 200 und der Lappen ist weg


17% Leistungszuwachs in 6 Jahren.
Sorry, aber das ist stark überzeichnet. Der 7700k ging auch ordentlich aufwärts und war weit weg von am Limit. Den 2600k konntest mit 4,5Ghz betreiben, den 7700k easy auf 5Ghz (ähnlicher Aufwand wie stabile 4,5Ghz beim 2600k), dazu über 20% IPC Boost in den Gens. Also am Ende eher 30 bis 35% und nicht 17!
die wollen alle 4k haben mit ihren 1080p Monitor das haben sie erwartet HAHAHA
4k nativ würde ich nehmen, hab zwar ein paar mehr, aber wenn 4k geht, dann auf 3440x1440x2. Würde ich Geld für ausgeben und nicht zu wenig, aber DLSS (auch wenn ich Vorbehalte losgeworden bin, es ist brauchbar) ist für mich ne Mogelpackung und dafür dann 2,5k ausgeben? Nö, dann reduzier ich lieber RT und fertig, selbst die 6900XT läuft dann echt gut und sieht gut aus. Wenn man ehrlich ist, der optische Zugewinn ist diesen Preis einfach nicht wert,
 
AMD ist wieder abgeschlagen und nVidia quetscht uns jetzt schon aus. Das wird nicht genauso wie Intel 2000-7000, es wird noch schlimmer.
Dann müsste aber bei den Spielen für die nöchsten Jahre auch stillstand herrschen das Nvidia so etwas in Betracht ziehen würde.

Nebs das AMD im CPU Bereich damals so abgeschlageb war gabs halt auch aus gamer sich keinen wesentlichen Grund die CPU aufzurüsten.
 
Hab mit der 3080 leider schon die 4080 geskippt. Aber jetzt werden 10GB echt zu wenig, und die 16Gb der 5080 sind genauso auf kante genäht. :wall:
Sehe es mal positiv. Umso größer wird der Performancesprung beim Wechsel auf RTX 6080.

Und ganz ehrlich. Etwas Regler bedienen tut auch nicht weh und viele Spiele sehen bei hoch immer noch gut aus.
Wenn ich eine RTX 3080 hätte, würde ich noch aushalten, auch wenn es schwer erscheinen mag.
 
Naja, wie würdest du es denn nennen? Eine komplette Stagnation sehe ich als Katastrophe, es hat sich architektonisch nahezu nichts getan im Bereich der Rasterleistung, stattdessen sollen wir mit nun 3 Pseudoframes nur weiter verarscht werden.
Mir käme so eine Vokabel in dem Kontext grundsätzlich nicht in den Sinn. Katastrophen sind für mich die Dinge, die derzeit in der Ukraine oder in LA passieren. Bei so was wie einer neuen Grafikkartengeneration, ist mein verbales Eskalationspotential mit "Enttäuschung" vollständig erschöpft.

Aber mir persönlich ist Grafik auch tendenziell egal. Würde man da den aktuellen Stand für fünf Jahre komplett einfrieren, und sich dafür vollständig auf andere Dinge konzentrieren, wie tolles Gameplay, effizientere Implementierung oder weniger Bugs und mehr ausgereifte Produkte, hätte ich damit null Probleme.

Generell besteht ja bei allem Fortschritt, den es diesbezüglich zukünftig möglicherweise noch geben wird, sowieso die Frage, ob und in welchem Verhältnis der getriebene Aufwand zu den - wirklich für jedermann klar sichtbaren - Fortschritten am Ende stehen wird.
 
Am Ende werden alle Merken der Weg zu , Beamen und Fliegende Autos ist wohl sehr schwer wenn es schon an Grafikarten harkt, wird es wohl dabei bleiben.
 
Dann kann ich mich mit meiner 4080 ja gemütlich zurück lehnen und warten. Leistungssprung ist überschaubar, und kommt hauptsächlich von MFG. Das ist zwar bestimmt nice to have, aber darauf kann man wenn man schon FG hat, auch erstmals verzichten.
 
Naja, wie würdest du es denn nennen? Eine komplette Stagnation sehe ich als Katastrophe, es hat sich architektonisch nahezu nichts getan im Bereich der Rasterleistung, stattdessen sollen wir mit nun 3 Pseudoframes nur weiter verarscht werden.



Doch, es zeigt, dass NV keinen Wert mehr auf Gamer legt und stattdessen alles auf Softwaregedöhns schieben will.wir habe seit der RTX2000 keinen signifikanten IPC Boost mehr bekommen, stattdessen wird seither die Auflösung intern reduziert, dann ein Bild dazugechätzt und jetzt werden 3 von 4 Frames geschätzt. Geiler Fortschritt. Gamer sind für Jensen doch nur noch eine dumme Melkkuh und wir lassen es mit uns machen.


Na, lass das die Regierung nicht hören, die bauen das sonst in die Blitzer ein, statt 50 fährste dann 200 und der Lappen ist weg



Sorry, aber das ist stark überzeichnet. Der 7700k ging auch ordentlich aufwärts und war weit weg von am Limit. Den 2600k konntest mit 4,5Ghz betreiben, den 7700k easy auf 5Ghz (ähnlicher Aufwand wie stabile 4,5Ghz beim 2600k), dazu über 20% IPC Boost in den Gens. Also am Ende eher 30 bis 35% und nicht 17!

4k nativ würde ich nehmen, hab zwar ein paar mehr, aber wenn 4k geht, dann auf 3440x1440x2. Würde ich Geld für ausgeben und nicht zu wenig, aber DLSS (auch wenn ich Vorbehalte losgeworden bin, es ist brauchbar) ist für mich ne Mogelpackung und dafür dann 2,5k ausgeben? Nö, dann reduzier ich lieber RT und fertig, selbst die 6900XT läuft dann echt gut und sieht gut aus. Wenn man ehrlich ist, der optische Zugewinn ist diesen Preis einfach nicht wert,
na ich weiss ja nicht. das man daran arbeitet das frames geschätzt werden ist doch in ordnung. es müssen doch wege gefunden werden um alles noch leistungsfähiger zu machen und es gibt da ganz offenbar mehr als nur einen weg. ist doch in ordnung.
 
Ich finde schade, dass man DLSS so abgeneigt ist. Auch Seitens PCGH wird hier von einer "Verfälschung" gesprochen. Wir beschweren uns schon jetzt über die Hitzeentwicklung und den Stromhunger der Karten. Wie sollten Diese zukünftig UHD mit Features wie Raytracing und Co nativ berechnen? Wie viel Leistung sollen die Karten denn noch aufnehmen um dann überdimensionierte Kühlkörper ins Schwitzen zu bringen? Ich denke ohne KI geht es nicht mehr und man sollte dieses Feature nicht aus der Gleichung nehmen. Ja es wird nicht zu 100% von Allen unterstützt. Neuere Titel setzen zunehmend auf die Technologie und für ältere Titel braucht man in der Regel keine neuen Karten ;). Von ner guten 30er oder 40er Karte zu wechseln (erst recht bei 1080p/1440p) würde ich nicht. Im UHD-Bereich kann es dank MFG aber schon bisl was bringen denke ich. Natürlich nur meine persönlichen Gedanken.
 
Dann könnte die 9070xt besser wegkommen, sofern sie tatsächlich an die 4080 ran kommt, wie es mal geschrieben wurde.

Was das Thema "Fakeframes" angeht, die Diskussion ist Quatsch. Jeder Frame ist "Fake". Solange das Ergebnis zu 100% reproduzierbar und korrekt ist, sind die Frames genauso echt, wie alle anderen. Aktuell leistet das allerdings weder FSR noch DLSS, was man bei beiden in hochdynamischen Szenen gut sieht. Fliesendes Wasser in einem rauschenden Bach wird bei beiden zu einer Art Pixelbrei.
 
Ich finde schade, dass man DLSS so abgeneigt ist. Auch Seitens PCGH wird hier von einer "Verfälschung" gesprochen.
Der Autor meint damit wohl eher dass man bisher keine Daten zur Leistung von den 50er Karten komplett ohne DLSS hat. Also was die 5080 ohne DLSS an RT Leistung bringt im Vergleich zur 4080.
Und wenn MFG gut funktioniert, gerne her damit. Aber ob das so einwandfrei und Latenzfrei geht werden wir sehen. Dennoch wäre in den zwei Jahren ein höherer Anstieg der Rohleistung schön gewesen, denn der scheint sehr niedrig zu sein. Und das ist schade. Da wird wohl erst der nächst kleinere Fertigunsschritt was bringen.
Weiß man da was wann TSMC da was neues bringt?
 
Hab mit der 3080 leider schon die 4080 geskippt. Aber jetzt werden 10GB echt zu wenig, und die 16Gb der 5080 sind genauso auf kante genäht. :wall:
Dafür gibts ja die 6080 oder die 5080ti/Super mit den 3GB RAM Bausteinen. Dann sollte es auch bei NV mal wieder eine ordentliche Speicherbestückung geben.
 
Zurück