News Geforce RTX 5080 wird Geforce RTX 4090 nicht erreichen

Nein (Die Watt), der Energiekonsum bleibt nicht.

Wenn ich eine sowieso schon effizientere Karte, im Powerlimit weiter kastriere senke ich den Verbrauch.


Hä...
DLSS sieht weiterhin besser aus. RT für dich nicht wichtig, aber für andere und selbst ohne RT ist die 4090 mal eben 1/3 schneller.

Ok, ganz ohne RT wäre die XTX auch für mich eine Option gewesen, die 24GB sprechen dann klar für die. Aber FSR hat ein paar Eigenschaften, die für mich es leider in jetziger Form ausschließen.

Man kann sich eine XTX sicher schön saufen (nur eine Anspielung), aber die 4090 bleibt immer die bessere Karte und in Summe über alle Eigenschaften sogar Meilenweit.
Exakt. Nur, dass man dafür zufällig noch tausend Euro extra herumliegen haben muss. Mal ganz ehrlich, das ist doch ein vollkommen alberber Vergleich.
Die XTX ist eine extrem gute Karte, ebenso wie die 4080 und die 4090 ist nochmals besser. FSR ist abhängig von der Implementierung. Mein größter Kritikpunkt bei AMD Variante. Nvidia stellt den Entwicklern mehr menpower zur Verfügung, um ein ordentliches Ergebnis sicher zu stellen. AMD kann sich das nicht erlauben uns deshalb schwankt das Ergebnis stark. Allerdings ist das etwas, das in 4k quality völlig wurscht ist und neuerdings auch noch in ausgeglichen wohl okay aussieht. Alles darunter und vor allem bei niedrigeren Auflösungen ist weiterhin DLSS Gebiet.
 
Exakt. Nur, dass man dafür zufällig noch tausend Euro extra herumliegen haben muss. Mal ganz ehrlich, das ist doch ein vollkommen alberber Vergleich.
Die XTX ist eine extrem gute Karte, ebenso wie die 4080 und die 4090 ist nochmals besser. FSR ist abhängig von der Implementierung. Mein größter Kritikpunkt bei AMD Variante. Nvidia stellt den Entwicklern mehr menpower zur Verfügung, um ein ordentliches Ergebnis sicher zu stellen. AMD kann sich das nicht erlauben uns deshalb schwankt das Ergebnis stark. Allerdings ist das etwas, das in 4k quality völlig wurscht ist und neuerdings auch noch in ausgeglichen wohl okay aussieht. Alles darunter und vor allem bei niedrigeren Auflösungen ist weiterhin DLSS Gebiet.

Nochmal zurück zum Anfang,

Will ich die Hersteller kritisieren zum Thema Preis, anhand der Produkte dann muss ich die UVP heran ziehen und dann war der Aufpreis zur 4090, von der xtx nur bei 500€.

Und das war die 4090 in jedem Fall wert. Selbst jetzt, bei plus 900€...
Raster +35%
RT Parcours +80%
PT +200%

Dann kommt noch dlss / fsr. Habe es die Tage selbst nochmal verglichen anhand meiner spiele und was es so zu lesen gibt. Auch in 4k ist dlss jederzeit überlegen, wenn gleich mir fsr reichen würde in 4k. Wenn ich die Wahl habe nehme ich aber dlss.

Dann weitere Vorteile bei RT durch Ray reconstruction.

VR ist auch grünes Terrain.

Dann gesellt sich die Effizienz auch noch dazu. Man darf ja das ganze nicht vergessen.

Lange Rede, kurzer Sinn. Für einen individuell mag es subjektiv Gründe für die xtx geben.

So ist es subjektiv sogar so, das die xtx mir gegenüber der 4070ti super nichts bietet das den Aufpreis rechtfertigt, bzw. Einen Wechsel verlockend macht.

Da mir VR, RT schon sehr wichtig sind und ich die Unterschiede zwischen fsr und dlss sehe.

Ein anderer wird RT gering schätzen und VR vielleicht nicht nutzen und daher klar die xtx bevorzugen, gegenüber einer Nvidia Karte.

Bei fsr gibt es Probleme die gleichbleibend über alla Spiele bestehen bleiben. Das liegt nicht an der menpower. Daran stört sich aber nicht jeder, gerade beim Spielen.

;) beste Grüße
 
Kann durchaus sein. Wenn ich bei der 4080 in RT Spielen DLSS zuschalte, wird es seltsam blass. Das passiert bei der 7900XTX mit fsr nicht. Dafür liefert die aber zu geringe Bildraten. FSR gibt immer ein scharfes Bild aus, während ich bei DLSS den Schärferegler brauche. Dafür ist DLSS um einiges ruhiger. Also ich verstehe schon, was du mit Unterschieden meinst.

Man sieht an so einem Austausch halt wirklich schön, wie unterschiedlich die einzelnen User sind. Stromverbrauch ist mir quasi wurscht, war er aber auch immer schon. Persönlich würde ich mir aber auch selten albern vorkommen, wenn ich bei der Wahl der GPU um 50-100w diskutieren würde, dann aber fast täglich mein E-Auto 11.000W über zig Stunden lang aus der Dose ziehen lasse und ich hab kein Solarpanel irgendwo hängen und suche mir nicht den günstigsten Tarif. Um ehrlich zu sein, weiß ich überhaupt nicht was mich die kW/h kostet. Es ist mir halt tatsächlich wurscht.
 
Nochmal zurück zum Anfang,

Will ich die Hersteller kritisieren zum Thema Preis, anhand der Produkte dann muss ich die UVP heran ziehen und dann war der Aufpreis zur 4090, von der xtx nur bei 500€.

Und das war die 4090 in jedem Fall wert. Selbst jetzt, bei plus 900€...
Raster +35%
RT Parcours +80%
PT +200%

Dann kommt noch dlss / fsr. Habe es die Tage selbst nochmal verglichen anhand meiner spiele und was es so zu lesen gibt. Auch in 4k ist dlss jederzeit überlegen, wenn gleich mir fsr reichen würde in 4k. Wenn ich die Wahl habe nehme ich aber dlss.

Dann weitere Vorteile bei RT durch Ray reconstruction.

VR ist auch grünes Terrain.

Dann gesellt sich die Effizienz auch noch dazu. Man darf ja das ganze nicht vergessen.

Lange Rede, kurzer Sinn. Für einen individuell mag es subjektiv Gründe für die xtx geben.

So ist es subjektiv sogar so, das die xtx mir gegenüber der 4070ti super nichts bietet das den Aufpreis rechtfertigt, bzw. Einen Wechsel verlockend macht.

Da mir VR, RT schon sehr wichtig sind und ich die Unterschiede zwischen fsr und dlss sehe.

Ein anderer wird RT gering schätzen und VR vielleicht nicht nutzen und daher klar die xtx bevorzugen, gegenüber einer Nvidia Karte.

Bei fsr gibt es Probleme die gleichbleibend über alla Spiele bestehen bleiben. Das liegt nicht an der menpower. Daran stört sich aber nicht jeder, gerade beim Spielen.

;) beste Grüße
Genau meine Gedanken. AMD liefert einfach das schlechtere Ergebnis. Das sehen einige AMD Fanboys nicht. Das sind aber eben Leute, die finden auch grüne Hosen auf pinken Oberteile schön (etwas überspitzt). Das ist eben Geschmacks- und Perspektivensache. Aber es wäre schon schön, wenn AMD die Qualität einfach mal steigern könnte. Die haben sich immer nur in den Schatten gehangen. Brachte NVIDIA etwas raus, musste das irgendwie nachgebaut werden. FSR fand ich schon immer nicht so schön. DLSS war am Anfang auch nicht zu gebrauchen. Ich erinnere mich, wie ich es das erste mal mit der RTX 2070 Super bei Control oder Shadow of the Tomb Raider probiert habe. Inzwischen tauchen aber leider immer wieder mal Ghostingprobleme auf.
Kann durchaus sein. Wenn ich bei der 4080 in RT Spielen DLSS zuschalte, wird es seltsam blass. Das passiert bei der 7900XTX mit fsr nicht. Dafür liefert die aber zu geringe Bildraten. FSR gibt immer ein scharfes Bild aus, während ich bei DLSS den Schärferegler brauche. Dafür ist DLSS um einiges ruhiger. Also ich verstehe schon, was du mit Unterschieden meinst.

Man sieht an so einem Austausch halt wirklich schön, wie unterschiedlich die einzelnen User sind. Stromverbrauch ist mir quasi wurscht, war er aber auch immer schon. Persönlich würde ich mir aber auch selten albern vorkommen, wenn ich bei der Wahl der GPU um 50-100w diskutieren würde, dann aber fast täglich mein E-Auto 11.000W über zig Stunden lang aus der Dose ziehen lasse und ich hab kein Solarpanel irgendwo hängen und suche mir nicht den günstigsten Tarif. Um ehrlich zu sein, weiß ich überhaupt nicht was mich die kW/h kostet. Es ist mir halt tatsächlich wurscht.
Wenn ich inzwischen die Preise bei meinem Stromanbieter, den ich gerade wechsel sehe, sollte das einem schon interessieren.
 
Kann durchaus sein. Wenn ich bei der 4080 in RT Spielen DLSS zuschalte, wird es seltsam blass. Das passiert bei der 7900XTX mit fsr nicht. Dafür liefert die aber zu geringe Bildraten. FSR gibt immer ein scharfes Bild aus, während ich bei DLSS den Schärferegler brauche.

FSR gaukelt dir nur ein scharfes Bild vor, durch harte Kontraste. Aber eigentlich ist es schon harter Zägezahn.
Genau das hast du bei DLSS nicht.
Dafür ist DLSS um einiges ruhiger. Also ich verstehe schon, was du mit Unterschieden meinst.
Ja, ich auch bei dir.
Aber gerade die Unruhe bei FSR ist für mich leider extrem störend.
Man sieht an so einem Austausch halt wirklich schön, wie unterschiedlich die einzelnen User sind. Stromverbrauch ist mir quasi wurscht, war er aber auch immer schon. Persönlich würde ich mir aber auch selten albern vorkommen, wenn ich bei der Wahl der GPU um 50-100w diskutieren würde, dann aber fast täglich mein E-Auto 11.000W über zig Stunden lang aus der Dose ziehen lasse und ich hab kein Solarpanel irgendwo hängen und suche mir nicht den günstigsten Tarif. Um ehrlich zu sein, weiß ich überhaupt nicht was mich die kW/h kostet. Es ist mir halt tatsächlich wurscht.

Letztendlich alles eine Frage wie man was priorisiert.
Mein Sauger saugt tatsächlich mit 650W so fest am Boden, das ich den nicht mehr sinnvoll nutzen kann.
Mein Licht im Haus verbraucht nur noch 15% von dem vor fünf Jahren.
Und so weiter und so weiter.

Da spielt bei mir der Rechner auch eine Rolle und vor allem 100W mehr, oder weniger ganz sicher.

Gibt ja einen Grund warum mein 13400F nur bis zu 65W nuckeln darf und meine 4070ti s nur 228W.

Darüber hinaus denke mir demnächts einen Laptop zu holen, der verbraucht noch weniger.
 
Das ist spannend. Bei mir ist's echt ganz genau andersherum. Die harten Kanten sind mir lieber. Ich weiß ja auch dass das einzelne, kleine Elemente im Bildschirm sind. Also ich weiß es sind Kästchen und möchte Kästchen sehen. In einem gewissen Rahmen. Bei DLSS kommt mir das Bild meist etwas zu weich vor, fast verlaufen. So wie Aquarelle. Das trägt bei Farbübergängen dann noch zu diesem blassen Eindruck bei. Weißt du wie League of Legends ausschaut? Kontrastarm, verwaschen, eigentlich würde ich sagen, da hat einer tatsächlich die Texturen vergessen. An diese furchtbare Optik erinnert mich DLSS oft. Zwar längst nicht so krass, aber dennoch etwas. Gerade wenn in der Entfernung Details rekonstruiert werden. Mir ganz persönlich wäre es dann lieber dort die Stufen zu sehen, als dass ich beispielsweise feine Äste sehe, die weichgespült wurden.
 
Zuletzt bearbeitet:
@derneuemann oder ein Mini PC. Das geht auch. Es spielt wohl keine Rolle ob Mini PC oder Laptop. beides sind die sparsamsten Sachen die es zu kaufen gibt. Mehr geht echt nicht mehr.
Da ich aber auch portabel beim Zocken sein will, ist der Laptop die praktische Lösung.

Könnte zwar auch ein 4-6 Liter Mini PC bauen, aber bei der Portabilität ist das nie so praktikabel. Daher hole ich mir erstmal ggfs. einen Übergangslaptop mit einer 3080ti 16GB, oder 4080 12GB, bis RTX5000 Mobile mit beruhigten Preisen daher kommt.
 
Das ist spannend. Bei mir ist's echt ganz genau andersherum. Die harten Kanten sind mir lieber.
Ich sehe da halt kkeine klare Kannte, sondern den Sägezahn und das wirkt auf mich unruhig. Dazu die Unruhe bei der Stabilität.
Ich weiß ja auch dass das einzelne, kleine Elemente im Bildschirm sind. Also ich weiß es sind Kästchen und möchte Kästchen sehen. In einem gewissen Rahmen. Bei DLSS kommt mir das Bild meist etwas zu weich vor, fast verlaufen. So wie Aquarelle. Das trägt bei Farbübergängen dann noch zu diesem blassen Eindruck bei. Weißt du wie League of Legends ausschaut? Kontrastarm, verwaschen, eigentlich würde ich sagen, da hat einer tatsächlich die Texturen vergessen. An diese furchtbare Optik erinnert mich DLSS oft. Zwar längst nicht so krass, aber dennoch etwas. Gerade wenn in der Entfernung Details rekonstruiert werden. Mir ganz persönlich wäre es dann lieber dort die Stufen zu sehen, als dass ich beispielsweise feine Äste sehe, die weichgespült wurden.
Für mich sieht das DLSS Bild deutlich echter aus und bei FSR nur die Kontraste übersättigt.

Am meisten stören mich aber die Probleme bei dynamischen Bildern, wie ein Rauschen. Ob vor Wäldern, Wiesen, oder was weiß ich. Das kann ich nicht... Das ist für mich wie ein Hammer.
 
Effizienz ist doch sowieso relativ.

Ich sehe das bei meiner 4070ti im Vergleich zur alten 1080. Die TDP ist höher, aber wenn ich Settings oder Games nutze, die die 1080 schaffte, dann reden wir plötzlich von 90W gegen 180W zu gunsten der ti.
 
Wenn man das Thema so angeht und dann noch mit Energiewende kommt sollte man Elektronische und sonstige die nicht von nöten sind im Alltag einfach auslassen und nicht kaufen.

Damit ist das Gespräch beendet.
Oder Maß halten mit dem was man tut. Man findet für alles Gegenargumente. Vor allem für Dekadenz. Spaß kostet halt, und die dosis macht das Gift. Viele vergessen jedoch schnell das der eigene Wohlstand nicht nur an der eigenen Leistung hängt. Und wenn man die Bodenhaftung verliert weil das exzessive Leben einfach zu gut schmeckt und sich selbst nimmt ohne über den Bedarf anderer nachzudenken. Ja wo landen wir dann wohl früher oder später.

Schau dich mal um. Was denkst du wieviele exzessive Menschen vertragen Planet und Gesellschaft noch bis es wieder kracht ?

Von welcher Seite ich das mit meiner Erfahrung betrachte und beurteile und bewerte, na das überlasse mal fein mir, das hat nicht dein Problem zu sein. Und ist auch mein gutes Recht laut Gesetz ! 😌
 
Die Specs werden immer klarer. Mit 10.752 FP32-ALUs (übrigens genauso viel wie bei einer RTX 3090 Ti) kann man eben keine Mega-Sprünge machen, der Chip ist zu schmal. Nur GB202 hat das Potenzial zum Brecher.
Raff, die RTX 4080 hat auch die 3090TI weggehauen, obwohl die auf dem Papier stärker war, das ist kein Argument.^^
Und eine 4070TI nicht super war auf Augenhöhe mit der 3090TI ;)
 
Sofern ich mich erinnere hatte die rtx3090ti 82sm bei 1,8ghz mit glück. und die rtx4080 76sm und 2,7ghz
Allein der taktunterschied bringen +50% dazu paar alu mehr und man ist bei den aktuellen +57% Ist es weniger dann liegt das primär am cpu limit.
Bei der rtx4090 vs rtx5080 treten 128sm 2,6ghz vs 84sm 3,0ghz an da wird kaum was schneller sein als die 80sm einer rtx4080 super eher sehe ich hier noch einen größeren abstand zum high end sku die 170sm 2,6ghz hat
Es dürften 75% sein ich ahne aber das kaum eine cpu die sku auslasten können wird selbst auf 2160p nicht
Womit der Sinn dieser sku sich mir entzieht warum diese maximal tbp wo diese nicht notwendig ist
Mit glatten 2,4ghz und nur 400w tbp wäre die gb202 sku perfekt.
Gleiches gilt für den gb203 sku mit dann 84sm und nur 2,6ghz =240w
Der perf. Vorteil wäre zwar weg aber es wäre deutlich effizienter. Die letzte sku wo die 3,0ghz unsinnig sind ist die rtx5070ti mit 70sm da reichen auch die norm von 2,6ghz und man wäre bei 200w
nur blöd das die kleineren sku auf sf4 basieren und somit die rtx5070 mehr watt bräuchte (235w) als die rtx5070ti weswegen man den Brechstangenmodus nutzt mit dann 300w tbp für gerade mal +200mhz mehr
Die endgültige tbp legt nvidia fest kurz vor launch und ist primär dem marketing überlassen gut möglich das die tbp grenzen der sku sich nicht wesentlich unterscheiden etwa gb202 440w und gb203 320w/280w
Das ist etwas was man im vbios festlegt daher kurzfristig umsetzen kann.
 
Ja genau der takt beeinflusst den stromverbrauch und auch wie die Abwärme der gpu so ist. Man kann sie auch selbst senken. freilich senkt man damit auch die Rohrleitungen. Es gibt immer vor und Nachteile. Den Rest kann man ja eh nicht drosseln. Nur noch den vram takt und das war es dann.
 
Zurück