News Geforce RTX 5080 wird Geforce RTX 4090 nicht erreichen

Nein (Die Watt), der Energiekonsum bleibt nicht.

Wenn ich eine sowieso schon effizientere Karte, im Powerlimit weiter kastriere senke ich den Verbrauch.

Eine 4090 mit 300W Powerlimit leistet ohne zusätzliches UV noch das was die 4080 leistet, eher sogar noch mehr und verbraucht trotz des größeren Speichers noch weniger.

Bei 320W leistet die noch relativ deutlich mehr und verbraucht das selbe.
Egal ob ab Werk 450W drauf steht, dann sind es nurnoch maximal 320W.


Hä...
DLSS sieht weiterhin besser aus. RT für dich nicht wichtig, aber für andere und selbst ohne RT ist die 4090 mal eben 1/3 schneller.

Ok, ganz ohne RT wäre die XTX auch für mich eine Option gewesen, die 24GB sprechen dann klar für die. Aber FSR hat ein paar Eigenschaften, die für mich es leider in jetziger Form ausschließen.

Man kann sich eine XTX sicher schön saufen (nur eine Anspielung), aber die 4090 bleibt immer die bessere Karte und in Summe über alle Eigenschaften sogar Meilenweit.
DLSS gefällt mir nicht und FSR habe ich bei MW5 versucht. Auch nicht meine Welt.
Aber was Du wohl nicht verstehen möchtest: EGAL wie super Du Deine 4090 betreibst, bleiben 320W eben doch 320W, die auch bezahlt werden müssen.
Ja, Du hast mehr FPS uns Spiegelungen in Pfützen und trotdem mußt Du am Ende des Tages die 320W bei Deinem Anbieter bezahlen. Da beißt die Maus keinen Faden ab.
Gruß T.
 
DLSS gefällt mir nicht und FSR habe ich bei MW5 versucht. Auch nicht meine Welt.
Aber was Du wohl nicht verstehen möchtest: EGAL wie super Du Deine 4090 betreibst, bleiben 320W eben doch 320W, die auch bezahlt werden müssen.

Erst war es die 4090 wegen den 450W, dann sage ich das die auch mit 320W beispielhaft betrieben werden kann und immer effizienter bleibt. Dann plötzlich möchte ich nicht verstehen das eine 320W bis zu 320 aus dem Netzteil saugt...

Verstehe ich nicht. Aber egal, ich mache mir jetzt ein schönes Wochenende und brate mit meiner 285W Karte, mit korrekter Beleuchtung sicher bis zu 228W aus dem Netzteil.

Lies bitte deine Beiträge nochmal
Ja, Du hast mehr FPS uns Spiegelungen in Pfützen und trotdem mußt Du am Ende des Tages die 320W bei Deinem Anbieter bezahlen.
Und das ist bei einer XT, oder XTX anders ? (Keine Angst ist rhetorisch)
Da beißt die Maus keinen Faden ab.
Gruß T.
Ich habe nie etwas anders behauptet.

Bezüglich DLSS würde mich interessieren, was du zum Beispiel in 4k daran auszusetzen hast und was du bevorzugen möchtest. Da kann man dann tatsächlich über Unterschiede reden.

Jedem der sich für Bildvergleiche interessiert, kann ich auch nur zusätzlich von techpowerup die Game tests empfehlen.

Aber auch hier gibt es sicher Geschmäcker.
 
Zuletzt bearbeitet:
Ja, Du hast mehr FPS uns Spiegelungen in Pfützen und trotdem mußt Du am Ende des Tages die 320W bei Deinem Anbieter bezahlen. Da beißt die Maus keinen Faden ab.
Doch, da eine Graka im Alltag bestimmt nicht nur die Zustände abgeschaltet und Volllast erfährt. Wenn man also Teillast und 2D Betrieb mit betrachtet, nimmt eine 4090 dennoch weniger Engerie auf als eine 7900XTX.
 
OK wo steht denn eine rtx 4090 bei 75 Watt, gegen welche gpu kann sie ankommen bzw duellieren. Ist bestimmt besser als die rtx 4060 aber schlechter als eine rtx 4070. Wobei es echt spannend wäre wie es aussieht bei rtx 4060 @75 Watt vs rtx 4090 @75 Watt. Wie es da so aussieht wenn vram nicht limitiert und sonst auch nix. Also sprich beides ohne rt und Speicher Mangel bei keinem der beiden. Also unter besten bedingung halt eben. Gegen eine rtx 3050 kommen ja beide an, aber nun ja sowas wird unter diesen Punkten niemals wer genau so testen. Wenn ich es könnte würde ich das echt kurz testen. betreiben nicht weil mir die 2000 € zu schade dafür sind. Denn wenn ich Geld zu verbrennen hätte, würde ich das lieber in ein treadripprr System stecken als in eine sau teure gpu wo ich 0 Vorteile daran hätte weil das einzige Argument stromverbrauch ist irgendwie super lahm wie ich finde.
 
Wer hat der hat. Der Preis der 5090 sollte für existierende 4090-Nutzer Kleingeld sein. Ob eine Grafikkarte jetzt 4000 oder 5000 Euro kostet macht in dieser Preisklasse auch keinen Unterschied mehr.
Das ist ja totaler Quatsch. Ich habe mir z.B. die RTX 4090 genau aus den Gründen geholt, damit ich A) ausreichend VRAM habe und B) diese auch jetzt noch gut mithalten kann. Das scheint sich ja zu bewahrheiten. Ich müsste mir mit der neuen Generation trotzdem eine Grafikkarte für mindestens Preis X kaufen.

Und bei der 3090 war komischerweise das Gerede nicht so groß. Die war für Rohleistung / Abstand viel zu teuer. Zudem passte die Rohleistung nicht zu dem großen VRAM.

Und reich bin ich jetzt auch nicht unbedingt. Das war reine Abwägung. In der 40er Generation fand ich von Anfang an die 4090 die einzig sinnvolle für 4K. Ich finde sie auch zu teuer, aber eben auch wieder realtiv. Man sieht ja wie der Markt ist.

Und komischweise rüsten die Leute immer alles mögliche für hunderte Euros nach. Dabei ist gerade die GPU oftmal die Bremse.
 
Zuletzt bearbeitet:
zu der Rt perf. nur eins aktuell kann ich kein vergleich machen ob mehr rt Cores mit mehr Takt skalieren oder Grundlegender eher die Sm Struktur dafür verantwortlich ist.
Die nächste sku wird mit Sicherheit ad104 46sm oder gb205 40sm
Die erste warte ich ab wenn ein gutes Angebot gibt etwa 489€ sofort
Die zweite hoffe ich das dies die rtx5060 mit 12gb wird aber die chancen sind eher gering es wird wohl eher ne rtx5060ti mit 10gb

Dann hatte ich die Idee das man von den x8 lanes auf der gpu diese wird es nur geben dann ein proprietären m2 slot Speichererweiterung gibt mit tlc nand von 32gb,
Das wäre zwar rtx50 exklusiv benötigt ne eigene api aber wäre ein Ausweg aus dem vram problem
Anbindung pcie5 x8 (64gb/s +den 560gb/s) Das wird dann irgendwann in den Treiber automatisch in jeden game mit dx12 api umgesetzt.
Das Protokoll wäre direct storage und würde massiv dem vram stottern entgegenwirken

Das trifft auf alle rtx50 gpu zu, die monolithisch sind also gb205 gb206 und gb207
Die großen chips die haben eine andere Strategie.
gb202 wird ein chip in cowos mit 2 configs.
intakte gb202 werden dicken chip, teildefekte gb203 wo 50% defekt sind

sprich gb202 gibt es etwa 78 intakte quadro rtx gb202 170sm desktop rtx5090 144sm quadro rtx
halber chip etwa 42stk 84sm rtx5080 rtx5070ti 70sm Die Reste also
Da wird es definitiv ne rtx5080ti geben mit 120sm und 384bit irgendwann wenn amd rdna5 mit 120cu bringt (rtx4090 lvl)

Für was anderes außer direct storage lässt sich die m2 ssd nicht nutzen quasi das wird man als vram Speicher bei ll Modelle nicht funktionieren.

Aktuell gehe ich eher davon aus das die dxr perf. maßgeblich von Takt und rt cores abhängt und wieviel die alu belastet werden da hilft nur mehr fp32 Operationen per sm
Das denoising wird immer noch nicht in Echtzeit gehen . Die int32 sind quasi nur für legacy software relevant
Die tensor cores haben sowieso abseits paar filter kaum Arbeit die sind in games noch nie genutzt worden.
ich nehme sogar an das man die 4th gen tensor kerne halbieren wird.
 
Für int8 int4 Operationen für ML die chips werden primär für Datacenter entworfen sekundär für den desktop zweitverwendet
ML gibt es seit seit Jahrzehnten und die Modelle die auf Mathe basieren algorithm sind zuverlässig diese ganze ai Geschwafel beruht auf Statistik und zielt primär auf investor geld.
Inwieweit dlss berechnet wird ist unklar sicher ist das es ein algo ist der Vorberechnet wurde also haben die tensor kerne in einer gpu nix zutun.
Sie können denoisen das aber ist Latenz technisch problematisch. Aktuell geht das nicht in Echtzeit das was wir als dlss kennen ist nix anderes als ein verbesserter spatial upscaler, darum kann man ja auch beliebig die dll tauschen bei spielen die dlss nutzen. Sofern von der exe nicht versteckt.
Da wird nix extra für ein spiel trainiert und erst recht nicht denoised
Will man seine tensor kerne nutzen nimm blender und lass mal ein Bild das rt nutzt denoisen den dass geht damit.
 
Also das denoisen kann man für Videos nutzen. Also ein Video nehmen, 4 x hoch skalieren und dann wieder runter skalieren. Gegen interlaced kann man mit der gpu auch was machen. Damit überfordert man sogar eine rtx 4090.
ich kenne wen der hat aus 720x576 Videos 4k hoch rechnen lassen und noch was gemacht und dann wieder runter rechnen. Die Bildqualität hat sich verbessert. Ich wusste nicht wie hart man drauf sein kann. Zeit kosten 30 mintuen für eine 20 Minuten Folge einer anime Serie.
er wird es dann mit einer rtx 5090 noch mal probieren weil so 15 oder 20 fps sind ihm zu wenig für das durch ziehen. Mal sehen wo bei der person die Schmerzgrenze ist.

Nun weiß ich wofür die tensor Kerne gut sind. Für solche die alles mit der gpu machen und auch nicht vor Zeitdauer zurück schrecken. Alles zum wohle der video Bildqualität eben.
ich selbst stehe eher auf geschweindigkeit und platz ersparnis. Also das genaue Gegenteil von reiner Bildqualität und scheiß drauf auf Speicherplatz Verbrauch.
 
Naja bei meinen vertauschen MPEG ts hat es zumindest die Details hervorgebracht die vermatscht waren. Er nutzt ja auch die ki also Ai genannt. Und ja details sind mehr zu sehen, sieht dennoch unartürlich aus. Weil das garnicht so vorgesehen war.
 
Zuletzt bearbeitet:
Ich habe aber auch gelesen, dass bei den Leaks zur 4090 auch so hohe Werte im Raum standen. Man muss es sicher mal abwarten.
Die 4090 ist in Relation zur Power recht effizient, hab ja selbst eine;) Und die anfangs kolportierten 600W (Nvidia wusste damals wohl nicht genau, was AMD im Köcher hatte) erreicht sie in keinem Game, Spitzen bis 450W sind natürlich drin. Im Schnitt sind es allerdings eher 300-350W.

Wenn man dat Schätzgen per UV/Powerlimit zusätzlich etwas einbremst, verliert man kaum Power und dat Biest wird noch effizienter...

In Sachen 5090 wird man sehn, da Nvidia diesmal keinerlei Konkurrenz fürchten muss, brauchen sie aber auch diesmal keine Brechstange anlegen. Sicher, sie wird ganz gut an der Dose nuckeln. Allerdings sehe ich da eher wieder 400-450W im Gaming-Schnitt.

Wenn man nicht overall 300Fps (:D) braucht, sogar weniger.

@Accolade: auch die Reichen gehen gern mal günstig shoppe...

Gruß
 
Die 4090 ist in Relation zur Power recht effizient, hab ja selbst eine;) Und die anfangs kolportierten 600W (Nvdia wusste damals wohl nicht genau, was AMD im Köcher hatte) erreicht sie in keinem Game, Spitzen bis 450W sind natürlich drin. Im Schnitt sind es allerdings eher 300-350W.

Wenn man dat Schätzgen per UV/Powerlimit zusätzlich etwas einbremst, verliert man kaum Power und dat Biest wird noch effizienter...

In Sachen 5090 wird man sehn, da Nvidia diesmal keinerlei Konkurrenz fürchten muss, brauchen sie aber auch diesmal keine Brechstange anlegen. Sicher, sie wird ganz gut an der Dose nuckelt. Allerdings sehe ich da eher wieder 400-450W im Gaming-Schnitt.

Wenn man nicht overall 300Fps (:D) braucht, sogar weniger.

@Accolade: auch die Reichen gehen gern mal günstig shoppe...

Gruß
Das denke ich auch. Irgendwie hat das bei mir nicht so gut geklappt über die Anpassungskurve. War mir nachher zu fummelig. Die Leistung soll ja nicht darunter leiden. Welche hast du denn? Ich habe die Gainward Phantom. Ja die 400-450 Watt Spitze hast du meistens bei Raytracing/Pathtracing/UE5 in voller Pracht.
 
Das denke ich auch. Irgendwie hat das bei mir nicht so gut geklappt über die Anpassungskurve. War mir nachher zu fummelig. Die Leistung soll ja nicht darunter leiden. Welche hast du denn? Ich habe die Gainward Phantom. Ja die 400-450 Watt Spitze hast du meistens bei Raytracing/Pathtracing/UE5 in voller Pracht.
Ich hab die "Disco-Kugel", Palit GameRock. Hab das Powerlimit bei mir auf 80% und MIR persönlich reichen in UHD 60-75Fps gut aus...

Daher frisst sie meist ~300W, oft sogar weniger:)

Gruß
 
Ich hab die "Disco-Kugel", Palit GameRock. Hab das Powerlimit bei mir auf 80% und MIR persönlich reichen in UHD 60-75Fps gut aus...

Daher frisst sie meist ~300W, oft sogar weniger:)

Gruß
Soll ja auch ein gutes Custom-Design sein. Die hatte ich auch mal im Auge. Ich hoffe mal, dass NVIDIA nicht wieder mit einer neue Technologie nur für die 50er-Reihe um die Ecke kommt.
 
Ich habe aber auch gelesen, dass bei den Leaks zur 4090 auch so hohe Werte im Raum standen. Man muss es sicher mal abwarten.
Die 600W waren wohl prognistiziert weil noch mit 8 Nanometer kalkuliert wurde. Da TSMC wohl schneller als erwartet 5 Nanometer anbieten konnte wurde dann darauf gewechselt. Was dann zur Folge hatte das die TDP auf 450W sank.
Die großen Kühllösungen der 40er Serie sind halt wohl ebenfalls den Planungen mit 8 Nanometer geschuldet. Da war schon alles bestellt, bzw sogar waren die Kühler schon angeblich in Produktion und man konnte dann nicht mehr wechseln.

Da aber kein Wechsel auf 4 Nanometer oder kleiner bei der 50er Serie erwartet wird kann man die Situation heute mit der damaligen Situation nicht vergleichen.
 
Die 600W waren wohl prognistiziert weil noch mit 8 Nanometer kalkuliert wurde. Da TSMC wohl schneller als erwartet 5 Nanometer anbieten konnte wurde dann darauf gewechselt. Was dann zur Folge hatte das die TDP auf 450W sank.
Die großen Kühllösungen der 40er Serie sind halt wohl ebenfalls den Planungen mit 8 Nanometer geschuldet. Da war schon alles bestellt, bzw sogar waren die Kühler schon angeblich in Produktion und man konnte dann nicht mehr wechseln.

Da aber kein Wechsel auf 4 Nanometer oder kleiner bei der 50er Serie erwartet wird kann man die Situation heute mit der damaligen Situation nicht vergleichen.
Interessant. Das wäre wegen des großen Kühlkörpers gar nicht so abwägig.
 
Zurück