News Geforce RTX 5090: Neue Gerüchte sprechen von 70 Prozent Mehrleistung zur Geforce RTX 4090

Wenn der Vollausbau des Chips der in die 5090 kommt 70% schneller ist und AMD eh keine Konkurrenz auf den Markt bringt, dann können wir uns eh darauf einstellen, dass die 5090 zuerst als beschnittener Chip kommt der "nur" 30% schneller ist und das gleiche kostet wie eine 4090 jetzt, also 1850€. Die 4090 kann man dann locker für 1400€ weiterverkaufen und die 4080S zum Preis von jetzt.

So hätte man mit einem Chip der wirklich 70% schneller ist als eine 4090 später die Möglichkeit eine Titan zu veröffentlichen, die dann wiederum schneller ist als die 5090 und entweder den Preis des größten Modells stabilisiert, oder den Preis weiter nach oben schiebt.

Mit der Effizienz ist es ganz einfach, wenn man nicht einen total verpeilten Chip hat und auf dem besten Prozess von TSMC baut, dann hat man immer die Effizienzkrone, so einfach ist das. Ein 3nm Chip wird immer effizienter sein als ein 4nm oder 5nm Chip.
 
Der AD102 deiner 4090 kann nur 89% seiner Shader nutzen, so stark beschnitten und zugleich so teuer war noch nie ein Chip bei der Flaggschiffkarte. Deine Aussage mutet deshalb etwas merkwürdig an.
Wieso nur 89%?
Dann muss Nvidia durch Treiber mehr aus den Leistungsreserven der 4090 rausholen können. Es kann doch nicht technisch limitiert sein!? 🧐
Deshalb ist der Chip ja auch beschnitten, weil die Speicherbandbreite sonst nicht ausgereicht hätte, um die volle Leistung durchzuschleusen. Oder täusche ich mich da? 🤔
 
Bei einem 3nm Fertigungsprozess wohl kaum 🤔
Die 4000 sind doch effizient wie eine Ameise, verbrauchen wenig aber leisten viel. Also wieso so skeptisch?

Schau mal auf das Thema. Es geht hier um die 5090.
Alle **90er Grafikkarten haben einen verhältnismäßig hohen Energieverbrauch.

Skepsis ist angesagt, weil das schon immer so bei den Topmodellen war, bis runter zur **80 und weil sich die Hersteller auf Gedeih und Verderb übertrumpfen wollen. Da wird aus den Strukturbreiten und den Netzteilen rausgeholt was geht, bis zum Verglühen von Steckern.
Dafür noch mal "herzlichen Glückwunsch" nachträglich. Auch für die neuen "Kackstecker, die sich nur sehr schlecht verbauen lassen weil sie so verwindungssteif sind und sich nicht vernüftig legen.

Bin mal gespannt, wann es soweit ist, sich nicht nur ne Starkstromleitung für Herd und Backofen sondern auch noch für die 1-4 PCs im Haushalt legen lassen zu müssen.

Ich finde die **70er Karten liefern für Full-HD einen gewissen Sweetspot im Bereich Anschaffungspreis und Stromverbrauch. 4080 ist für 4k und 4090 ist einfach nur die "Freakshow". Sorry, wollte keinem auf den Allerwertesten treten, aber so isses doch, hauptsächlich angesichts der Strompreise, die man nur schwerlich vernachlässigen kann.
 
Ich sehe das anders. Sie können ineffizient sein, aber sie können auch sehr ineffizient sein. Es kommt auch darauf an, wie man sie verwendet. Sie haben eine High End Kapazität, aber diese h
High Endleistung muss man ja nicht immer nutzen, wenn man sie nicht braucht?
Aber selbstverständlich wollen wir auch eine "Freakshow" haben! Wir wollen doch immer mehr Leistung sehen und deshalb liefern die Hersteller auch solche Karten, weil sich das auch wahnsinnig gut verkauft, völlig egal wie teuer es ist anscheinend.
Ja, der Stecker ist ein einziges Desaster doch mit einem nativen Stecker des Netzteils ist man bisher doch eher auf der sichersten Seite vor allem, wenn man die Karte nicht immer bis am Leistungslimit nutzt. Hatte auch mit den CableMod Adaptern nie Probleme mit der ersten Version des 12VHPWR Anschlusses. Naja anderes Thema.

Ich will aber kein Full HD mehr und ich will auch kein 1440p mehr. Ich zocke auf 65 Zoll und da wollte ich bereits in 2020 ENDLICH ordentlices 4K haben bei so einer Bildschirmgröße. Zumal ich eigentlich bis 2020 ausschließlich Konsolen Spieler war auf einer PS4 Pro, wollte ich es danach aber so richtig wissen. Jetzt weiß ich was Sache ist und es gefällt mir sehr!
Ich liebe das Zocken vom big Sofa aus mit 🎮. Gewöhnliches 🖥️ Spielen habe ich als kleiner Junge bzw Jugendlicher gemacht, das ist für mich persönlich mittlerweile Last last last Gen Gaming 😂nur Arbeiten am PC ist toll auf einem Tisch oder höchstens noch Strategie und Ego Shooter spielen, wobei ich auch Shooter bestens vom Sofa spiele mit vertikalen Maus, Mauspad auf dem Sofa, Azeron Keypad an der Armlehne des Sofas.
Zu den Strompreisen! Die sind doch komplett hausgemacht von der derzeitigen völlig bescheuerten Politik, die einfach alles teurer machen. Ich beschwere mich über die Preise gar nicht mehr bei den Grafikkarten, denn auch Wasser und Brot ist doppelt, wenn ich dreifach so teuer! Da finde ich die Grafikkarten selbst die 4090 verhältnismässig human. Aber insgesamt gesehen sind die Preise insgesamt auch völlig kaputt. Aber da können wir uns ja bei unserer Politik bedanken. Man muss halt Massnahmen treffen, damit man Strom spart und sein Hobby weiterhin voll und ganz geniessen kann. Deshalb nutze ich die 4090 ja auch undervolted, mit DLSS und meist ohne Raytracing, was für mich völlig ok ist. Wenn ich Leistung brauche, habe ich sie parat. Und lieber habe ich in die 4090 investiert, als meine Kohle auf der Bank liegen zu haben, wo es genauso wenn nicht sogar schneller an Wert verliert als bei der 4090 😂 also ich habe nicht im geringsten das Gefühl, dass es eine schlechte Investition war. :)
Zumal kann man die 4090 dann auch vor Release einer 5080 sicherlich gut verkaufen und auf mehr Leistung für weniger Geld umsteigen, wenn man denn unbedingt will.
 
Zuletzt bearbeitet:
Sowas hat aber viel weniger mit der Grafikkarte an sich zu tun, als mit der Optimierung des Spiels!
Man sehe einfach mal die Konsolen an, auch wenn es kein 4K ist, dennoch laufen aktuelle Spiele in 2K/1440p super flüssig mit einer zur 4089/4090 vergleichsweise um Welten schwächeren GPU, werden aber auch dementsprechend gut an die Hardware angepasst.
Sich nun aber deshalb immer die stärkste und teuerste GPU kaufen zu müssen, um schlechte Optimierungen der Spiele wieder auszugleichen, ist definitiv der falsche Weg. Da warte ich lieber ganze Jahre, bis Spiele ordentlich optimiert sind und die GPUs durch ihre Treiber gut ausgereizt werden, als sich jede Generation die bestmögliche GPU kaufen zu müssen, damit die aktuellsten Games möglichst flüssig laufen.
Du verdrehst da ein paar Fakten.
Die Konsole hat nicht dieselben Grafikeinstellungen (hier fängt die "Optimierung" auf der Konsole an) und du redest auch von 1440p.
Mit der kleineren Auflösung und weniger Grafikdetails braucht die GPU auch nur ein Drittel soviel arbeiten wie in 4k mit max Details.
Eine Konsole hat eine GPU, die ist so schnell wie etwa eine 6700XT/2070 und in 4k ist die 4090 3 mal so schnell wie die 6700XT. Merkste was?

Alles hat rein nichts mit schlechter Optimierung zu tun. Gute Optimierung auf der Konsole hieße, das die schneller läuft als ein gleich starker PC mit denselben Einstellungen. Solche Fälle gibt es, sind aber mittlerweile eher eine Ausnahme für Multiplatform Titel.
Nur konsolenexklusive Titel sind oft stark optimiert, aber die kann man ja dann nicht mit dem PC vergleichen...
Alle **90er Grafikkarten haben einen verhältnismäßig hohen Energieverbrauch.
Die 690 hatte 2 Chips und der Verbrauch stieg von 195W auf 300W.
Dann kam lange nichts bis zur 3090 mit 350W, dabei hatte die 3080 auch noch 320W.
Nun kam die 4090 mit 450W, aber die läuft selten überhaupt so hoch und man kann sie halt auf unter 300W drosseln ohne großen Verlust.
Richting eingestellt kann die auch Spiele mit weniger als 200W in 4k darstellen. Kommt halt auch auf die Grafik an.
Und auf FPS/W gerechnet ist die 4090 weit vorne... selbst mit den Stock 450W, mit UV halt noch weiter.
 
Zuletzt bearbeitet:
Du verdrehst da ein paar Fakten.
Die Konsole hat nicht dieselben Grafikeinstellungen (hier fängt die "Optimierung" auf der Konsole an) und du redest auch von 1440p.
Mit der kleineren Auflösung und weniger Grafikdetails braucht die GPU auch nur ein Drittel soviel arbeiten wie in 4k mit max Details.
Eine Konsole hat eine GPU, die ist so schnell wie etwa eine 6700XT/2070 und in 4k ist die 4090 3 mal so schnell wie die 6700XT. Merkste was?

Alles hat rein nichts mit schlechter Optimierung zu tun. Gute Optimierung auf der Konsole hieße, das die schneller läuft als ein gleich starker PC mit denselben Einstellungen. Solche Fälle gibt es, sind aber mittlerweile eher eine Ausnahme für Multiplatform Titel.
Nur konsolenexklusive Titel sind oft stark optimiert, aber die kann man ja dann nicht mit dem PC vergleichen...
Das ist mir doch völlig bewusst und sicher, das merke ich seit 2020 bereits...eine RX 6700 non XT sogar um genauer zu sein :)
Siehe relativ aktuelles Video von Digital Foundry zur PS5 vs PC bei gleichen Specs.
Aber gerade doch, deshalb wollte ich ein vernünftiges Upgrade haben zu den Konsolen und endlich vernünftiges 4K Gaming, was im 21. Jahrhundert doch schon wohl längst völlig Mainstream sein müsste. Finde da entwickelt sich die Technik viel zu langsam, was ja aber kein Wunder ist, da man das auch künstlich bremst, weil das ja Kohle kostet und alles unter 4k wird ja bestens verkauft also gibt's keinen Grund voll und ganz in 4k zu investieren, was ja aktuell immer noch eher ein Luxus Bereich ist, wenn man das in voller Pracht und flüssig genießen will.

Ich meine ja auch gut optimierte Spiele wie Exclusives. Das Problem ist ja genau da, das PC Spiele häufig eben nicht gut optimiert sind. Klar, das Problem liegt ja daran, dass jeder einen anderen PC hat und eine andere Grafikkarte. Können ja auch nur bedingt optimieren z.b auf AMD oder Nvidia GPUs. Und deshalb dauert es ja oft länger bis Spiele auf dem PC heranreifen. Ist mir völlig bewusst.
Dennoch kann ich es mir wirklich sehr schwer vorstellen, dass ein Alan Wake 2 so viel Leistung benötigt auch bei maximaler Pathtracing in 4k, wenn man das Game, alles was nur geht optimieren würde. Da würde bestimmt eine 4070 mehr als ausreichend für flüssiges 4k.
 
Zuletzt bearbeitet:
Dennoch kann ich es mir wirklich sehr schwer vorstellen, dass ein Alan Wake 2 so viel Leistung benötigt auch bei maximaler Pathtracing in 4k, wenn man das Game, alles was nur geht optimieren würde.
Um ehrlich zu sein, das PT überhaupt läuft liegt daran das man PT stark beschnitten hat.
Man vergleiche es einfach mit der Filmeindustrie, wo RT/PT schon länger als auf dem PC im Gebrauch ist. Dort muss ein Film Monate lang in einer Serverfarm rendern, bis es fertig ist. Auf dem PC darf es nicht länger als ein paar Millisekunden dauern.
Einfacheres RT ist da genauso beschnitten, wenn nicht noch mehr.
RT und PT haben viele komplexe Bauteile (z.b. Schatten, Spiegelungen, Licht) und in vielen Spielen werden nur oft nur 1-2 dieser Bauteile genutzt. Das merkt man auch daran, das AMD Karten in diesen "RT"-Spielen nicht viel langsamer sind als Nvidia. :D

Bis volles PT auf dem PC möglich ist....nun entweder dauert es noch 2-3 Jahrzehnte oder es wird nie kommen, sondern nur auf Supercomputern übers Netz. Echtes VR z.b. man hat nur eine Brille und die Daten kommen übers Netz von dem Supercomputer, sowas wie Ready Player One.
 
Die restlichen Shader sind deaktiviert. Der AD102 Vollausbau hat:
  • 18432 Shader
  • 144 RT Cores
  • 576 Tensor Cores
  • 576 Texture Units
  • 96 MB L2 Cache
AD102-300 auf der 4090 hat:
  • 16384 Shader
  • 128 RT Cores
  • 512 RT Cores
  • 512 Texture Units
  • 72 MB L2 Cache
Deshalb ist der Chip ja auch beschnitten, weil die Speicherbandbreite sonst nicht ausgereicht hätte, um die volle Leistung durchzuschleusen. Oder täusche ich mich da?
Du täuschst dich, Ada ist nicht wirklich bandbreitenlimitiert, VRAM OC bringt deshalb nur sehr wenig. Den VRAM der 4090 um zusätzliche 1500 MHz aufdrehen bringt in Cyberpunk 4-5 FPS. Die Bandbreite steigt dadurch von 1,08 TB/Sek. auf ca. 1,15 TB/Sek.
 
Bezüglich der Preise hab ich gestern einen Artikel gelesen, der ganz interessant war. Wirklich viel teurer als früher sind GPUs nicht, wenn man mal die Inflatiokn mit einberechnet.

2024-03-03_21-56-15.jpg
 
Um ehrlich zu sein, das PT überhaupt läuft liegt daran das man PT stark beschnitten hat.
Man vergleiche es einfach mit der Filmeindustrie, wo RT/PT schon länger als auf dem PC im Gebrauch ist. Dort muss ein Film Monate lang in einer Serverfarm rendern, bis es fertig ist. Auf dem PC darf es nicht länger als ein paar Millisekunden dauern.
Einfacheres RT ist da genauso beschnitten, wenn nicht noch mehr.
RT und PT haben viele komplexe Bauteile (z.b. Schatten, Spiegelungen, Licht) und in vielen Spielen werden nur oft nur 1-2 dieser Bauteile genutzt. Das merkt man auch daran, das AMD Karten in diesen "RT"-Spielen nicht viel langsamer sind als Nvidia. :D

Bis volles PT auf dem PC möglich ist....nun entweder dauert es noch 2-3 Jahrzehnte oder es wird nie kommen, sondern nur auf Supercomputern übers Netz. Echtes VR z.b. man hat nur eine Brille und die Daten kommen übers Netz von dem Supercomputer, sowas wie Ready Player One.

Deshalb lasse ich es lieber ganz bleiben und lebe ruhiger 🤣👍
 
Würde ja die 4090 vor der 5090 verkaufen und eine 5090/5080 holen aber wäre in meinem Fall, ohne Raytracing und max UV bei 120FPS/Hz bei LG OLED C1 65 Zoll zu nutzen komplett sinnlose zu mal ich noch lange kein Upgrade von AM4 mit dem 5800X3D beabsichtige 🤔
Oder was sagt ihr?
Überlege da eher sogar auf die 4080 Super umzusteigen oder auf eine mögliche RX 8800 CT zu warten, die hoffentlich sparsamer wird als die 7000er.
 
Zuletzt bearbeitet:
Um ehrlich zu sein, das PT überhaupt läuft liegt daran das man PT stark beschnitten hat.
Man vergleiche es einfach mit der Filmeindustrie, wo RT/PT schon länger als auf dem PC im Gebrauch ist. Dort muss ein Film Monate lang in einer Serverfarm rendern, bis es fertig ist. Auf dem PC darf es nicht länger als ein paar Millisekunden dauern.
Einfacheres RT ist da genauso beschnitten, wenn nicht noch mehr.
Das ist ein gar nicht so einfaches Thema und fängt damit an, was man als was definiert.

Bis volles PT auf dem PC möglich ist....nun entweder dauert es noch 2-3 Jahrzehnte oder es wird nie kommen, sondern nur auf Supercomputern übers Netz. Echtes VR z.b. man hat nur eine Brille und die Daten kommen übers Netz von dem Supercomputer, sowas wie Ready Player One.
Was ist für dich volles Pathtracing? Pathtracing as Konzept ist bereits dazu gedacht es eben "voll" darzustellen (also visuell), weil der Unterschied von Raytracing und Pathtracing ist der:

Raytracing verfolgt pro pixel vom PoV einen Ray der durch die Szene bounct bis er zu einer Lichtquelle findet. Dabei wird aber nur direktes Licht beachtet.

Pathtracing verschießt Hunderte oder Tausende Rays von einer Lichtquelle und beachtet dabei auch indirektes Licht, ist aber eigentlich schon ein vereinfachter Ansatz.

Im Grunde wäre als "volles" Raytracing die beste Methode und vermutlich was du meinst, aber von dem Rechenaufwand völlig unrealistisch in absehbarer Zukunft. Man würde wirklich jeden Ray verfolgen, wie er in der Scene bounct und sich (ver)teilt und so weiter. Darum bedient man sich ja Pathtracing.

Man schmeißt nen Haufen Rays in die Scene und berechnet dann nach Wahrscheinlichkeit welchen Pfad die nehmen. Daher kommen dann auch weitere Konzepte wie ReSTIR was auch nur eine weitere Vereinfachung ist oder auch Irradiance Caching zum Einsatz um weitere Abkürzungen zu nehmen und mehr Performance zu produzieren. Metro Exodus Enhanced hat Irradiance Caching zum Beispiel genutzt und sah deshalb so gut aus weil es in dadurch indirekte Beleuchtung simuliert. Mit ein bisschen aus dem Fenster lehnen, kann man das fast schon als Pathtracing bezeichnen.. ^^ Zumindest was visuell rauskommt.

Mir raucht auch jedes Mal der Kopf wenn ich mich da reinlese weil es echt komplet aber interessant ist. :)

Alleine die Tatsache, dass Raytracing den ray vom PoV trackt und Pathtracing den ray von der Lichtquelle trackt ist ein Mindfuck. xD
 
Bezüglich der Preise hab ich gestern einen Artikel gelesen, der ganz interessant war. Wirklich viel teurer als früher sind GPUs nicht, wenn man mal die Inflatiokn mit einberechnet.

Der scheint mit recht sportlichen Inflationswerten zu rechnen. Mehr als 3% auf alle Fälle. Eher 3,5%.

Das Hauptargument ist aber das, wie es die Hersteller samt ihrer PR gerne hätten, von wegen "Moore's law is dead" und "Fallende Grafikkartenpreise gibt es nicht mehr." Er dröselt das hier ja anhand der FPS pro Dollar auf. Und wie man dafür über die Jahre so viel mehr in so viel höheren Auflösungen bekommen hätte. Vorab: Wäre das nicht so, wären Grafikkarten schon vor zehn Jahren absolut unbezahlbar gewesen. Denn es ist eine Sache, zu reflektieren, wie gut man es heute in Sachen Leistung und Bildqualität im Vergleich zum Commodore 64 doch hat. Eine andere ist, damit historisch nie dagewesene Preissteigerungen rückwirkend zu rechtfertigen.

Noch vor seiner Rechnung gabs etwa die Voodoo 1, eine Zeit, als eine damals noch immer aktuelle 3dfx-Voodoo 1 in Unreal 1 in 512x364 Pixeln stabile 30 fps ausgespuckt hatte (mit simpelster bilinearer Texturfilterung, 16bit Farbtiefe und keinen Qualitätseinstellungen whatsoever). Und das galt damals als flott. Und okay. Und womöglich auch nicht so ruppig wie auf heutigen 144Hz-Gamingmonitoren -- 2007 zu Zeiten der 8800 GTX waren selbst 120Hz-Monitore noch ein Nischenthema, maximal. Und sogar manche Röhre noch verbreitet.

Überhaupt, die Technologie und ihr Umfeld zu ihrer Zeit: Die Zielauflösung einer aktuellen etwa RTX 4080 ist 4K samt Raytracing -- Letzteres ist schon im Namen verankert. Ob sie da noch konstant FPS-Rekorde bricht, wenn man dieses mal die Muskeln spielen lässt und den Upscaling-Trick deaktiviert? Alan Wake 2 gibt bereits einen Vorgeschmack davon. Eine Karte, die das irgendwann locker selbst in Alan Wake 4 und in nativem 4K stemmt, müsste also noch mal in ein ganz andere Preisniveaus abheben. Plasma-TVs hätten niemals Schwarzweiß-Röhren ersetzt. Und wenn hier jemand heute seine Frau anrufen wollte, müsste er immer noch erst mal durch die Telefonwählscheiben-Warteschlange. 100-Euro-Smartphones mit der Power früherer Großraumrechner gäbe es nämlich nicht.

Natürlich sind auch Grafikkarten sehr viel komplexer als damals meine MiroHiscore 3D als Voodoo-1-Variante, die Unreal 1 in durchgängig fast stabilen 30fps spielte -- zumindest in 512x384 Pixeln. Und, klar, wir sind da heute ja echt verwöhnt. Schließlich fuhren bereits die direkten Nachfolger der legendären Voodoo 1 ein Vielfaches der FPS in einem Vielfachen der Auflösung auf -- und das schon bald nicht mehr in popeligen 16, sondern in 32bit Farbtiefe. Aber früher nannte man das, als es ein Vielfaches an Leistung für annähernd gleichbleibende oder gar niedrigere Preise* gab, noch Fortschritt. Er hatte übrigens dazu beigetragen, dass PCs als ehemalige Arbeitspferde und Upperclass-Spielzeuge heute keine Nischenkisten sind. Sondern von Millionen selbst als überwiegend reine Gaming-, Streaming- und Unterhaltungs-Plattform missbr... äh, benutzt werden. :fresse:


* Fun Fact: Für die Voodoo 3 hatte ich damals die Hälfte dessen bezahlt wie für die Voodoo 1 (die 2D-Grafikkarte, die die Voodoo 1 noch dringend dazu brauchte, NICHT mit eingerechnet). Und dabei bin ich bei Letzerer nicht mal ein Early Adopter gewesen. Blieb bis heute aber einmalig. Und wirds sicher auch bleiben. :D
 
Zuletzt bearbeitet:
Du kannst ja selber mal die Inflation ausrechnen:


8800 GTX 600€ 2006
Wären heute 867.98.

Durchschnitt 2.1% Inflation

Übrigens: Die 8800GT erschien nicht sehr lange später -- und bot je nach Auflösung annähernd GTX-Performance -- zum fast halben Preis der GTX. Die 8800er samt der legendären GT sind natürlich gerade eine Steilvorlage, so ein "Geschenk" hat Nvidia bis heute nie wieder wiederholt. :D Trotzdem, für Enthusiastenkarten zahlte man schon immer mehr. Wer erinnert sich nicht an GeForce 2 Ultra oder (die erste) GeForce 3?
 
Nehmen wir mal die Geforce 2 Ultra. ^^

Damals release MSRP €499 (finde nur den Dollarpreis, nehmen wir mal als Europreis.)
Wären heute 789.69€

Da geht noch was. :) https://www.spiegel.de/netzwelt/tech/geforce-3-freiheit-fuer-die-phantasie-a-122058.html *


Aber die Preisdiskussion ist einem Thread zum demnächst größten Enthusiastenmodell müßig. Enthusiastenmodelle waren schon immer eine Geschichte für sich. Wenn auch nur die Hälfte der Gerüchte stimmen, was die Leistung der RTX 5090 angeht, dann kaufe ich mir einfach auch eine, fertig. Dazu einen 720p-Bildschirm. Und habe bis ins Grab hinein Ruhe. :D

* Plottwist: Als Doom³ auf den Markt kam, lief es auf der GeForce 3 so semi. Und selbst auf der kleinsten GeForce 4ti besser, die nur mehr einen winzigen Bruchteil kostete, als sie ~ein Jahr nach der 3er rauskam. Nvidia hatte sich trotzdem bestimmt bedankt bei Carmack. Womit, ist bis heute nicht überliefert. :D
 
Zurück