News Geforce RTX 5090 und 5080 erscheinen mit 32 und 16 GiB

Laut PCGH sind es auch bei 100FPS (Frame Gen auf 200FPS)
ca 4 ms bei Preset Qualität 6 ms.
Optisch ist leider kein vergleich vorhanden. Zudem muss man sich bei FG ab Nativen 100-150FPS fragen , sieht man den Unterschied ?
Denn lustigerweise so habe ich das Gefühl wollen die meisten ja FG verwenden bei FPS unter 60 oder unter 90.
Und gerade dort machen die Meisten Frame Gen verfahren Optische die meisten Fehler und auch die Latenz ist nicht mehr 4ms plus sondern meist 7-14 ms.
Wer glaubt das er wirklich sicher eine Mehrlatenz von 7-14ms erkennt träumt.
14ms vielleicht anfänglich, wobei das auch stark vom Spiel abhängt.

Auch der Bereich 60-90 Fps kann gut funktionieren.
Witzigerweise umso langsamer das Display, umso weniger fällt einem der inputlag auf im Selbstversuch, bei mir zumindest.

Auf eine 60Hz Display, das bei 72Hz läuft kein erkennbarer zusätzlicher Inputlag.
Auf einem Display bei 144Hz und mehr, gleiche Settings gleiche Fps spürbarer Inputlag.
(Beispiel ist Stalker 2 mit FG und Ergebnis 83+ Fps, DLSS B statt Q Ergebnis 100+ Fps und kein zusätzlicher Inputlag erkennbar)
Da ich in der Szene bei 100+ raus komme, wird die Framerate ohne FG schon bei 60-90 liegen und auch da funktioniert FG ziemlich gut.

Bei Stalker 2 wird es auch keinen Unterschied machen, ob 10-15ms drauf kommen.
Ob man das Merkt muss jeder selber wissen.

Gerade AFMF sah für mich immer Schrecklich aus (zuletzt getestet 10.2024) aber das darf jeder selber entscheiden.
AFMF2 habe ich die Tage ein Video zu gesehen, in Indiana Jones meine ich. Der Tester war unterwältigt.
16Gib bei einer Karte mit 4090 Leistung finde ich etwas knapp, aber mal schauen was kommt.
Ja, aber die Hoffnung stirbt zuletzt.

Wenn neural texture compressing jetzt in Spiele Einzug erhält, wirst du wohl bei der jetzigen Optik die 16GB wirklich braucht grob nur noch 14GB brauchen. das bei immer noch leicht besserer Optik.

Eigentlich konnte man immer auch mit der knappen Speicherbestückung von Nvidia 4-5Jahre sehr gut zocken. Selbst danach noch, doch dann denke ich sind die Abstriche schon spürbar größer unter Umständen.
Nvidia hängt halt wie immer (bis auf bei dem Top Modell) in der Speicherversorgung eine Generation hinterher und das ist Absicht weil die Produkte dann schneller neu gekauft werden müssen.
Finde ich etwas übertrieben
Wer neu kauft hat kurzfristig mehr für sein Geld ganz einfach.
Kurzfristig und für gewöhnlich für 4 Jahre... Das ist schon eine Nutzungszeit, die für viele hier auch schon wieder länger wäre, als die Karte bei einem bleibt.
Man kann dann mit Treiber und Speichermanagement das ganze bis zur nächsten Generation stabil halten und dann kacken die Karten halt ab...
Sehe ich irgendwie nicht die letzten Jahre.
Aber ich finde auch, das ich in beispielweise neuen Spielen mit RT mit der 3080 und nur reduzierten Texturen, dafür aber mit mehr RT das visuell bessere Ergebnis erziele, als ohne RT, oder deutlich weniger RT, dafür aber maximale Texturen.
Das ganze zieht sich jetzt schon seit Turing...
Deutlich länger schon.
Als eine GTX470 1,25GB hatte, oder die GTX570 hat AMD schon 2GB angeboten. Als Nvidia 2GB hatte, war AMD bei 3GB.
 
Zuletzt bearbeitet:
Man kann über die 16GB der 5080 hetzen, wie man will. Es ist technisch bedingt durch die Größe des Chips, der Speicheranbindung und den Kapazitäten, die aktuell bei GDDR7 produziert werden können ohne die Kosten explodieren zu lassen. Was für Möglichkeiten hätte Nvidia denn? Chip größer= Karte teurer, Speicherinterface halbieren auf 16Bit= Karte teurer, Clamshell mit mehr Chips= Karte teurer, Größere Speicherchips = Karte teurer usw. Eine Karte mit 20GB bei 320Bit oder 24GB bei 384Bit hätte einen größeren Chip vorrausgesetzt und die Kosten wären gestiegen. Man spürt bei den technischen Daten, dass Nvidia verm. eher 999$ versucht zu erreichen und alles mit der Leistung der 2000$ 4090.
 
Tatsächlich bekommt man dafür dann meistens noch einen guten Preis.
Vor allem, wenn ich die letzten Jahre betrachte, dann performt auf 100% der Spiele eine 3080 in über 50% der Spiele immer noch sehr gut im Vergleich zur RX6800(XT).

Selbst in 80-90% der Spiele und wenn man dann die Regler zum Speichermangel beheben bedient, kann man immer noch konkurrenzfähige Optik erzielen. Gerade dank der besseren RT Leistung.

Wer vor 4 jahren650-750€ ausgegeben hat, hat genau Leistung für 650-750€ bekommen. Egal ob man jetzt etwas mehr Speicher sparen muss, oder mehr an neuen RT Features, oder Settings. Das reduzieren auf den VRam ist wenig sinnvoll. Man muss schon das ganze betrachten.


Was an der 5080 grundsätzlich nichts ändert. Für das Geld sollten auch 24GB verbaut sein für meinen Geschmack.

Sofern Nvidia aber wirklich mit ntc um die Ecke kommen sollte, löst sich dieses Problem aber in Teilen auf, bzw. reduziert sich.
Kann man auch vernachlässigen, wenn man nicht im Profilbereich unterwegs ist. Bei SP Games brauchst du nicht mal zwingend 60FPS ohne FG, da kannst auch weniger haben und du merkst minimal eine Verzögerung, wenn du denn darauf achtest. Ändert an der Spielbarkeit trotzdem null. Bist dann aber beispielsweise mit 80FPS unterwegs anstatt 45FPS.
So war es bei mir bei Alan Wake 2.
Mit FG dann rund 80Fps und bei dem eher langsameren Gameplay war das super spielbar ;)

Alan Wake 2 das sich wie Doom anfühlt, hätte sich für mich auch falsch angefühlt
 
Zuletzt bearbeitet:
Die 5090 wird eine Geisteskranke Karte die ich haben muss obwohl ich eine 4090 habe. Die Mehrleistung wird beachtlich sein. Die 5080 ist so wie die 5060 der größte Witz überhaupt. Die 5080 hat etwa 37% weniger shader und nur 16Gb Vram. Wie soll das eine gute UHD Karte sein? Einfach nur lächerlich. Bei anspruchsvollen Titeln kann man selbst auf der 4090 ohne DLSS nicht flüssig spielen.
 
Wirst Du mit der 5090 vermutlich auch nicht, oder nicht lange können. Unterschied wird da auch die Frame-Gen wieder machen, wenn die neue Version exklusiv für Blackwell kommen sollte. Ansonsten wäre Unterschied 4090 zu 5090 schnell über DLSS weitestgehend relativiert ( z.B. 4090 DLSS Quality und 5090 DLAA bzw. 4090 DLSS Balanced und 5090 DLSS Quality).
 
Als eine GTX470 1,25GB hatte, oder die GTX570 hat AMD schon 2GB angeboten. Als Nvidia 2GB hatte, war AMD bei 3GB.
Die GTX480 hatte 1,5GB, AMD hatte 1GB, die 6970 hatte 2GB, die 580 3GB. Naja.
Die 8800XT verfügt selbst "nur" über 16GB. Käme von AMD etwas mehr Druck, müsste Nvidia mehr anbieten.
16GB auf der 5080 finde ich noch ok, 12GB bei der 5070 eher weniger.
Man kann über die 16GB der 5080 hetzen, wie man will.
Da geht es doch primär nicht um die Speichermenge die jene sicherlich bei AMD für ausreichend halten, sondern um irgendeinen Kritikpunkt, den man aufbauen kann, weil ansonsten AMD über der Mittelklasse nichts zu melden hat.
 
Zuletzt bearbeitet:
Die GTX480 hatte 1,5GB, AMD hatte 1GB, die 6970 hatte 2GB, die 580 3GB. Naja.
Die 8800XT verfügt selbst "nur" über 16GB. Käme von AMD etwas mehr Druck, müsste Nvidia mehr anbieten.
16GB auf der 5080 finde ich noch ok, 12GB bei der 5070 eher weniger.

Da geht es doch primär nicht um die Speichermenge die jene sicherlich bei AMD für ausreichend halten, sondern um irgendeinen Kritikpunkt, den man aufbauen kann, weil ansonsten AMD über der Mittelklasse nichts zu melden hat.
GTX470,480 und 570 und 580 waren doch zeitgleich mit HD6970.

Die GTX580 gab es nur zum Produktende mit 3GB. Regulär zur Markteinführung waren 1,25 und 1,5GB.

Bei GTX600 waren es 2GB für die GTX680 und 3GB für HD7970.

Finde die 16GB schon echt grenzwertig bei der RTX5080. Aber bei den 12GB der RTX5070 hast du Recht ;).
 
Man kann über die 16GB der 5080 hetzen, wie man will. Es ist technisch bedingt durch die Größe des Chips, der Speicheranbindung und den Kapazitäten, die aktuell bei GDDR7 produziert werden können ohne die Kosten explodieren zu lassen. Was für Möglichkeiten hätte Nvidia denn? Chip größer= Karte teurer, Speicherinterface halbieren auf 16Bit= Karte teurer, Clamshell mit mehr Chips= Karte teurer, Größere Speicherchips = Karte teurer usw. Eine Karte mit 20GB bei 320Bit oder 24GB bei 384Bit hätte einen größeren Chip vorrausgesetzt und die Kosten wären gestiegen. Man spürt bei den technischen Daten, dass Nvidia verm. eher 999$ versucht zu erreichen und alles mit der Leistung der 2000$ 4090.
Ich bin mir nicht sicher ob ich dich richtig verstehe, weil es mir ein wennig wie ein Witz/trollen vorkommt. 🙇😂🤔

Du glaubst 5080 kommt für 999$ ?
Wenn sie unter 1300 kommt, würde es mich SEHR wundern.

Ich weis nicht warum man nvidia in Schutz nehmen sollte für 16gb auf 5080 wenn man nicht grad ein Fanbnoy ist.
Aber erläuter doch gern mal warum eine 7900xt 20gb vram hat OHNE die kosten explodieren zu lassen.

Offensichtlich macht hier eine technische erklärung keinen sinn, da nvidia weitaus bessere technische fähigkeiten , mehr marktmacht ( sie haben tsmc/samsung druck gemacht bzgl HBM) hat als Amd.
Abgesehn davon gabs speicher zwischenlösungen damals in der gtx 900er serie schon. Genauso wie 1,5 /2,5 gb chips etc kein problem wären wenn nv das will.

Nv machts nur aus einem einzigen grund geld geld.
Die 5090 wird eine Geisteskranke Karte die ich haben muss obwohl ich eine 4090 habe. Die Mehrleistung wird beachtlich sein. Die 5080 ist so wie die 5060 der größte Witz überhaupt. Die 5080 hat etwa 37% weniger shader und nur 16Gb Vram. Wie soll das eine gute UHD Karte sein? Einfach nur lächerlich. Bei anspruchsvollen Titeln kann man selbst auf der 4090 ohne DLSS nicht flüssig spielen.
Glaubst du 5090 wird 4k60+ nativ stabil schaffen in Alan Wake 2? Ich nicht 😪😅🤫 Das wären 90% mehr leistung ....

Wir sollten aufhören von dlss zu reden, 4kdlssq ist einfach 1440pdlaa. Macht es einfacher 😬🙌
 

Anhänge

  • Screenshot_20241218-093722_Firefox.png
    Screenshot_20241218-093722_Firefox.png
    622,4 KB · Aufrufe: 12
Aber erläuter doch gern mal warum eine 7900xt 20gb vram hat OHNE die kosten explodieren zu lassen.
Das ist ganz einfach: Die 7900XT hat 320 bit und die 7900XTX hat 384bit Speicheranbindung.

Und das korrsespondiert 1:1 mit dem Speicherausbau. Es sind immer 64 MB pro bit.

Wenn NVidia nun mal 256 bit verwenden will, dann kommen sie eben nur auf 16 GB.

Die Speicherbandbreite wird durch den Chip limitiert. Der verwendete GB203 Chip kann nicht mehr. Die nächst mögliche Ausbaustufe (ohne eklige Tricks) wäre dann 32GB.
 
Ich weis nicht warum man nvidia in Schutz nehmen sollte für 16gb auf 5080 wenn man nicht grad ein Fanbnoy ist.
Aber erläuter doch gern mal warum eine 7900xt 20gb vram hat OHNE die kosten explodieren zu lassen.
Alles gut, will nur darauf hinweisen das die 7900Xt eine UVP von 1050€ und das mit zu dem Zeitpunkt veralteter RT Leistung, Problemen in VR (massiv das erste Jahr) und dem schwächeren Upscaling, mehr Verbrauch.

Unabhängig davon, das es gute Gründe für AMD, oder Nvidia gibt. So kann ich nicht erkennen, das die Preise bei AMD nicht explodiert sind, oder gar besser waren, als bei Nvidia.
Offensichtlich macht hier eine technische erklärung keinen sinn, da nvidia weitaus bessere technische fähigkeiten , mehr marktmacht ( sie haben tsmc/samsung druck gemacht bzgl HBM) hat als Amd.
Abgesehn davon gabs speicher zwischenlösungen damals in der gtx 900er serie schon. Genauso wie 1,5 /2,5 gb chips etc kein problem wären wenn nv das will.

Nv machts nur aus einem einzigen grund geld geld.

Glaubst du 5090 wird 4k60+ nativ stabil schaffen in Alan Wake 2? Ich nicht 😪😅🤫 Das wären 90% mehr leistung ....
Nativ, ist für mich objektiv nicht mehr der beste Weg.
Siehe Bildvergleiche über viele Spiele.
Wir sollten aufhören von dlss zu reden, 4kdlssq ist einfach 1440pdlaa. Macht es einfacher 😬🙌
Das funktioniert so nicht mehr.
Upscaling ist gekommen um zu bleiben.
Das ist ganz einfach: Die 7900XT hat 320 bit und die 7900XTX hat 384bit Speicheranbindung.

Und das korrsespondiert 1:1 mit dem Speicherausbau. Es sind immer 64 MB pro bit.

Wenn NVidia nun mal 256 bit verwenden will, dann kommen sie eben nur auf 16 GB.

Die Speicherbandbreite wird durch den Chip limitiert. Der verwendete GB203 Chip kann nicht mehr. Die nächst mögliche Ausbaustufe (ohne eklige Tricks) wäre dann 32GB.
Aber auch hier hat niemand Nvidia gezwungen den Chip auf 256Bit auszulegen.
Warum nicht auch hier 320Bit, oder gar 384 Bit. Das sind ja bewusste Entscheidungen und an dieser Stelle bin ich mir sicher, das es dabei auch darum ging, mit möglichst wenig Aufwand, möglichst viel zu erreichen.
 
Das ist ganz einfach: Die 7900XT hat 320 bit und die 7900XTX hat 384bit Speicheranbindung.

Und das korrsespondiert 1:1 mit dem Speicherausbau. Es sind immer 64 MB pro bit.

Wenn NVidia nun mal 256 bit verwenden will, dann kommen sie eben nur auf 16 GB.

Die Speicherbandbreite wird durch den Chip limitiert. Der verwendete GB203 Chip kann nicht mehr. Die nächst mögliche Ausbaustufe (ohne eklige Tricks) wäre dann 32GB.
Danach hab ich nicht gefragt. Ich weis sehr genau wie eine Speicheranbinerung funktioniert.

Ich hab danach gefragt wie sie das geschafft haben ohne die Kosten explodieren zu lassen.
Die fanboy erläuterung mit speicherbandbreite *gehtnichttraurig* hatten wir im obigen post schon.
Alles gut, will nur darauf hinweisen das die 7900Xt eine UVP von 1050€ und das mit zu dem Zeitpunkt veralteter RT Leistung, Problemen in VR (massiv das erste Jahr) und dem schwächeren Upscaling, mehr Verbrauch.
😀🤟

Nativ, ist für mich objektiv nicht mehr der beste Weg.
Siehe Bildvergleiche über viele Spiele.

Das funktioniert so nicht mehr.
Upscaling ist gekommen um zu bleiben.
Dann meinetwegen 4kdlaa und nicht 4knativ. Das ist wortklauberei.

4kdlssq sieht einfach *sorry* schei*e 🤬🤬🤬 aus im vgl zu 4kdlaa. Deswegen ist 4kdlss auch kein 4k sondern 1440p das ist halt fakt, weil es nur hochskaliert ist.




Aber auch hier hat niemand Nvidia gezwungen den Chip auf 256Bit auszulegen.
Warum nicht auch hier 320Bit, oder gar 384 Bit. Das sind ja bewusste Entscheidungen und an dieser Stelle bin ich mir sicher, das es dabei auch darum ging, mit möglichst wenig Aufwand, möglichst viel zu erreichen.
Wie gesagt, nvidia hast so viel macvht und geld, es gäbe mit sicvherheit wege...

Ich bleib dabei, 5090 wird kein 4k60dlaa stabil schaffen.
 

Anhänge

  • Screenshot_20241218-093722_Firefox.png
    Screenshot_20241218-093722_Firefox.png
    622,4 KB · Aufrufe: 11
Zuletzt bearbeitet:
Dann meinetwegen 4kdlaa und nicht 4knativ. Das ist wortklauberei.
Naja, nicht so ganz.
4kdlssq sieht einfach *sorry* schei*e 🤬🤬🤬 aus im vgl zu 4kdlaa. Deswegen ist 4kdlss auch kein 4k sondern 1440p das ist halt fakt, weil es nur hochskaliert ist.
Auch irgendwie eher nicht.
Aktuelles Beispiel...

Schau dir mal die Vergleichsbilder an.

Du meinst du siehst beim Spielen den Unterschied zwischen Nativ und DLSS Q in 4k.
Eher nicht.

Auf DLSS Q 4k, als Begriff können wir uns einigen. Aber auch mit DLSS B, oder was auch immer bleibt es 4k. 4k ist nur die Ausgabe.


Wie gesagt, nvidia hast so viel macvht und geld, es gäbe mit sicvherheit wege...
Wenn man den Chip am Anfang anders Designt hätte, dann ja.
Ich bleib dabei, 5090 wird kein 4k60dlaa stabil schaffen.
Ist auch gar nicht nötig. Aber wäre natürlich schön.
Aber 4k DLSS Q sieht schon super aus.

Generell, schau mal bei Techpowerup, die ganzen Bildvergleiche, zu den Spielen die die getestet haben.
Deine strikte Ablehnung von DLSS ist nicht nötig.

(Natürlich gibt es auch Spiele in denen es schlechter funktioniert, aber es funktioniert schon sehr oft, sehr gut)


Hier empfinde ich DLSS Q auch besser als nativ. Man achte auf die ganzen Details, die mit rekonstruiert werden

Auch hier

Ist DLSS Q zu nativ gleichwertig, aber mit unterschiedlichen Stärken und Schwächen. Wobei, ohne Zoom wohl auch gleichwertig.
 
Zuletzt bearbeitet:
Schockiert mich etwas die Sichtweise aber gut 😅

Scheint als wäre das nvidia brainwashing marketing soweit dem breiten Volk einem 1440p mit "deeplearning" kantenglättung als 4k zu verkaufen.

Ich sitze schon einen Meter von meinem Monitor (ein 1440 und ein 4k) weg und das einzige was ich "gut" bezeichnen würde ist auf dem 4k monitor DSR 5k + dlaa.

Ich bin mir nicht sicher ob ich richtig verstanden wurde. 4k dlssq KANN PHYSIKALISCH nicht glich gut aussehen wie 4k dlaa weill das "ss" bedeutet das die auflösung nur 65% ist, sonst ist ALLES gleich.

Und manche sind evtl peinlich berührt, aber wer den unterschied nicht sieht, kann einfach keine gesunden Augen haben. Evtl auch vorteilhaft wenn man etwas schlechter sieht , spart geld 😉

Ganz ehrlich ich hoffe wirklich das nvidia an fanboys gut verdienen die für kantenglättung 3000 steine ausgeben.
 
Das ist ganz einfach: Die 7900XT hat 320 bit und die 7900XTX hat 384bit Speicheranbindung.

Und das korrsespondiert 1:1 mit dem Speicherausbau. Es sind immer 64 MB pro bit.

Wenn NVidia nun mal 256 bit verwenden will, dann kommen sie eben nur auf 16 GB.

Die Speicherbandbreite wird durch den Chip limitiert. Der verwendete GB203 Chip kann nicht mehr. Die nächst mögliche Ausbaustufe (ohne eklige Tricks) wäre dann 32GB.

Danke. Man kann die 32GB dann mit Clamshell und doppelseitige Bestückung oder mit 16 Bit-Interfaces realisieren, was bei Punkt 1 die Preise erhöhen würde und bei Punkt 2 die Preise in den Profi-Bereich verschieben würde. Nvidia könnte 320 oder 384Bit machen, was aber einen größeren Chip voraussetzen würde und den heben die sich bestimmt für die 5080 Super (1199€) und 5080Ti (1499€) auf mit 20 und 24GB. So ist zumindest meine Denke. Nvidia könnte die Preise sicher etwas senken, aber bei AMD machen sie aktuell einen Draufleger trotz veralteter Komponenten.
 
Scheint als wäre das nvidia brainwashing marketing soweit dem breiten Volk einem 1440p mit "deeplearning" kantenglättung als 4k zu verkaufen.

Ich bin mir nicht sicher ob ich richtig verstanden wurde. 4k dlssq KANN PHYSIKALISCH nicht glich gut aussehen wie 4k dlaa weill das "ss" bedeutet das die auflösung nur 65% ist, sonst ist ALLES gleich.

Das Thema ist schon sooo oft durchgekaut worden.

Aber bei einigen IMMER noch nicht angekommen. Die faseln dann lieber vom "breiten Volk", dass ja wohl keine Ahnung hat. Ahem.

Ich wiederhole es nochmal:

Der Witz bei modernen Upscaling Verfahren ist, dass mehrere Frames verwendet werden. Jedes Frame wird intern um einen Bruchteil eines Pixels in verschiedene Richtungen versetzt gerendert. Das hat den Vorteil, dass Details, die bei einem festen Pixelraster wegfallen würden, wieder sichtbar werden.

Der Algorithmus (ob er nun KI verwendet oder nicht) setzt die Information wieder zusammen, dass ein Bild mit vollen Details erzeugt wird.

Dadurch dass eben mehrere Frames verwendet werden und jedes eben mininmal versetzt ist, stehen dem Algorithmus auch bei geringerer Auflösung de Fakto *mehr* Details zur Verfügung als bei einem klassischen nativen 4k Rendering angezeigt werden.

Das ist auch genau der Grund, warum man feine Details (wie Stromleitungen, Maschendrahtzäune, feine Gräser...) mit DLAA/DLSS wieder erkennen kann, obwohl sie bei native stellenweise verschwinden.

Man kann also durchaus zu recht sagen, dass DLSS Q 4k mit nativem 4k Rendering zu vergleichen und meist auch überlegen ist.

Deine Aussage, dass 4k DLSS Q nicht ganz so gut wie 4k DLAA aussieht ist zwar grundsätzlich richtig, da bei beidem ja DLSS zum Einsatz kommt, und Q eine geringere Basisauflösung verwendet. Allerdings ist der Unterschied im Ergebnis nahezu nicht wahrnehmbar. Und die Nachteile von DLSS - sprich u.u. Nachschmieren bei Partikeln oder nicht korrekt vektorisierten Elementen - hat man dann in beiden Fällen.

4k DLAA ist für die Kosten, die die native 4k Render-Aufkösung verursacht, einfach nicht wirtschaftlich, für den praktisch nicht mehr vorhandenen optischen Vorteil. Man kauft sich damit schlechtere Frameraten ein für nichts - oder man verschwendet Strom, wenn man eh ein Framelimit verwendet.
 
Was, redest du da?
Es gibt keine 5090 mit 16GB, würde auch überhaupt keinen Sinn machen bei 512 Bit, wie soll das gehen?
Und es gibt auch keine 5080 mit 32GB (wird es auch nie geben), geht technisch gar nicht bei einem 256 Bit Interface.

Der Autor Sven kann sehr wohl Deutsch.
Also ich weis das, aber dann wohl nicht der nette Autor @sven
Die Geforce RTX 5090 und Geforce RTX 5080 erscheinen mit 32 und 16 GiB GDDR7-Grafikspeicher,
Auf deutsch heiß das:
5090 32GB
5090 16GB
5080 32GB
5080 16GB

Richtig wäre:
Die Geforce RTX 5090 erscheint mit 32 GiB und die Geforce RTX 5080 mit 16 GiB GDDR7-Grafikspeicher,

1734709699789.png
 
Schockiert mich etwas die Sichtweise aber gut 😅

Scheint als wäre das nvidia brainwashing marketing soweit dem breiten Volk einem 1440p mit "deeplearning" kantenglättung als 4k zu verkaufen.
Bullshit
Ich sitze schon einen Meter von meinem Monitor (ein 1440 und ein 4k) weg und das einzige was ich "gut" bezeichnen würde ist auf dem 4k monitor DSR 5k + dlaa.
Dann schau dir die Vergleiche an. In Originalgröße und Auflösung.
Ich bin mir nicht sicher ob ich richtig verstanden wurde. 4k dlssq KANN PHYSIKALISCH nicht glich gut aussehen wie 4k dlaa weill das "ss" bedeutet das die auflösung nur 65% ist, sonst ist ALLES gleich.
Anscheinend hast du nicht verstanden und auch nicht ganz verstanden wie DLSS und DLAA funktionieren.
Und manche sind evtl peinlich berührt, aber wer den unterschied nicht sieht, kann einfach keine gesunden Augen haben. Evtl auch vorteilhaft wenn man etwas schlechter sieht , spart geld 😉
Alter Falter, dann lies zusätzlich die Texte die dir auch widersprechen.
Das ist auf jeden Fall was du von dir gibst, in der Art nah am trollen.
Ganz ehrlich ich hoffe wirklich das nvidia an fanboys gut verdienen die für kantenglättung 3000 steine ausgeben.
Diese Aussage ist lediglich eine plumpe Provokation.

Die Beispiele die ich verlinkt habe, sprechen für sich.

PS: Weniger von Fanboys sprechen, dann klappt das auch mit der Weltanschauung.
Also ich weis das, aber dann wohl nicht der nette Autor @sven
NEIN
Auf deutsch heiß das:
5090 32GB
5090 16GB
5080 32GB
5080 16GB
NEIN
Leseverständnis.
Selbst mein Sohn in der 5. Klasse hätte das richtig verstanden.
 
Doch!
Dann solltest du dich mit deinem Sohn mal gemeinsam in einem Deutschkurs anmelden.
Schwerpunkt Interpretation und Fakten!
 
Zurück