News Geforce RTX 5090 soll mit 32 GiB GDDR7 und gleich drei PCBs an den Start gehen [Gerücht]

Upscaler sind immer ein optischer Verlust das mag mit den algo upscalern besser sein aber es bleibt ein schlechteres Bild.
Ob dann die upscaler als anti alaising genutzt wird was durchaus optische Verbesserungen bringt ist ein netter Nebeneffekt.
Daher wenn nativ ohne msaa taa zu bevorzugen. Darum nutze ich diese nur mit Verbindung zu dxr wenn die fps nicht reichen was bei mir min 40fps sind.
Das betrifft vornehmlich pathtracing und dxr
Wichtig ist auch was für ein display man hat lcd generell haben blur das ist technisch bedingt der Nebeneffekt ist Unschärfe bei langsamen fps daher reiche oft sogar 30fps aus unschön wird das nur wenn zusätzlich die Farben verwaschen (kontrastschwäche) bei zu schnellen Bewegungen.
Daher ist die emulation von Bewegungsunschärfe auch extrem störend aber gewünscht wenn man Geschwindigkeit simulieren will.
Es bleibt dabei upscaler als Standard zu nutzen geht gar nicht. Das mal als Wink an die Medien.
Tpu macht es richtig in deren Spieletest.
Zur gpu sagte ich bereits was und es bleibt dabei 512bit und 192sm in aktuellem design keine chance das auf n5 umzusetzen .
man hat durchaus deutlich besseren Wow Effekt wenn man sein alten monitor durch nenn oled ersetzt
Aber das hat Konsequenzen erstens min die halbe refreshrate muss erzielt werden zweitens dark mode ist Pflicht drittens ausblendende Taskleiste viertens leerer desktop in schwarz
Als gpu erwarte ich ne rtx5060ti 16gb grob rtx4070 perf für 479-499€ je nachdem wie teuer die ps5 pro wird.
Das wann ist das problem. ich würde diese sofort kaufen
Amd rx8700xt 48sm wäre ne alternative aber nur dann wen der chip bei maximal 180w und in dxr auf ada level kommt (rtx4070).
Das aber bezweifle ich
 
Dann müsste die 5090 gut 2,5 mal so schnell sein. Ich fürchte das wird nichts :haha:
Kein Problem. Neue RT-Kerne mit erneut verdoppelter Testing-Rate, mehr Shader-Leistung, SER 2.0 ... und dann natürlich noch der Turbo-Cheat DLSS 4 mit zwei Zwischen-Frames. ;)

Echt schade dass es das nicht mehr gibt. Gerade durch Pathtracing würde es ja bedarf geben und mit Wasserkühlung auch problemlos nutzbar.
Brrr. Wenn die Hersteller wieder mit AFR um die Ecke kommen, darf das gerne bleiben, wo die Sonne niemals scheint.

MfG
Raff
 
Echt schade dass es das nicht mehr gibt. Gerade durch Pathtracing würde es ja bedarf geben und mit Wasserkühlung auch problemlos nutzbar.
Ehrlich gesagt ist Wakü mittlerweile schon ein muss, wenn man sein Mainboard für mehr als nur GPU nutzen möchte.

Von daher spricht nichts dagegen. Denke gerade an meinen ersten Arbeitgeber... Da gab es auf dem Dach so ein Kühlturm, der war so knapp 2,5x2,5m.
Kein Problem. Neue RT-Kerne mit erneut verdoppelter Testing-Rate, mehr Shader-Leistung, SER 2.0 ... und dann natürlich noch der Turbo-Cheat DLSS 4 mit zwei Zwischen-Frames. ;)


Brrr. Wenn die Hersteller wieder mit AFR um die Ecke kommen, darf das gerne bleiben, wo die Sonne niemals scheint.
Ginge ja auch im SFR.
 
Das war aus anderen Gründen "meh". "Ray Interleaving" wäre eine geile Technologie, also das abwechselnde Berechnen von Strahlen zwischen den GPUs. Alles andere wäre schlechter aufteilbar. Die Skalierung wäre beim Pathtracing sicher krass, ähnlich der V5 6000. Vier GPUs, vierfache Leistung.

MfG
Raff
Ich hätte damals gerne gesehen, das SFR weiter optimiert wird.
Aber ja, gerne auch andere, bessere Ansätze.

War und ist nicht immer das Problem, die entsprechenden feritigen Daten auszutauschen.
Das am Ende wieder ein Bild ensteht, aus den Informationen von GPU 1 und GPU 2.
 
Jo, dabei vor allem die Abhängigkeiten. Wenn man beispielsweise sagt: GPU 1, mach du die Rasterizing-Geschichten und GPU 2, mach du bitte die Raytracing-Aufwertung, muss immer eine auf die andere GPU warten. Daher die naheliegende Idee, beide das Gleiche machen zu lassen, eben abwechselnd (Alternate Frame Rendering). Das funktioniert bei vielen gleich "schweren" Frames gut, aber wehe, es gibt eine große Varianz beim Inhalt, der Speicher klemmt oder solche Dinge ...

MfG
Raff
 
Ich denke das sind alles lösbare Probleme, allerdings gab es über all die Jahre keinen Bedarf, also wurde natürlich auch kein Geld darein investiert.
 
Jo, dabei vor allem die Abhängigkeiten. Wenn man beispielsweise sagt: GPU 1, mach du die Rasterizing-Geschichten und GPU 2, mach du bitte die Raytracing-Aufwertung, muss immer eine auf die andere GPU warten. Daher die naheliegende Idee, beide das Gleiche machen zu lassen, eben abwechselnd (Alternate Frame Rendering). Das funktioniert bei vielen gleich "schweren" Frames gut, aber wehe, es gibt eine große Varianz beim Inhalt, der Speicher klemmt oder solche Dinge ...

MfG
Raff
Ganz einfach die Obere GPU macht den Oberen teil des Bildes und die untere GPU den unteren teil des bildes.
Dann muss zwar eine GPU auf die andere warten aber das wird schon.
 
Ganz einfach die Obere GPU macht den Oberen teil des Bildes und die untere GPU den unteren teil des bildes.
Dann muss zwar eine GPU auf die andere warten aber das wird schon.
Vertikales Teilen ist schlauer, denn wenn man horizontal teilt, hat man bei vielen Spielen mit Ansage ungleiche Arbeit - Himmel ist leichter als Boden. :D Noch besser wäre aber Teilen auf Pixelebene.

MfG
Raff
 
Vertikales Teilen ist schlauer, denn wenn man horizontal teilt, hat man bei vielen Spielen mit Ansage ungleiche Arbeit - Himmel ist leichter als Boden. :D Noch besser wäre aber Teilen auf Pixelebene.

MfG
Raff
Ich denke Pro pixel wäre zuviel Sync aufwand.
eine GPU Links eine GPU Rechts. Sollte doch aber gehen in der Theorie oder?
 
nun 512bit sind quasi nicht möglich da nvidia beim n5 node bleibt das macht dann 80% des chips aus und 192sm passen dann nicht mehr auf dem wafer da der chip mit 512bit stolze 950mm² groß wäre
Siehe weiter unten.
Upscaler sind immer ein optischer Verlust das mag mit den algo upscalern besser sein aber es bleibt ein schlechteres Bild.
Einfach nur nein.
Wichtig ist auch was für ein display man hat lcd generell haben blur das ist technisch bedingt der Nebeneffekt ist Unschärfe bei langsamen fps daher reiche oft sogar 30fps aus unschön wird das nur wenn zusätzlich die Farben verwaschen (kontrastschwäche) bei zu schnellen Bewegungen.
Wenn man halt nur VA kennt.
Zur gpu sagte ich bereits was und es bleibt dabei 512bit und 192sm in aktuellem design keine chance das auf n5 umzusetzen .
Von oben geht's hier weiter.
Alleine der erste Satz.
Der Prozess ist 4N, wenn er beibehalten wird.
Warum sollten 512bit auf einmal 80% des Chips ausmachen?
384bit sind bei AD 102 vielleicht 10%.
Und selbst wenn der Chip 950mm² gross sein sollte, warum passt die nicht auf ne Fläche von 70650mm²?
Also weiterhin Unsinn.
man hat durchaus deutlich besseren Wow Effekt wenn man sein alten monitor durch nenn oled ersetzt
Aber das hat Konsequenzen erstens min die halbe refreshrate muss erzielt werden
Nein, warum auch.
zweitens dark mode ist Pflicht
Auch das nicht.
drittens ausblendende Taskleiste
Nope.
viertens leerer desktop in schwarz
Und wieder nicht.
 
ach mal nen dieshot gesehen alu Anteil etwa 45% imc inklusive pcie 55% das aktueller stand
amd ist da was sparsamer mit 50% 50%
mal nen Bild heraussuchen wo das klar wird

1716820382863.png

quelle

man siehe alles wo 32bit steht ist SI
grob geschätzt 12% breite mal 3 mal 25mm *3 =225 +unten etwa geschätzt 20% *19 =95mm"
225+95 =320mm" 609-320 =289
289/6,09 = 47%
Mit bissel puffer da das PCie etwas größer sein kann 45% alu anteil rest Si und pcie nicht shrinkbar
Und gb202 gleicher node soll 192 alu haben

Ob man Dlss und xess besser aussieht als nativ ist stark anzuzweifeln. Dafür braucht es Bewegtbild vergleiche an einen oled.

Und ja va habe ich aber es ist amva das ist fast so gut wie ips dafür passt der Kontrast was viel ausmacht.
ufo test geht bis stufe 7 (1200) bevor ghostimg ein problem wird abseits das ich nix mehr lesen kann weil zu schnell
Mein alter tn schafft stufe 8 (1440p) daher geben die sich nix der Sinn dahinter auch fraglich da so schnelle Bewegungen nur mit nen crt bzw oled erfassbar sind.

Zu oled und mehr fps benötigt werden dass
Burn in dazu der test Läuft noch

Die Lösung ist nah demzufolge
bis das auf Monitore angewendet wird bleibe ich bei amva oder sva
Als TV ist oled problemlos nutzbar sofern an diesen sporadisch nutzt siehe Test

Das Sind Argumente belege mal das Gegenteil
 
ach mal nen dieshot gesehen alu Anteil etwa 45% imc inklusive pcie 55% das aktueller stand
amd ist da was sparsamer mit 50% 50%
mal nen Bild heraussuchen wo das klar wird

Anhang anzeigen 1461199
quelle

man siehe alles wo 32bit steht ist SI
grob geschätzt 12% breite mal 3 mal 25mm *3 =225 +unten etwa geschätzt 20% *19 =95mm"
225+95 =320mm" 609-320 =289
289/6,09 = 47%
Mit bissel puffer da das PCie etwas größer sein kann 45% alu anteil rest Si und pcie nicht shrinkbar
Und gb202 gleicher node soll 192 alu haben
Rechnest du wie Pipi Langstrumpf?
Ob man Dlss und xess besser aussieht als nativ ist stark anzuzweifeln. Dafür braucht es Bewegtbild vergleiche an einen oled.
Kann es und tut es in bestimmten Fällen.
Und ja va habe ich aber es ist amva das ist fast so gut wie ips
Einfach nur nein.
Gerade in dunklen Übergängen ist IPS viel schneller.
Fun Fact, AMVA ist da auch langsamer als die neueren SVA.
dafür passt der Kontrast was viel ausmacht.
Nützt nur nix, wenn der nur mittig vorhanden ist.
Zu oled und mehr fps benötigt werden dass
OK, du hast nicht verstanden was da steht.
Oder warum brauche ich laut deiner Aussage 180fps damit es nicht stottert?
Burn in dazu der test Läuft noch

Das Sind Argumente belege mal das Gegenteil
Du weisst, daß Burn-in da provoziert wird?
Soll ich dir etwa meinen Alter Monitor zuschicken als Beweis, oder meinen TV, der Stundenlang das UI von Diablo angezeigt hat und und immer noch kein burn in davon hat?
 
ja Mathe ist mir aufgefallen aber es geht um Prinzip
Wenn ich 24% der chipfläche mal die chipbreite nehme +12 und 25% =37% für oben unten

Ergibt das bei genauen chip Abmessungen 321mm² si = 288mm² alu Anteil =53-47
Und das ist geschätzt anhand vom Augenmaß nicht genau dafür bräuchte ich ein exaktes Bild maßstabsgetreu.
darum gehe ich von 55-45 aus

Das stutter bezieht sich auf min die halbe refreshrate die man braucht bevor es anfängt zu ruckeln. und da ist oled nachweislich stärker betroffen aufgrund vom fehlendem blur
Min braucht man quasi bei nen 240hz was oft bei oled zu finden ist 120fps daher wenn oled dann 100hz oder nur 60hz die gibt es.

Das problem das immer noch einige glauben mehr details und ein besseres Bild bei upscaling sehen verwechseln das mit dem flüssigeren Darstellung was mit mehr fps kein Wunder ist. Das aber ist wegen dem blur der wegfällt
Unschärfe entsteht immer dann wenn die pixel zu langsam auf die Bewegungen reagiert das wirkt ungenau gesehen faktisch Flüssig aber unscharf

Der burn in test spricht für sich das es da schon zu ausfällen gekommen ist nach 1 1/2 Jahren dauerlast sagt einiges aus. zumal damit 24std läuft das kann man umrechnen dies entspräche aktuell bei 3-4 Jahre und so kurz behält kaum einer ein Monitor
Die norm dürfte bei 6-8 Jahre sein mein aktueller habe ich seit 5 Jahren den wechsle ich Frühestens zum Wechsel der gpu 2027 mir wäre sehr lieb wenn die gefixten oled dann schon gibt.
Ansonsten wird es ein samsung sva oder iiyama amva mit 100hz.
HDR wäre nett aber aktuell nicht zu bekommen ohne curved und das geht gar nicht.
gsync ist nur mit ips brauchbar aber da fehlt der Kontrast
miniled mit ips eine option ist aber nicht standard demzufolge teuer

Ähnlich wie zu gpu ist es derzeit die Wahl zwischen überteuert oder kaum Mehrwert zum Wechsel.
Ansonsten hätte ich längst die rtx4060ti 16gb wäre da nicht die Handbremse 288gb/s das hält den chip auf statt wie der chip es könnte rtx3070ti per schafft man Gerade mal die rtx3060ti das sind maximal 25-35% vs den ga106
amd alternative rx7600xt ist etwa gleichschnell da hat amd ne chance verpasst mit einen rx7700 mit 40cu das wäre optimal gewesen.
anmerken muss ich das bei amd rdna3 von den shader engines immer 4cu Deaktiviert sind der n33 hat 2 engines je 20cu/40cu 32aktiv
Warum ist mir nicht klar ich schätze das es mit der Taktrate zu tun hat.

Am ende habe ich nur die Wahl rtx4070 und eol rtx3080 12gb und auf den verbrauch kacken beide in etwa gleichschnell
Kosten in etwa dasselbe um die 550€
amd rx6800 kommt nicht infrage da dxr deutlich langsamer ist und ich brauche perf für dxr, raster reicht völlig
Die rx7800xt ist ein Zwischending das leider zu viel Strom saugt dxr auf level der rtx4060ti mit ausreichende Bandbreite aber 260w
Die perfekten Sku kommen erst mit rtx5060 (28sm) rtx5060ti (48sm) und amd rx8700xt (48cu), rx8800xt (64cu) letztere früher tippe auf q4 2024

Bald ist computex neue infos zu apu zen 5 und nen teaser zu rdna4
nvidia wie immer zuerst ai dann hoffentlich endlich whitepaper blackwell und ne Preisanpassung von ad104 (rx4070 gddr6) 449$
zur gamescom erwarte ich blackwell release rtx5080 80sm (52tf/76tf=+40%) rtx5070ti 66sm (42tf/63tf = +40%) beide gb205 und eine neue Reversion von dlss4
amd rdna4 rx8800xt 220w rx8700xt 180w idealerweise
ps5 pro 220w 60cu 2,3ghz 499$ maximal 21tf quasi doppelt so schnell wie die ps5
Die ps5 ist cpu limitiert die pro immer noch darum die +43% raster aber mehr als doppelte dxr perf

am ende nur noch eins blackwell wird ein quasi ada refresh mit verändertem tpc struktur (von 24sm zu 32sm) und einen dual issue Ansatz das auf mcm vorbereitend ist.
Das warum werden wir bei blackwell whitepaper sehen vermutlich b200 und gb100
 
Zurück