News Geforce RTX 5090: Blackwell-GPU soll ein riesiger Monolith der Superlative werden [Gerücht]

Hm... was für Leistungssprünge sind denn daraus resultierend zu erwarten? Über den Daumen würde ich auf ca. 30% tippen. In letzter Zeit liest sich das bei dem einen oder anderen User aber, als seien das 50% und mehr.
Was denkt ihr kommt dabei rum?
Je nach Ausführung 30-50% beim Rastern, im Bereich RT mehr
 
Blackwell kannst du locker überspringen, werde ich auch und ich habe eine 4080S verbaut.
Ich hab ne normale 4080 verbaut mit nem 5800x3d.. ich häng eigentlich immer im Monitor Limit von 165hz

Leisten kann ich mir das.. aber das wird wahrscheinlich so laufen das ich mir in 1-2 Jahren eh wieder n komplett neues Build zusammenstelle..(und das alte immerhalb der Familie weitergebe)

Der 5800x3D dürfte etwas zu schwach für ne 5090 sein.. auch wahrscheinlich sogar ein 7800x3d..
Also muss eh ein kompletter neuer Unterbau her

Dann ist wieder die Frage was Kauf ich mir als nächstes an Monitor... Hoffe ja auf einen schönen 240hz 4k OLED mit mehr Helligkeit im 10% Bereich nächstes Jahr..

Och Joar.. Schaun wir mal..
Die 4080 wird immer noch im Bereich einer 5070 liegen und immer noch mehr sein als alles was AMD so anbietet und in den Ring Schmeißen kann..
 
Dann ist wieder die Frage was Kauf ich mir als nächstes an Monitor... Hoffe ja auf einen schönen 240hz 4k OLED mit mehr Helligkeit im 10% Bereich nächstes Jahr..
An dem Punkt bin ich auch gerade, ich schwanke zwischen einem 34 Zoll OLED und einem Mini LED IPS.

HDR ist auf einem OLED-Monitor geil, da er auf 1000 NITS geht, doch auf dem Desktop sind die Teile zu dunkel und dieses Burn in macht mir Kopfschmerzen.

Innerhalb der drei Jahre werden die bei einem Fall ausgetauscht doch was ist danach? Verstehst du, was ich meine.

Ich glaube nicht, dass der 7800x3D schwach sein wird für die 5090, aber man weiß ja nicht, was die kann.
 
An dem Punkt bin ich auch gerade, ich schwanke zwischen einem 34 Zoll OLED und einem Mini LED IPS.

HDR ist auf einem OLED-Monitor geil, da er auf 1000 NITS geht, doch auf dem Desktop sind die Teile zu dunkel und dieses Burn in macht mir Kopfschmerzen.
Ich hab den Alienware 34zoller und bin hoch zufrieden damit.. und so Dunkel ist der aufm Desktop gar nicht.. ich hab den sogar in der Helligkeit reduziert in Windows weil er mir zu Hell ist..

Burn in ist auch kein Thema.. solange du den Monitor Standby Recht aggressiv einstellst in Windows ist alles Tutti.. (2min )ich hab das Gerät seit Nov22 und keinerlei Burn in.. und ich verstecke weder Taskleiste noch Symbole.. allerdings Spiele ich nur und Schaue Filme/Serien darüber und arbeite nicht damit (ab und an Mal n Brief/Email/Surfen)
IPS stinkt dagegen richtig ab
:ka:
Ich kenne erhlich gesagt niemanden der sich alle 2 Jahre neue Felgen kauft...
Das war Symbolisch gemeint.. andere Hobbys gehen auch ins Geld... Sei es Auto, Heimkino, kinder, Fussball oder was weis ich..
 
Zuletzt bearbeitet:
Ich hab den Alienware 34zoller und bin hoch zufrieden damit.. und so Dunkel ist der aufm Desktop gar nicht.. ich hab den sogar in der Helligkeit reduziert in Windows weil er mir zu Hell ist..

Burn in ist auch kein Thema.. solange du den Monitor Standby Recht aggressiv einstellst in Windows ist alles Tutti.. (2min )ich hab das Gerät seit Nov22 und keinerlei Burn in.. und ich verstecke weder Taskleiste noch Symbole.. allerdings Spiele ich nur und Schaue Filme/Serien darüber und arbeite nicht damit (ab und an Mal n Brief/Email/Surfen)
IPS stinkt dagegen richtig ab
Ich weiß, das IPS kein Land sieht gegen OLED, es wird auch bei mir, denke ich, einer werden, ich tendiere eher Richtung Samsung. Der G-8 soll weniger anfällig sein gegen Bun in wegen der Quantum dot Beschichtung und der Preis stimmt auch aktuell für 750 zuhaben. Es würde mich freuen, wenn du mir dann ein paar Tipps geben kannst, wenn ich ihn habe.
 
Ich weiß, das IPS kein Land sieht gegen OLED, es wird auch bei mir, denke ich, einer werden, ich tendiere eher Richtung Samsung. Der G-8 soll weniger anfällig sein gegen Bun in wegen der Quantum dot Beschichtung und der Preis stimmt auch aktuell für 750 zuhaben. Es würde mich freuen, wenn du mir dann ein paar Tipps geben kannst, wenn ich ihn habe.
Nein.. der G8 hat das gleiche Panel wie der Alienware.. + n paar eigene Bugs und Probleme was das tyzen Betriebssystem und die QS angeht..
Im Endeffekt performen die Recht gleich
Nur Samsung gibt keine Garantie auf burnin.. Alienware schon..

1000nits, Tonemapping in Kombi AMD GPU macht bei allen OLED Monitoren Probleme

Ansonsten nehme den günstigeren je nach Angebot
 
Zuletzt bearbeitet:
Nein.. der G8 hat das gleiche Panel wie der Alienware.. + n paar eigene Bugs und Probleme was das tyzen Betriebssystem und die QS angeht..
Im Endeffekt performen die Recht gleich
Nur Samsung gibt keine Garantie auf burnin.. Alienware schon..

Ansonsten nehme den günstigeren je nach Angebot
Ok, das wusste ich nicht, dass die denn selben Panel haben. Doch doch Samsung deckt das auch ab, gab letztens eine Nachricht dazu, hast du bestimmt verpasst. Genau so mache ich es auch, ich nehme einfach das Beste im Angebot.
Was ich nicht verstehen kann, ist, wie kann man für einen IPS Panel mit 1135 Mini-LED zonen 800 Euro verlangen, das verstehe ich einfach nicht, man müsste bekloppt sein, um das zu bezahlen, da der Panel nicht mehr up to date ist.
 
Beste im Angebot.
Was ich nicht verstehen kann, ist, wie kann man für einen IPS Panel mit 1135 Mini-LED zonen 800 Euro verlangen, das verstehe ich einfach nicht, man müsste bekloppt sein, um das zu bezahlen, da der Panel nicht mehr up to date ist.
Up to Date schon was die LCD Technologie angeht.. nur nicht Konkurrenz fähig ..

Herstellungstechnisch dürfte das LCD Display durch die vielen Zonen sogar ähnlich teuer in der Produktion sein.

Aber back to topic.
Erstmal benches von der 5090 abwarten und bis die offiziellen Specs raus sind
 
...

Der 5800x3D dürfte etwas zu schwach für ne 5090 sein.. auch wahrscheinlich sogar ein 7800x3d..
Also muss eh ein kompletter neuer Unterbau her
...
Ich frage mich mittlerweile, ob Ihr, die solche Aussagen treffen auch mal die Artikel der pcgh zu diesen Themen lesen. Denn dann wüsste man, dass nur die Pixelmenge ( mit DSR-Faktoren gar kein Problem ) entsprechend erhöht werden muss, um dafür Sorge zu tragen, dass der Einfluss der CPU so klein wird, dass er extrem gering ist !?!??
 
Zuletzt bearbeitet:
Ich frage mich mittlerweile, ob Ihr, die solche Aussagen treffen auch mal die Artikel der pcgh zu diesen Themen lesen. Denn dann wüsste man, dass nur die Pixelmenge ( mit DRS-Faktoren gar kein Problem ) entsprechend erhöht werden muss, um dafür Sorge zu tragen, dass der Einfluss der CPU so klein wird, dass er extrem gering ist !?!??
Also eine 4080 reicht um in vielen Spielen n 5950x ins CPU Limit zu hauen auf 3440x1440
(DSR funktioniert übrigens mit DSC am Monitor nicht)

Und nicht jedes Spiel ist durchgehend GPU bound...
Und nicht jeder gibt sich mit 60fps zufrieden....
Ein CoD warzone ist bei ca 140fps Schicht im Schacht mit nem 5950x.. egal welche Auflösung du fährst .
Spiele wie Starfield kacken dir in den großen Städten ab wenn viele NPCs unterwegs sind ect.
Ich optimiere meine Spiele auf Monitor Refreshrate (bzw 100+FPS) da sieht die Welt anders aus als bei 60fps
 
Zuletzt bearbeitet:
Also bei der Tabelle ist mindestens ein der der beiden Einträge "512bit" oder "bis zu 48GiB" falsch. ;-)
(Klassisch) Entweder 48GiB an 384bit oder 32/64 an 512.

Auf das Monstrum bin ich echt gespannt. Weniger weil ichs wollte oder gar brauche sondern einfach um zu sehen was das Ding kann :-)
Nein.
Bei GDDR7 sollen ja 2GB oder 3GB Chips verfügbar sein. Die 3GB Chips gibt es z.b. schon als DDR5 RAM.
Aber ich glaube auch nur am max 32GB VRAM mit 2GB Chips. Mehr macht kein Sinn, weil es mehr als unnötige Konkurrenz für die Profi Karten wäre.

Und "physically monolithic" kann ja noch immer ein ganz normaler Chip sein und er trollt nur. :D
Soweit ich weiß, braucht man um 2 Chips zusammen zu packen eine besondere Packaging-Technik und diese Technik ist aktuell eine Bottleneck in der Herstellung, da diese vorallem für B100 genutzt wird.
 
Das mit dem DSC ist ein interessantes Thema. An meinem neuen 32 Zoll 4K MSI QD OLED 240 HZ kann man DSC ausschalten damit man DSR aktivieren kann und maximal sind dann noch 120 hz möglich über HDMI 2.1.
Ich finde sogar man sieht bildtechnisch einen Unterschied wenn es ausgeschaltet ist, vll ist es auch nur Einbildung aber ich finde die Bildqualität bei aus nochmal besser. Habe mal gelesen das die das Wort "Visually Lossless Compression " verwenden dürfen wenn mehr als 75% der Testpersonen keinen Unterschied sieht. Frage ist halt wer sind die Testpersonen gewesen sind :D .
 
Zuletzt bearbeitet:
Zurück