News Geforce RTX 5000 ("Blackwell"): Gerüchte zu Nvidias Next-Gen-Grafikkarten entsprechend eingeordnet

Die Konsolen haben shared Memory. Und, oh große Überraschung, an der Speicherverwaltung krankt es dann auch am meisten bei den Ports.
Auf der Konsole hast du ein Asset/Shader/Objekt welches du linear ohne Performance Hit von CPU und GPU aus adressieren kannst. Beim PC musst du immer genau schauen welche von beiden bald dran ist und ob daher eine Kopie im jeweils anderen RAM nötig wird.
Dafür hat man in der Regel auch mehr RAM und VRAM.
 
Werden wir in paar Jahren mehre 100te terasflops gpu sehen ich sage klar ja.
Aber............

Ab n2 sind die chips in der breite limitiert dann gehen maximal nur noch 400mm² da aber der Takt und die chips quasi gestapelt werden eliminiert sich das.
zuerst wird n2 gaa kommen was die effektive Fläche verdoppeln kann zugleich sinkt die Strom erforderliche spannung im chip
ich gehe von einer dense von mit 50% aus. und das ist noch planar
Derzeit hat nvidia nen fp32 int32 hybrid sowie dedizierte rt core mit tensor core fürrs denoising was derzeit als upscaler missbraucht wird.

nvidia hat aber auch ne Architektur die rein auf fp32 Durchfluss setzt und die tensor aber ohne rt core als Ai Beschleunigung agiert (hopper)
Das design wird ein rt corer addiert und die sm Struktur auf 128fp32 eine Verdoppelung der fp32 in einen sm dazu kommt der hybrid int32 fp32 mit einen rt core mit reduzierten tensor core.
tmu sowie rop bleiben gleich von 48 bis 192 rop und in sm etwa 4 tmu

Zwar könnte nvidia die derzeitige sm Struktur behalten aber man käme zu einen Problem
Derzeit ist genug Fläche da, das der Takt min um 1ghz gestiegen ist mit n3 geht das nicht mehr.
Man muss quasi den alu shadern mehr Einheiten geben weil ansonsten die wärme nicht weg kann.
Daher gehe ich davon aus das blackwell damit anfängt (n3) was die chips groß werden lässt und wir als high end gpu ne 10 gpc chip sehen mit 180 sm aber reale 140tf Leistung haben wird.
Aus derzeit 12gpc zu je 12sm wird 10 gpc mit 18sm 180sm aber da von 80 fp32 wird daraus 144 fp32
das alleine macht einen 608mm² chip etwa bei 10% dichte Verbesserung 684mm²

Das Si allerdings könnte verkleinert werden da man sich auf gddr7 mit 36gbps setzen wird. also ist die bandbreite das größte problem.
384bit entsprechen etwa 20% chipfläche was man nicht schrinken lässt
Nehme ich an das der volle gb102 10 gpc hat also 180sm könnte man mit 256bit 7% chipfläce einsparen aus 684*0,93=636mm² 180sm zu je 148 fp32 aber 256*36*8= 1024gb/s wird zum problem
Wie weit gddr7 gehen kann weiß ich ich nicht aber ich gehe davon aus das die specs bis 58gbps gehen könnten das war je gddr generation immer etwa doppelte von der anfangs chips gddr7 hat beginn bei 28gbps
Angekündigt sind samsung 36gbps/plan 2024 und 32gbps/sample 2023
Daher nehme ich an das 256bit bei maxed 32gbps werden somit etwa 1024gb/s
Das gepaart mit 16* 16gbit chips was wieder ne doppelseitige Bestückung hindeutet
gb102 wird teuer pcb min 100$ vram min 20$ per gddr7 16gbit *16= 320$ chipkosten ab 303$ das wird definitiv keine desktop gpu
Sku min etwa 2300€ 32gb gddr7 32gbps 180sm 288 tensor 180rt core 720tmu und 256 rop 2,6ghz
am desktop erwarte ich 8 gpc 144sm 2,6ghz, 655mm² chipkosten 240$, 320$ vram und 100$ pcb.
Sku preis ab1999€ vs ada 1829€ dann +75%

Somit sehe ich das so 2024-2025
gb103 8gpc 550mm² high end vermutlich titan ab 1750$ ~110tf = +75% vs ada ad102 128sm
gb104 6gpc 410mm² 90er gpu ab 1400$ ~73-83tf =+15% bis + 30% vs ad102
gb106 4gpc 342mm² 80er, 70er gpu ab 600$-1000$ ~46-55tf? +24% bis +48% vs ad103
gb107 2gpc 171mm² 60er 50er gpu ab 250$ -400$ ~14-27tf +27% bis +58% vs ad107 und ad106

n2 wird das halbieren aber auch die max chipfläche und es wird keine Leistungssteigerung geben
da man die chips nicht verdoppeln kann da nur 400mm² gehen folglich muss nvidia die chips stapeln
Wie weit nvidia mit tsv und 3d chips ist, ist unbekannt von amd weiß ich das damit der cache angebunden werden kann das spart etwa 25% chipfläche
nehme ich den high end mit 550mm² könnten dann 25% mehr alu rein aus 144 wird 180sm und der chip wäre bei 275mm³ und bei etwa 205$
Es wäre sogar möglich den L2 zu vervierfachen ob das was das bringt ist offen aber ein Ansatz wie amd mit inf cache wäre denkbar.

Und bei n2p wird der Transistor an sich verbessert damit dieser auf einen rechen Vorgang nur die hälfte an Energie benötigt. Das steigert den Durchsatz also quasi Takt von aktuell 2,8ghz auf maxed 3,5ghz bei nur 25% mehr Energie also aus derzeit 1,1v dann 0,55v folgend 0,68v und bei maxed dann 1,1v 4,0ghz gpu ab 2028
Bleibt die sm menge gleich wovon auszugehen ist wird die fp32 Leistung bei -
180*4*2*148= 213tf q4/2028 vs heute q2/2023 63tf

Am desktop wird aber deutlich weniger

Derzeit ab q3 2023
Einstieg ad107 24sm +- 11tf ab 250$ 240gb/s
oberer Einstieg ad106 30-34sm +-14-17tf ab 350$-450$ 288gb/s
Wenn die alte gen rtx30 und rtx20 abverkauft ist vermutlich sogar erst q1 2024

Einstieg 2024 ab 18tf als 50er Serie ab 250$ 8gb vram 256gb/s 2,6ghz
oberer Einstieg 2024 ab 23tf als 60er ab 350$ 12gb gddr7 32gbps 2,6ghz 30sm= 23tf mit 384gb/s

Einstieg 2026 ab 23tf als 50er ab 250$ 288gb/s
oberer einstieg 2026 als 60er ab 28tf mit 12gb gddr7 36gbps =432gb/s ab 400$

Einstieg 2028 als 50er ab 35tf als 50er ab 250$
Oberer Einstieg 2028 als 60er 42tf 16gb gddr7 40gbps =648gb/s ab 400$

Bei solchen zahlen ist pathtraycing realistisch denkbar.

Anmerke
ps5 pro n33 19tf q3 2024 2048 alu Monolith ab 600$ vermutlich 512gb/s
ps6 n42 ab 30tf q3 2027 3072 alu + 4mcd ab 600$ 1024gb/s

Das sind min angaben bei den preisen wie das am ende vermarktet wird ist offen und hängt von amd und intel ab.


Was zieht man daraus aktuell wen man nicht Muss ist warten Die option besonders für besitzer der rtx30/rtx20 gen
Das P/L Verhältnis wird ab der pro Konsole deutlich anziehen besonders im low end
Was vram angeht sind 12gb im oberen einstieg ab rtx50 standard ab 450€
 
Sowie in allen anderen spielen auch ist ne directx Vorgabe
Und kann mit dx12 und paar neuen Funktionen geändert werden aber wird bis heute in keinen spiel angewendet
DX12 gibt es seit 2015
 
Im schnitt bei 320w peak
Sein Fazit min gold platin 650w Netzteil oder 750w und mehr für ne rx7900xt
Auf was soll das jetzt bezogen sein?
 
Was dir garnichts bringt wenn du gerade von der jeweils anderen Recheneinheit an die Daten willst. Gefühlt besteht die Lösung bei Tlou und Co. mittlerweile darin alles doppelt zu haben, ein Mal im RAM und ein Mal im VRAM.
Deswegen ist ja auch jede Karte mit weniger als 20GB VRAM heute nicht kaufbar. Das ist aber ärgerlich wenn man bedenkt, dass fast jeder Gaming PC heute 8GB+16GB min. haben dürfte und damit effektiv die doppelte Menge der Konsolen.
 
Idle und maximaler verbrauch der n31 gpu der idle verbrauch ist bei amd ein treiber problem das durch zu hohe monitorfrequenz verursacht wird. 60hz und 75 bis 120hz haben diese hohen idle verbräuche nicht.
Das sollte mittlerweile gefixt sein
 
Mit 2 Bildschirmen (1440p/120hz) bin ich bei 50 Watt. Ich kann mir nicht vorstellen, dass 2160p/144hz noch bei 100 Watt ist.

Zudem ist meine 7900xt custom bei 22 Watt (2160p/60hz)

Besser also als einige 4080 customs aus dem cb Test.
 
Zuletzt bearbeitet:
Mit 2 Bildschirmen (1440p/120hz) bin ich bei 50 Watt. Ich kann mir nicht vorstellen, dass 2160p/144hz noch bei 100 Watt ist.

Zudem ist meine 7900xt custom bei 22 Watt (2160p/60hz)

Besser also als einige 4080 customs aus dem cb Test.
1x UHD 144Hz braucht mehr Bandbreite als 2x WQHD 120Hz.
 
1x UHD 144Hz braucht mehr Bandbreite als 2x WQHD 120Hz.

Das ist mir schon klar. :)
Sie haben halt was an dem Verbrauch gemacht bis heute. Und nirgends gibt es eine Quelle welche eure Behauptung bestätigt. Würde mich halt auch interessieren.

Das scheint wohl auch kein AMD spezifisches Problem zu sein. (Dual Monitor, hoher Verbrauch)
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Das mit dem dual display bei nvidia und multi Monitor unterschiedliche refreshrate ist bekannt und ein alter bug der seit min dem Umstellen auf dch existiert.
Der Grund dafür ist Microsoft dwm dieser sagt der gpu sobald unterschiedliche refreshrates gibt das 3d Modus an gehen muss.
Komischerweise nicht bei doppelten refreshrate vermutlich liegt es am geraden Teiler das passiert auch mit 60 +75hz Bildschirmen
Lösung ist dieselben displays anschlie0ßén bzw beide identische freq Auswahl
 
128-192 bit streichen alles unter 12 GB streichen optimieren für den strom dann ja aber so wie es läuft bleiben die bits und 10GB für speicher als minimum was total banane ist da es nicht die welt kostet Speicher in guter gröse zu verlöten
 
Zurück