Geforce RTX 4080 FE: Angebliches Bild macht die Runde [Gerücht]

Nun das Gerücht habe ich gestern auch gelesen
Erstens die 76sm müssten mit 2,9ghz rennen oder es sind wirklich 128alu in einen sm dann nur noch 2,2ghz
da aber leaks und tbp dagegen sprechen stimmt das nicht.

Gibt es nicht quadro rtx40 Serie?
Das würde das Bild erklären.

Die 15000 tse point sind gut 47% über der rtx3090 da spricht alles für 96alu pro sm.
Wenn nvidia kein wunder gefunden hat bei n4 process und mehr als 2,6ghz schafft
Derzeit ist mit dem node diese maxed Frequenz nur möglich folglich stimmen die 76sm nicht ich gehe von 84sm aus bei etwa 2,6ghz.
Was die kolportierten 340w tbp auch zutreffen wird.
Könnte auch sein das nvidia noch mehr sm aktiv lassen kann bsp 88sm was den Takt nochmal senkt. Und somit verbrauch
bsp 88*2*2,5*96=42tf vs 28tf der rtx3090 =+47% bei 250w tbp

was genau den 15000 tse entsprechen würde.

Zur Erklärung ein sm beinhalte derzeit Gerücht.
4 tensor cores + ein rt core + 128alu + 64 int32 und eine sfu (fp64*4)

Die 128alu werden sicherlich 96fp32 und 32fp64 haben.

Der cache wird stark helfen bei der Bandbreite da spart man nix an puffer beim ram.
Folglich kann man das Si kleiner machen was Sinn ergibt
Das spart chipfläche

Es kann sein das nvidia hier einfach die si vom
ad102 auf 192bit 96mb
ad103 128bit 64mb
ad104 96bit 48mb
und
ad106 64bit 32mb
kürzt

Und alle gpu mit 24gbts ram ausstattet geplant ist aber später auf gddr7 umzustellen 32gbts
Was eine refresh der rtx40 Serie irgendwann 2023 kommt.
Eventuell kommen gar nicht so viel sku mit gddr6x 24gbts, eventuell rtx4900 und rtx4080
Und dann lange nix bis gddr7 mit nen refresh und den rest des lineups 50er 60er 70er
Das würde auch den speichergeiz erklären

Nicht unlogisch das nvidia eher die Bandbreite erhöht als mehr vram zu gewähren auch wegen der Langlebigkeit der gpu zu vermeiden.

Also entweder es sind 128fp32 die maximal bei 2,2ghz laufen was sehr effiziente chip bringen würde tbp bei 2,2ghz wären bei etwa 220w im falle vom ad103 oder meine Annahme von 84-88sm stimmen was entweder 340w tbp oder nur 250w tbp hinkommt.

Wenn das Bild echt ist, könnte es wirklich so sein das nvidia dann auf Halde produziert. Und eigentlich die rtx4090 4080 und rtx4070 2022 geplant waren
Und als absehbar war das mining Abstürzt und man versucht hatte die Produktion zu kürzen aber nur verschoben werden konnte auf nen Monat was dann Fertigung des ad103 ab sept 2022 auf okt verschoben hat.
Das würde Sinn machen

Achja cache Bandbreiten plus da dies mit dem shaderclock syncron läuft.
RTX4090 24gb 55tf = 192*2500/1000=480gb+192*24/8=1056gb/s
rtx4080 16gb~41,9tf =96*2600/1000=330gb+128*24/8=716gb/s

Zum Thema Bandbreite, dies ist derzeit kein Flaschenhals zumindest nicht in 1080p wo das maxed derzeit bei etwa 240gb/s benötigt werden

Den das richtet sich danach welche Konsolen wieviel Bandbreite brauchen das skaliert zur Auflösung die intern im spiel berechnet wird.
PS4 192gb/s
ps4 pro 256gb/s
ps5 448gb/s

Sprich da alle spiele aktuell zwischen 900p und 1440p nativ berechnet werden ist die Bandbreiten Anforderung zwischen 200gb/s bis 330gb/s notwendig
Alles darüber kann man mit msaa und anderen filtern füllen.
Es gibt noch quasi kein spiel die auf größere Auflösungen basieren.
Das wird sich ändern ab den ersten UE5 spielen die nicht von UE4 portiert wurden.
Und den pro Konsolen ab 2024
Was vram buffer angeht wird sich das entspannen aber zu nen preis der Bildschärfe und LOD.
Den upscaling wird zu standard wenn der vram nicht ausreicht.
Das ist in der ue5 intrigiert das schöne ist wenn nanite richtig angewendet wird ohne Schärfeverlust
Leider wird man primär UE4 Projekte portieren wo das noch nicht genutzt werden kann.
Folge Unschärfe bei zu wenig vram und popups

Erste echte ue5 spiel werden wir erst 2024 sehen eher sogar 2025
Ab dann wird 12gb vram ein Segen sein 8gb matsch und 10gb was dazwischen.

Ue5 spiele die sicher von ue4 portiert wurden
stalker 2
dead island 2
atomic heart
witchfire

ue5 spiele unklar aber ich sehe da bioshock4, tomb raider und max payne remake alle zwischen 2024 und 2025

Für mich interessant tempest rising da es dafür sogar ne demo gab sehe ich den release zwischen q1 und q3 2023. (ist aber ue4)
bin echt gespannt wie man das problem des clipping der engine lösen will für rts ist die ue nicht wirklich geeignet.
Siehe Rundenstrategie wie xcom serie 2012 2016. Das bis heute nicht wirklich rund läuft.

Der Ue Baukasten ist perfekt für 3rd person und ego shooter

Die ue5 allerdings sieht das anders aus weil eben eine neue basis gibt.
Und dennoch kompatibel zu alten Ue4 Projekte bleibt.

Bin echt gespannt was ubisoft square enix und sony als konter bringen
Die anderen Publisher werden vermutlich auf den ue5 Zug aufspringen oder bei den alten engines verharren

Das alles ist wichtig bei der Planung welche sku man kauft also eine mit 8gb vram oder doch eher 12gb vram

Das ist vom belang weil rtx4060 vermutlich 8gb und rtx4070 auch knappe 10gb vram haben werden.

Zu den preisen die sind auch relativ klar

Rtx4090 zwischen 1200$ und 1400$ mehr kann nvidia nicht verlangen . siehe inflation
In D sind das aber 1450€ und 1670€
gleiches gilt für ne rtx4070 ab 719€ für vermutlich 56sm 2,4ghz 250w tbp~25,8tf

ne rtx4060 knackt mit dem ad106 419€ 8gb vram.
Das aber hängt vom amd n33 ab alias rx7600xt kostet die 399€ und hat 2,8ghz =22,9tf muss nvidia den ad104 nutzen was dann 2,6ghz bei 200w tbp etwa 2,5ghz 48sm 23tf 479€ 10gb vram.
Darunter gesellen sich noch rtx4050ti 36sm und rtx4050 28sm kann sein das nvidia den ad107 einstampft.


Wie gesagt die sku sind noch völlig offen und könne quasi innerhalb eines Monats geändert werden.
Noch werden die ad104 nicht gefertigt für die ad103 und ad102 ist es zu spät.
Hier werden nur noch Taktraten festgelegt.
Ich bin überzeugt das dass Flaggschiff rtx4090 mit 116sm kommt und 2,5ghz =55,6tf was den etwa 20000tse point entsprechen.
Und die rtx4080 mit 2,65ghz rennt bei 84sm 15000tse

Die große frage ist was amd erreicht hat mit den mcm und ob es Latenzprobleme gibt die die fp32 pro wgp limitieren wird.
Wenn ja ich gehe von 1/4 Einbußen aus.
Dann wird nvidia mit reduzierten tbp in front sein
Wenn nein wird nvidia den Takt ans limit setzen, sprich zwischen 2,6-2,8ghz, das wird insbesondere bei den 60er und 70er Modelle problematisch.
high end hat sich gezeigt das 600w tbp zwar machbar sind aber nicht stabil.
Anderen Grund warum die rtx4090ti mit 600w tbp nicht kommt kann ich mir nicht vorstellen.

amd rx7950xt
n31 48wgp 3,3ghz 75% fp32 =61tf
nvidia RTx4090ti /titan
128sm 2,5ghz=61,4tf

Da aber alle leaks von etwa 21000-22000 tse ausgeht ist eher mit 450w tbp und 2,5ghz Schluss eher weniger
insgesamt ist das eine pessimistische Sicht zur nächsten gen.

Im Gegensatz zu cpu sind gpu linear. Da sich die ipc pro sm /wgp nur dann ändert wenn die arch auf mehr als 32bit basiert oder weniger als 32bit.
Das hat sich in der Vergangenheit als nicht effektiv erwiesen weil damit auch die cpu drawcalls drastisch ansteigen.
Der Grund ist bei directx zu suchen.

man sehe sich intels alchemist an das auf 64bit basiert folglich gibt es Probleme mit dx11 und älter
Weil man für jedes game bzw die dx9 dx11 wrapper umwandeln muss in verständlichen 64bit gewandt in dx12.
Mich würde es nicht wundern wenn sogar opengl nicht geht. Bzw den vulkan Übersetzer braucht.

Amd hatte auch den Irrweg mit gcn bis 2019
70% gpu load pro cu war das maximum was man mit gcn erreicht am Anfang war es nur 55%

nvidia hat seit 2006 ne 32bit Grundlage mit wechselnder fp64 Einheiten.
Die dediziert oder in hybrid mit fp32*2 rechne können die sfu kann seit jeher 4 Operationen pro Takt ist immer aktiv mal dediziert fp64 oder in hybrid fp32 *4.
Das Wird in der firmware festgelegt.

Die int32 können technisch keine fp32, in software wäre ein Alptraum die fp32 kerne mit int32 zu betreiben zumal man dann für jedes game dies im Treiber hinterlegen muss.
Darum ist Turing Ansatz auch gescheitert und kaum schneller als pascal gen zuvor.
Jetzt rechnen die int32 dediziert und die fp32 Funktion liegt brach abseits einiger ausnahmen wo man die Optimierung angewendet hat.
Allerdings braucht es auch dafür die älteren Treiber.

Die gründe warum alles so bekannt ist nun es gibt schon Produkte in n4 und ein nvidia hack vom März 2022 wo die kosten der wafer klar wurde.
Der Rest ist Mathe da auch die chipgröße bekannt wurde.
Und weil man davon ausgehen kann das die chips eher tendenziell etwas größer sind kommen die preise hin
einzig der vram preis ist unklar zwischen 16gbit chips bei 21gts und 16gbit 24gts ist offen.
Beide zwischen 14-20$ pro chip
Darum nehme ich an das bei unter 20tf nvidia eher 18gt bleiben wird. ~12$ pro 16gbit chip
Amd könnte mit dem n33 komplett low end besetzen bei 199$ 249$ und 299$
In D wären das
rx7400er 10wgp 239€
rx7500er 12wgp 299€
rx7600er 16wgp 359€
alle 18gt 8gb
Und nvidia kann nicht kontern außer sie verzichten auf vram chip bundle und genau das sehe ich kommen.
Aber man weiß ja das amd eher die preise anhebt als nvidia druck zu machen daher gehe ich von 299$ 349$ 399$ aus. Das entspräche dann
rx7400 14tf 359€
rx7500 17tf 419€
rx7600 23tf 479€
vs nvidia dann
ad106 32sm rtx4050 8gb 15tf 299€
ad106 40sm rtx4060 8gb 18tf 419€ (rein spekulativ da der chip 48sm hat )
ad104 48sm rtx4060ti 10gb 23tf 479€

letztere wäre mit Zähneknirschen (200w tbp) meine gpu
 
Zuletzt bearbeitet:
ich sehe da eher das problem bei 700gb speicher geschwindigkeit. selbst wenn die 4080 schneller wird dann wird das interface spättestens bei 4k zum problem.
Nicht zwingend - da NV jetzt auch den Weg großer L2-Caches geht um die Abhängigkeit vom vRAM zu verringern, ähnlich wie es AMD mit seinem InfinityCache tut. Wenn die Hitrate in den Cache ausreichend groß ist werden Zugriffe auf den vRAM bedeutend seltener und die Bandbreite weniger zum Flaschenhals.
 
Meinste wirklich die ziehen das weiter durch dass die Ada-Shader nur dann 2xFP32 können wenn kein INT anliegt?^^

Sie habe dort, bei Ampere, ein Rezept gefunden, das überproportionale Leistungssteigerungen ermöglicht und sich auch noch wunderbar verkaufen läßt (doppelte Shaderzahlen, das hört sich doch toll an).

Warum sollten sie davon weggehen?

Zumindest 3dCenter ist davon überzeugt dass es nicht mehr so ist (und sogar die Variante FP32 UND Int-Einheiten kommt):

Nvidia versteht es meisterhaft, die ganzen Dinge geheimzuhalten, auch wenn die ganzen Leaks das Gegenteil vermuten lassen. Bei Turing wußte man auch Wochen vorher nicht, wie das ganze eigentlich heißen sollte. Viele sind von Ampere ausgegangen, einige noch Volta, der ja auch kommen sollte. Klarheit gab es erst bei der Vorstellung. Am Abend vor der Vorstellung hat irgendeine Zotacfolie noch bestätigt, dass Ampere in 7nm bei TSMC hergestellt wird. Schön, dass ich mal wieder Recht hatte, die Gerüchte um Samsung waren Quatsch, genau wie die anderen Prozesse (12nm, 5nm, 6nm) bei TSMC. Es kam dann doch anders.

Im Moment sind alles nur Gerüchte und Vermutungen. Wenn man sich das ganze mal über einen längeren Zeitraum ansieht, dann merkt man, dass da keiner Ahnung hat (TDP RTX 4090: 450, 480, 600, 900, 800, 600, 450W.

20-30% würde ich bereits als deutlich schneller bezeichnen. Und das würde vom Verhältnis auch passen, wenn die 4070 die gleiche Leistung bringt wie eine 3090.

20% sind die Grenze, bei der man einen Unterschied, per Blindtest, nachweisen kann.
 
Dachte erst: Toll da hat einer nen Aufkleber mit 4080 auf ne RTX 3090 FE geklebt..
Aber der Kühler ist anders. Der Lüfter ist in den Rahmen geschnitten und hat offensichtlich eine andere Lüfterblattgeometrie. Auch der Nvidia Schriftzug scheint von der Kante außen nach innen gewandert zu sein.
Aber warum sich jemand sone - zumindest momentan noch - seltene Karte auf dem Küchentisch in ner nicht antistatischen Tüten hinlegt, um sie zu fotografieren ist mir zu hoch..
 
Draug ge.......n ,der selbe klotz wie immer .Nein halt der Preiß wird nur wieder verdoppelt :-)
 
Das kann ich nur verneinen. Die Karte hat leider nicht wegen der unsäglich doppelseitigen RAM-Bestückung aufgedreht, sondern weil NVIDIA an den Pads gespart hat. Diese haben den RAM an die thermische Grenze wandern lassen, und die Regelung hat der Karte quasi suggeriert "wenn du nicht gleich den Lüfter auf volle Pulle stellst, gehst Du erbarmungslos drauf".
Teilweise waren die Pads sogar zu dünn und haben keinen Kontakt zum Kühlkörper gehabt.
Deswegen haben seeehr viele User die Pads getauscht, in welche die dicker sind und eine bessere Wärmeleitfähigkeit besitzen. Und siehe da, mit diesem Workaround ist das der effektivste Kühler für diese Hitzköpfe und der Speicher geht nicht mal in die Nähe von 110°C. Ergo dreht der Lüfter nicht mehr auf und die Kühler sind extrem unaufdringlich, würde fast behaupten sogar leiser als die Strix-Quirls. Da CB stock gestestet hat, klar können da schon 42,5DB rauskommen. Das beschissenes QM bei Nvidia. Aber dieses Problem hatten ja anfangs auch Custom-Karten.
Wenn dann gibts wieder ne FE. Aber ich glaube eher nicht, es sei denn da stehen wirklich +50% und mehr zur Disposition, woran ich eher nicht glaub, ohne das sämtlich Regeln der Physik gebrochen werden.



Das FE-Design ist ein Teilblower-Design, ein Lüfter schiebt hinten raus, was perfekt ist für kleine Gehäuse und einer führt die Luft vorn durch die Kühlrippen wo jedoch die Luft nicht so stark erwärmt wird. Somit bleibt es "relativ" kühl im Gehäuse. Man merkt aber ohne Drosselung/Zähmung der Karte, das da ordentlich Musik drin ist und die Wärmestrahlung sucht seines Gleichen. UV ist als ITX-User quasi Pflicht. Unpraktisch sind nur Plastikbomber-Vaporchamber-Designs mit den Spielzeuglüftern, die das ganze hinten raus zu prügeln versuchen. Eigentlich ganz clever, muss nur gut umgesetzt sein.

naja die meisten „gamer“ pusten die vapor chamber „plasikbomber“ abwärme ja mit einem darauf ausgerichteten airflow konzept dennoch effektiv nach draußen - wenn sie nicht sogar auf wasserkühlung setzen. und in dem kontext kann man schon sagen, dass zwei-drei „offene“ lüfter dann insgesamt doch für einen leiseren betrieb sorgen. oder vertue ich mich da?
 
10-12 GiByte für eine 4070?!?! 101011111!? Die Karte kostet dann überzogene 700 € - 800 UVP , nein danke so ein Speicherkrüppel für Highend-Gaming braucht keiner, so zwingt man diese Spieler dazu 1200 € für eine Karte mit 16 GiByte auszugeben.
Und darunter kommt dann die tolle 4060 TI mit sagenhaften 6-8 GiByte, diese soll dann wohl die neue Highend-Gaming Karte werden, die so auch keiner braucht....
NV = Geiz bei Speicher ist geil!:devil:
Neulich hier gelesen, dass in Pakistan die Höhe der Steuern auf Grafikkarten an die Speichergröße gekoppelt werden soll. Also hat Nvidia doch eigentlich keine andere Wahl :wow:
 
Neulich hier gelesen, dass in Pakistan die Höhe der Steuern auf Grafikkarten an die Speichergröße gekoppelt werden soll. Also hat Nvidia doch eigentlich keine andere Wahl :wow:
Man könnte auch wie früher einfach verschiedene Speicherausbau Stufen nutzen.
RX580 gabs als 4gb und 8gb
1060 als 3gb und 6gb

Oder speziell für den pakistanischen markt angepasste Karten, wie es für china gemacht wird. Siehe 1650(oder wars ne andere?) mit 5gb
 
Zurück