Nvidia Geforce RTX 4080: Schnellerer Speicher mit 23 Gbps und 340 Watt TBP (Gerücht)

Also man kann den Verbrauch auch sehr gut Minimieren. Als Beispiel die FPS auf 60 einzustellen da verbrauchen die Karten nur das Nötige. Mein altes System verbrauchte um die 350-400 Watt mit der neuen Karte bleibt es fast dabei ich würde sagen die 3090 ti verbraucht maximal 50 Watt mehr solang ich ihm WQHD bleibe. Geisteskrank wird es nur in UHD da sind wir bei 600.
 
Alles unterhalb der 4090 wurde offenbar sowieso auf 2023 geschoben weil die Lager noch immer brechend voll mit überteuerten 3000er Karten sind die erst raus müssen.

Aber irgendwas muss man doch produzieren. Würde dann ja bedeuten, dass wir massenweise 4000er Grafikkarten zu Beginn kaufen können, wenn sie erst Anfang 2023 erscheinen. Außerdem müsste da auch AMD mitspielen.
 
Aber irgendwas muss man doch produzieren.
Ja, AD102-Chips für die RTX4090 und fürs Profisegment/HPC. Die "kleineren" Chips muss man nicht produzieren wenn die Lager noch voll sind mit 3000er Karten, so lange kann man die Workstations beliefern oder wahlweise auch Kontingente nach hinten schieben (was die Gerüchteküche schon erzählt hat) - TSMC hat sdicherlich genug Aufträge für den Node, die können stattdessen auch Chips für Apple oder AMD beispielsweise fertigen.
 
Ja, AD102-Chips für die RTX4090 und fürs Profisegment/HPC. Die "kleineren" Chips muss man nicht produzieren wenn die Lager noch voll sind mit 3000er Karten, so lange kann man die Workstations beliefern oder wahlweise auch Kontingente nach hinten schieben (was die Gerüchteküche schon erzählt hat) - TSMC hat sdicherlich genug Aufträge für den Node, die können stattdessen auch Chips für Apple oder AMD beispielsweise fertigen.
Da gab es doch eine News zu, "alle" versuchen ihre Kontingente zu canceln oder nach hinten zu schieben. :lol:
 
Da gab es doch eine News zu, "alle" versuchen ihre Kontingente zu canceln oder nach hinten zu schieben. :lol:
Ja, so ungefähr - wobei Chips mit denen man Ether minen kann einen härteren Verschiebungsdruck verspüren als Chips die in Mainboards stecken oder Smartphones und Laptops/Tablets antreiben.^^

Die kommende harte Rezession und Marktsättigung ist ein Faktor der auf praktisch alle Chips schlägt aber die vollen Grafikkartenlager plus Gebrauchtkartenschwemme aus den Miningrigs gibts halt nur bei GPUs.
 
Nvidia lässt 420 Watt- Gerücht streuen... Alle so MMM... will ich nicht!
Nvidia lässt Klatschtante was von 340 Watt in den Bart brabbeln- und das komische Volk so: Juhu gekauft die 4080-Sparwurst!
Nvidia so: HaHaHa-mir ham se wieder drangekriegt mit nem Taschenspielertrick...wie immer!
Gruß Yojinbo
Ist ja nicht so als könne man die Karte wie ein Spiel vorbestellen...
Der Verbrauch wird auf der Verpackung stehen.
Wieviel die Karte an Performance hat, wird man am Releasetag oder einen Tag vorher sehen, wenn alle Youtuber und möglicherweise auch PCGH :hail:ihre Tests veröffentlichen dürfen.

In den ersten 1-2 Monaten werden sie eh, wie immer, kaum verfügbar sein. Gekauft wird immer.
Es gibt genug Leute die Geld haben und dieses für ihr Hobby ausgeben.
Es gab auch genug Leute die eine Titan für ihren Gaming PC gekauft haben.
Es gab auch Leute die für ihren Gaming PC von einer Titan X auf eine Titan Xp geupgraded haben...

Keiner zwingt jemanden eine neue GPU zu kaufen, außer die geht kaputt.
Aber noch habe ich keine geplante Obsoleszenz bei GPUs gesehen.
 
"Der schnellere Speicher lässt nach bisherigen Informationen die Speicherbandbreite von 676 auf 736 Gb/s ansteigen."

N Fehler, oder sind hier wirkluch GigaBIT gemeint?

Auf jeden Fall kann meine Radeon 9700 pro dann ja fast einpacken.
 
nun meine posting sidn was Wirr Konstruriert mir klar.
Am ebsten man denkt in tabellen.
Und ja ich muss bei fasst jeden artikel über ada lovelace wie schon bei ampere und früher was als nächste gen kommt 2017 ming senf dazugeben
Das aber bei ada so viel bekannt wurde vom mnvidia hack ud es handfeste daten zur Fertigung gibt kann man Rechnen.
Ganz im Gegensatz zu früher wo nix bekannt war bis etwas vorgestellt wurde.

mal übersichtlicher
bitte
GPU skuShader pro smsm count
vram
taktoperarion pro taktfp32 tf leistungstrombedarf nach sweetspot ~2,2ghz zum quadratreleasepreischip
RTX4090/ti96/128116
24gb
2,4ghz253 oder 71tf500-700w tbp derzeit noch in test12/20221299-1999€ad102/144sm
RTX4080ti/9096/128104 12gb2,5ghz249tf oder 66,5tf420w tbpq1 2023999€-1299€ad102
RTX408096/12876/72/60
16gb
2,2-2,5ghz276sm 32tf-37,5tf oder 36tf48tf
60s, spare ich mir weil unrealistisch siehe eins tiefer
275-340w tbpq1 2023799-899€ad103/96sm
RTX407096/12860/56/52
12gb
2,2-2,6ghz225tf-29tf 60sm
23-27tf 56sm
21tf*25tf 52sm
128alu pro sm 1/4 mehr
225-250w tbpq2 2023549€ad104/72sm
RTX4060ti96/12846
10gb
2,2-2,4ghz219tf-22tf180-215w tbpq2 2023479€ad104
RTX406096/12828/32/36
8gb
2,2-2,6ghz211,8-13,9tf 28sm
13,5tf-15,9tf 32sm
15,2-17,9tf 36sm
135w-190w tbpq2 2023299€ad106/48sm

Siehe den ganzen text mal vereinfacht
ich hab nur erwähnt wie ich darauf komme

Daten
sm bestätigte chip Ausbaustufen vom hack märz 2022
TBP anhand von hopper n4 Fertigung
hopper ist deutlich dichter als ada aber hat keine rt cores daher wird der chip kleiner und die wärmedichte bleibt in etwa gleich 832mm² vs 600mm²
Die sm bleiben gleich lediglich die fp64 Einheiten könnten rausfallen oder in die 128 intrigiert sein was wahrscheinlich ist.
Die Größe der fp64 vom hopper könnte der rt core einnehmen ergo gleiche Wärmeverlustleistung und somit Takt und tbp
Der Rest ist vom Sweetspot womit die gh100 gpu laufen an rechnen wobei bis 1,04v und 2,2ghz am desktop der sweetspot sein wird.
Von da an zum Quadrat ineffizienter und da kommen halt die tbp angaben her.

Die sku werden aber erst 3 Monate vor release festgelegt
ad102 war juli und ist somit zementfest ab okt zum release bereit
Das hat man verschoben auf nov bis dez laut letzten Gerücht wegen der übervollen lager von ampere gpu
Die preise stammen von den letzten leak der waferkosten bei tsmc aus dem hack war ersichtlich das nvidia dafür zwischen 17000$ bis 18000$ pro wafer zahlt.
ich nahm die höhere kosten an.
Vram preise sind in alibaba ersichtlich zumindest sind die Steigerungen der vram chips in % bekannt was bei etwa 20% sind von derzeit 8gbits chip (1gb 16gt) bei 4$ und bei 18gt 5$ ist = 4,80$ bei gddr6 20gt samsung und 6$ bei 24gt gddr6x von micron
16gbits chips (2gb) sind bei etwa 8-10$ gddr6 und 10-12$ bei gddr6x

Anfang 2022 war das noch doppelt so teuer
Und das mit 16 und 18gt chips in 8gbit

marge nvidia sowie amd 70% mit vram als bundle
marge aib 20% seit jeher
marge großhändler 10%
transport pro sku 10$
marge Einzelhändler 10%

Die kosten sind trotz teurer Fertigung der wafer geringer besonders bei amd
Der vram preis ist endlich raus zur Verteuerung von ampere war das 50% der preise ausmachte die über die uvp gingen.
Jetzt macht man kein Verlust pro sku es ist eher so das die Händler sich Übernommen haben
Darum sinken die preise nur zögerlich
Insbesondere im low end ist das zu spüren die gtx1650 ist Überproportional verfügbar über 50 Modelle und dennoch bleibt der Preis stur bei 199€ dieser müsste bei 140€ sein.
Da aber der release der rtx4050 erst q3 2023 ist hoffen die Händler das bis dahin die ware weg ist
Dringender ist der Überbestand an ga102 gpu

Rtx3090tiRtx3090rtx3080tirtx3080
derzeit 1200€ kommend 1050€~dezderzeit 1150€ kommend 1000€Derzeit 950€ kommend 800€ derzeit 850€ kommend 650€

Das einzige was diesen trend aufhalten könnte wäre China überfällt taiwan (es grüßt der Atomkrieg).
Es tritt ein mining revival auf (tritt sicher nicht auf bevor inflation nicht beendet ist) .
Die inflation wird weniger aggressiv das aber ist sehr unwahrscheinlich ich geh von bis zu 12% aus bis dez
Dagegen hilft derzeit nur das die politik endlich den Unsinn Sanktionen aufhört und auf Friedensverhandlungen pocht.
Zwar Unwahrscheinlich das die us of an a auf die Weltleitwährung verzichten aber das ist bestand des Krieges daher unwahrscheinlich das dies eintritt.

Teraflop Formel ampere (rtx30)
64fp32+ 24fp64/32 (vom ga100 Dokument entnommen das später im ga102 Dokument gelöscht wurde da wird nirgends ein native fp64 Funktion beschrieben warum ich das Dokument als marketing ansehe)
Der Ursprung war unter dem sm Schaubild den Einwand 24fp64 die nicht dargestellt werden
Die sfu berechnet 4 fp64 Operationen pro Takt und in jeden sm ist eine sfu
Die fp64 sind beim consumerchip deaktiviert und rechnen nur in fp32 was die 88fp32 Opertioenn pro sm bestätigen.
Die int32 core berechnen nix außer halb und Ganzzahlen

AMD rdna3 ist da was anders weil die wgp 256 alu haben und der chip mit 2,5d verbunden wird also passiv entsteht eine Latenz zwischen gcd und mcd 1 cycle mehr, das entspricht dem bottleneck was vega hatte alias gcn generell (gcn 64bit arch hat eine Auslastung von maxed 70% der fp32 shader)
Womit ich von 75% fp32 Auslastung ausgehe und das ist optimistisch
ich hoffe aber das amd dies gelöst hat und es keinen bottleneck gibt und die fp32 voll auslasten kann dann gewinnt amd auf ganzer linie und nvidia muss im preis kontern.
Den ada wird das nicht beim größten chip schaffen können den kleinsten rdna3 n31 zu schlagen.
Aber ich ahne schon das meine Vermutung der Latenz zwischen mcd und gcd stimmen könnte.
Hätte amd schon die 3d packaging Methode sähe es anders aus.
Das aber ist bei tsmc erst bei n3 drin.

RDNA 4 wird nochmal um 75% schneller sein als rdna3
Solche Leistungssprünge gab es zuletzt 2006 mit tesla Architektur von nvidia ( 8800gtx /g80) und nein 2016 gtx10 alias pascal war zwar schon beachtlich für eine gen Differenz aber man nahm ja mehr Strom auf für mehr Leistung.
Das trifft auch für rdna3 sowie ada zu. tsmc n3 Prozess könnte das ändern.
Aber die designs für blackwell (rtx50) sowie rdna4 (rx8000) sind noch völlig offen da in Planungsphase
erste info erwarte ich ende 2023.
Dann ist klar welche Fertigung es wird bei amd ist n3 sicher
nvidia unklar das hängt vom poker ab bei den Verhandlungen
zumal unklar ist ob nvidia auch mcm einsetzen wird. Derzeit spricht alles fürn Monolithen
Das sind aber alles leise Gerüchte über die Planung nix konkretes

Schön ist das nvidia hier wirklich sehr effiziente gpu bringen könnte wenn amd schwäche zutrifft, wird das auch so kommen.
Die Vernunft dgpu akä rtx4060 mit 135w tbp bei 2,2ghz wäre ideal etwa 11,8-15,2tf für 299€ aber leider nur 8gb gddr6 18gt.
Daher sehe ich eher die rtx4060ti als ziel an mit 2,2ghz und 180w tbp 10gb 20gt und 19tf
Das aber passiert nur dann wenn amd bei n32 als mitelklasse und n33 teurer verkauft als viele denken
Möglich
Rx7950xt 48wgp 16gb q1 20231799€ ~55,3tf n31
rx7900xt 46wgp 16gb q1 2231499€ ~52,9tf n31
rx7800xt 42wgp ist bestätigt 16gb q4 2022 899€ ~48tf n31
rx7700xt 30wgp 12gb q2 2023 599€ ~33tf n32
rx7700 24wgp 12gb q2 2023 499€ ~26,4tf n32
rx7600xt 16wgp 8gb q2 2023 399€ ~22,9tf n33
rx7600 14 wgp 8gb q2 2023 349€ ~20tf n33
rx7500xt 12 wgp 4gb q4 2023 279€ ~17,2tf

ihr seht die Problematik von nvidia selbst bei pessimistischer Annahme kann nvidia die low end Bereich nicht so hoch ansetzen wie oben.
Daher wird nvidia kurz nach release des n33 lineups die preise oben anpassen müssen oder amd wird die preise solange hochhalten wie es nur geht das ist offen aber diese preise sind realistisch bei derzeitiger chipgrößen annahmen.

amd n33 soll 200mm² für 4096 shader haben daran zweifle ich aber, da der n6 node kaum kleiner ist als n7.
Eher sind es 350mm² und selbst dann macht amd immer noch satten gewinn pro chip gehe von 80-100% marge aus.
Ich bin echt gespannt was zutreffen wird oder alles falsch ist.

Da aber die leaks selbst des sm Aufbau von ada kaum erfunden sein können diese stammen aus dem hack im März
Ist nur offen wie die Architekturen arbeiten, amd wird sicherlich beim mcm die fp32 Leistung nicht ganz auf die Straße bekommen, nicht mit passiven interposer.
Die frage die sich stellt welche Taktraten erreicht amd und welche nvidia.
Optimistisch sind 2,5-2,7ghz nvidia und 3,0 bis 3,3ghz amd.
Pessimistisch eher 2,2-2,4ghz nvidia und 2,8-3,0ghz amd

Achja ich werde wenn letzteres zutrifft dann benchen mit den alten daten meines test in raster rtx4060ti/rtx5060 vs rtx3060 vs gtx1060 mit dem r7 3800xt und ci7 5820k
Die daten sind nicht konstant da ich kaum die rtx3060 in dem ci7 build setzen will die cpu würde die gpu massivste ausbremsen in 1080p
Ich erwarte sogar das die vermutliche 19tf bis 22tf der rtx4060ti den r7 3800xt nicht in 1080p stemmen kann. abseits dxr. (siehe rtx3080)
Die Testszenen hab ich gesichert mehr oder minder mal reingezappt in den spielen
offen ist nur ob ich feste Szenen auswähle
Bei meinen test der rtx3060 kamen 47 games zum tragen mit den legacy spielen waren es sogar 76 spiele
Spiel von 2005 bis 2015 etwa 20
Der Rest ab 2016 bis 2020 war weniger standardisiert (test hatte ich im august - sept 2021 gemacht)
Das werde ich anpassen aber das dauert und solange keine interessante neue gpu kommt alias rtx4060ti 180w tbp oder rtx5060 mit maxed 120w tbp ideal wären 100w tbp mit 12gb vram mache ich nix.
So eine sku ist leider bei ada nicht drin. Und blackwell ist völlig offen.
(Werkzeug capframex und general logviewer für vram und power was leider neue Messungen erfordert)

DXR Leistung geht das Gerücht um das dxr keine Einbußen mehr hat und als Leckerbissen dlss3 sogar noch die fps steigern wird. Und es eher dann ein dlaa wird
Das aber ist höchst spekulativ. ich hoffe darauf das dlss3 kompatibel zu ampere wird.
Das ist aber software, unklar wie weit das mit hardware verzahnt wird.

Allgemein ist mein derzeitiger Pc ideal zum wirken (arbeiten) gut genug zum daddeln habe ich immer über 60fps selbst mit dxr abseits ausnahmen wie wd legion und cyberpunk 2077.
Meine settings sind immer maxed außer msaa aus und blur aus auf 1080p.
Bei legacy spielen nehme ich msaa nur dann rein wenn älter als 10 Jahre ist.
Ob ich das jemals als video hinbekomme ist offen aber die Tabellen stelle ich her.
 
Eig. ist es doch egal was die Karte verbraucht. Entweder kaufe ich die Karte oder eben nicht. Wenn, dann lasse ich sie doch wie sie ist und fange nicht an mit dem undervolten und Powerlimit herunterschrauben. Jedem ist es bewusst was er kauft. Wenn er was sparsameres haben will dann kauft man was anderes.
Ist wie ein Ferrari oder Dodge Charger kaufen und zum Händer bzw Verkäufer sagen. Hey Jungs, bitte das Fahrzeug drosseln, will doch sparen......
Undervolten heißt nicht, dass deine Karte auch immer langsamer ist. Es schließt sich nicht beides aus. Außer man möchte extrem sparen.
 
nun meine posting sidn was Wirr Konstruriert mir klar.
Am ebsten man denkt in tabellen.
Und ja ich muss bei fasst jeden artikel über ada lovelace wie schon bei ampere und früher was als nächste gen kommt 2017 ming senf dazugeben
Das aber bei ada so viel bekannt wurde vom mnvidia hack ud es handfeste daten zur Fertigung gibt kann man Rechnen.
Ganz im Gegensatz zu früher wo nix bekannt war bis etwas vorgestellt wurde.

mal übersichtlicher
bitte
GPU skuShader pro smsm count
vram
taktoperarion pro taktfp32 tf leistungstrombedarf nach sweetspot ~2,2ghz zum quadratreleasepreischip
RTX4090/ti96/128116
24gb
2,4ghz253 oder 71tf500-700w tbp derzeit noch in test12/20221299-1999€ad102/144sm
RTX4080ti/9096/128104 12gb2,5ghz249tf oder 66,5tf420w tbpq1 2023999€-1299€ad102
RTX408096/12876/72/60
16gb
2,2-2,5ghz276sm 32tf-37,5tf oder 36tf48tf
60s, spare ich mir weil unrealistisch siehe eins tiefer
275-340w tbpq1 2023799-899€ad103/96sm
RTX407096/12860/56/52
12gb
2,2-2,6ghz225tf-29tf 60sm
23-27tf 56sm
21tf*25tf 52sm
128alu pro sm 1/4 mehr
225-250w tbpq2 2023549€ad104/72sm
RTX4060ti96/12846
10gb
2,2-2,4ghz219tf-22tf180-215w tbpq2 2023479€ad104
RTX406096/12828/32/36
8gb
2,2-2,6ghz211,8-13,9tf 28sm
13,5tf-15,9tf 32sm
15,2-17,9tf 36sm
135w-190w tbpq2 2023299€ad106/48sm

Siehe den ganzen text mal vereinfacht
ich hab nur erwähnt wie ich darauf komme

Daten
sm bestätigte chip Ausbaustufen vom hack märz 2022
TBP anhand von hopper n4 Fertigung
hopper ist deutlich dichter als ada aber hat keine rt cores daher wird der chip kleiner und die wärmedichte bleibt in etwa gleich 832mm² vs 600mm²
Die sm bleiben gleich lediglich die fp64 Einheiten könnten rausfallen oder in die 128 intrigiert sein was wahrscheinlich ist.
Die Größe der fp64 vom hopper könnte der rt core einnehmen ergo gleiche Wärmeverlustleistung und somit Takt und tbp
Der Rest ist vom Sweetspot womit die gh100 gpu laufen an rechnen wobei bis 1,04v und 2,2ghz am desktop der sweetspot sein wird.
Von da an zum Quadrat ineffizienter und da kommen halt die tbp angaben her.

Die sku werden aber erst 3 Monate vor release festgelegt
ad102 war juli und ist somit zementfest ab okt zum release bereit
Das hat man verschoben auf nov bis dez laut letzten Gerücht wegen der übervollen lager von ampere gpu
Die preise stammen von den letzten leak der waferkosten bei tsmc aus dem hack war ersichtlich das nvidia dafür zwischen 17000$ bis 18000$ pro wafer zahlt.
ich nahm die höhere kosten an.
Vram preise sind in alibaba ersichtlich zumindest sind die Steigerungen der vram chips in % bekannt was bei etwa 20% sind von derzeit 8gbits chip (1gb 16gt) bei 4$ und bei 18gt 5$ ist = 4,80$ bei gddr6 20gt samsung und 6$ bei 24gt gddr6x von micron
16gbits chips (2gb) sind bei etwa 8-10$ gddr6 und 10-12$ bei gddr6x

Anfang 2022 war das noch doppelt so teuer
Und das mit 16 und 18gt chips in 8gbit

marge nvidia sowie amd 70% mit vram als bundle
marge aib 20% seit jeher
marge großhändler 10%
transport pro sku 10$
marge Einzelhändler 10%

Die kosten sind trotz teurer Fertigung der wafer geringer besonders bei amd
Der vram preis ist endlich raus zur Verteuerung von ampere war das 50% der preise ausmachte die über die uvp gingen.
Jetzt macht man kein Verlust pro sku es ist eher so das die Händler sich Übernommen haben
Darum sinken die preise nur zögerlich
Insbesondere im low end ist das zu spüren die gtx1650 ist Überproportional verfügbar über 50 Modelle und dennoch bleibt der Preis stur bei 199€ dieser müsste bei 140€ sein.
Da aber der release der rtx4050 erst q3 2023 ist hoffen die Händler das bis dahin die ware weg ist
Dringender ist der Überbestand an ga102 gpu

Rtx3090tiRtx3090rtx3080tirtx3080
derzeit 1200€ kommend 1050€~dezderzeit 1150€ kommend 1000€Derzeit 950€ kommend 800€derzeit 850€ kommend 650€

Das einzige was diesen trend aufhalten könnte wäre China überfällt taiwan (es grüßt der Atomkrieg).
Es tritt ein mining revival auf (tritt sicher nicht auf bevor inflation nicht beendet ist) .
Die inflation wird weniger aggressiv das aber ist sehr unwahrscheinlich ich geh von bis zu 12% aus bis dez
Dagegen hilft derzeit nur das die politik endlich den Unsinn Sanktionen aufhört und auf Friedensverhandlungen pocht.
Zwar Unwahrscheinlich das die us of an a auf die Weltleitwährung verzichten aber das ist bestand des Krieges daher unwahrscheinlich das dies eintritt.

Teraflop Formel ampere (rtx30)
64fp32+ 24fp64/32 (vom ga100 Dokument entnommen das später im ga102 Dokument gelöscht wurde da wird nirgends ein native fp64 Funktion beschrieben warum ich das Dokument als marketing ansehe)
Der Ursprung war unter dem sm Schaubild den Einwand 24fp64 die nicht dargestellt werden
Die sfu berechnet 4 fp64 Operationen pro Takt und in jeden sm ist eine sfu
Die fp64 sind beim consumerchip deaktiviert und rechnen nur in fp32 was die 88fp32 Opertioenn pro sm bestätigen.
Die int32 core berechnen nix außer halb und Ganzzahlen

AMD rdna3 ist da was anders weil die wgp 256 alu haben und der chip mit 2,5d verbunden wird also passiv entsteht eine Latenz zwischen gcd und mcd 1 cycle mehr, das entspricht dem bottleneck was vega hatte alias gcn generell (gcn 64bit arch hat eine Auslastung von maxed 70% der fp32 shader)
Womit ich von 75% fp32 Auslastung ausgehe und das ist optimistisch
ich hoffe aber das amd dies gelöst hat und es keinen bottleneck gibt und die fp32 voll auslasten kann dann gewinnt amd auf ganzer linie und nvidia muss im preis kontern.
Den ada wird das nicht beim größten chip schaffen können den kleinsten rdna3 n31 zu schlagen.
Aber ich ahne schon das meine Vermutung der Latenz zwischen mcd und gcd stimmen könnte.
Hätte amd schon die 3d packaging Methode sähe es anders aus.
Das aber ist bei tsmc erst bei n3 drin.

RDNA 4 wird nochmal um 75% schneller sein als rdna3
Solche Leistungssprünge gab es zuletzt 2006 mit tesla Architektur von nvidia ( 8800gtx /g80) und nein 2016 gtx10 alias pascal war zwar schon beachtlich für eine gen Differenz aber man nahm ja mehr Strom auf für mehr Leistung.
Das trifft auch für rdna3 sowie ada zu. tsmc n3 Prozess könnte das ändern.
Aber die designs für blackwell (rtx50) sowie rdna4 (rx8000) sind noch völlig offen da in Planungsphase
erste info erwarte ich ende 2023.
Dann ist klar welche Fertigung es wird bei amd ist n3 sicher
nvidia unklar das hängt vom poker ab bei den Verhandlungen
zumal unklar ist ob nvidia auch mcm einsetzen wird. Derzeit spricht alles fürn Monolithen
Das sind aber alles leise Gerüchte über die Planung nix konkretes

Schön ist das nvidia hier wirklich sehr effiziente gpu bringen könnte wenn amd schwäche zutrifft, wird das auch so kommen.
Die Vernunft dgpu akä rtx4060 mit 135w tbp bei 2,2ghz wäre ideal etwa 11,8-15,2tf für 299€ aber leider nur 8gb gddr6 18gt.
Daher sehe ich eher die rtx4060ti als ziel an mit 2,2ghz und 180w tbp 10gb 20gt und 19tf
Das aber passiert nur dann wenn amd bei n32 als mitelklasse und n33 teurer verkauft als viele denken
Möglich
Rx7950xt 48wgp 16gb q1 20231799€ ~55,3tf n31
rx7900xt 46wgp 16gb q1 2231499€ ~52,9tf n31
rx7800xt 42wgp ist bestätigt 16gb q4 2022 899€ ~48tf n31
rx7700xt 30wgp 12gb q2 2023599€ ~33tf n32
rx7700 24wgp 12gb q2 2023499€ ~26,4tf n32
rx7600xt 16wgp 8gb q2 2023399€ ~22,9tf n33
rx7600 14 wgp 8gb q2 2023349€ ~20tf n33
rx7500xt 12 wgp 4gb q4 2023279€ ~17,2tf

ihr seht die Problematik von nvidia selbst bei pessimistischer Annahme kann nvidia die low end Bereich nicht so hoch ansetzen wie oben.
Daher wird nvidia kurz nach release des n33 lineups die preise oben anpassen müssen oder amd wird die preise solange hochhalten wie es nur geht das ist offen aber diese preise sind realistisch bei derzeitiger chipgrößen annahmen.

amd n33 soll 200mm² für 4096 shader haben daran zweifle ich aber, da der n6 node kaum kleiner ist als n7.
Eher sind es 350mm² und selbst dann macht amd immer noch satten gewinn pro chip gehe von 80-100% marge aus.
Ich bin echt gespannt was zutreffen wird oder alles falsch ist.

Da aber die leaks selbst des sm Aufbau von ada kaum erfunden sein können diese stammen aus dem hack im März
Ist nur offen wie die Architekturen arbeiten, amd wird sicherlich beim mcm die fp32 Leistung nicht ganz auf die Straße bekommen, nicht mit passiven interposer.
Die frage die sich stellt welche Taktraten erreicht amd und welche nvidia.
Optimistisch sind 2,5-2,7ghz nvidia und 3,0 bis 3,3ghz amd.
Pessimistisch eher 2,2-2,4ghz nvidia und 2,8-3,0ghz amd

Achja ich werde wenn letzteres zutrifft dann benchen mit den alten daten meines test in raster rtx4060ti/rtx5060 vs rtx3060 vs gtx1060 mit dem r7 3800xt und ci7 5820k
Die daten sind nicht konstant da ich kaum die rtx3060 in dem ci7 build setzen will die cpu würde die gpu massivste ausbremsen in 1080p
Ich erwarte sogar das die vermutliche 19tf bis 22tf der rtx4060ti den r7 3800xt nicht in 1080p stemmen kann. abseits dxr. (siehe rtx3080)
Die Testszenen hab ich gesichert mehr oder minder mal reingezappt in den spielen
offen ist nur ob ich feste Szenen auswähle
Bei meinen test der rtx3060 kamen 47 games zum tragen mit den legacy spielen waren es sogar 76 spiele
Spiel von 2005 bis 2015 etwa 20
Der Rest ab 2016 bis 2020 war weniger standardisiert (test hatte ich im august - sept 2021 gemacht)
Das werde ich anpassen aber das dauert und solange keine interessante neue gpu kommt alias rtx4060ti 180w tbp oder rtx5060 mit maxed 120w tbp ideal wären 100w tbp mit 12gb vram mache ich nix.
So eine sku ist leider bei ada nicht drin. Und blackwell ist völlig offen.
(Werkzeug capframex und general logviewer für vram und power was leider neue Messungen erfordert)

DXR Leistung geht das Gerücht um das dxr keine Einbußen mehr hat und als Leckerbissen dlss3 sogar noch die fps steigern wird. Und es eher dann ein dlaa wird
Das aber ist höchst spekulativ. ich hoffe darauf das dlss3 kompatibel zu ampere wird.
Das ist aber software, unklar wie weit das mit hardware verzahnt wird.

Allgemein ist mein derzeitiger Pc ideal zum wirken (arbeiten) gut genug zum daddeln habe ich immer über 60fps selbst mit dxr abseits ausnahmen wie wd legion und cyberpunk 2077.
Meine settings sind immer maxed außer msaa aus und blur aus auf 1080p.
Bei legacy spielen nehme ich msaa nur dann rein wenn älter als 10 Jahre ist.
Ob ich das jemals als video hinbekomme ist offen aber die Tabellen stelle ich her.
Interpunktion und Orthografie sind ein Albtraum. Das Ganze noch gewürzt mit Annahmen und Selbstgefälligkeit. Dieser, der erste Post in diesem Thread und die Posts in anderen Threads könnten sich in den Augen mancher hervorragend als "Bewerbung" zum Mindfuck-Autor eignen.
 
"Der schnellere Speicher lässt nach bisherigen Informationen die Speicherbandbreite von 676 auf 736 Gb/s ansteigen."

N Fehler, oder sind hier wirkluch GigaBIT gemeint?

Auf jeden Fall kann meine Radeon 9700 pro dann ja fast einpacken.
Wie kommst du auf Gigabit?
Das B wurde anscheinend unbeabsichtigt klein geschrieben.
Ansonsten würde da auch Gbit/s stehen.
Interpunktion und Orthografie sind ein Albtraum. Das Ganze noch gewürzt mit Annahmen und Selbstgefälligkeit. Dieser, der erste Post in diesem Thread und die Posts in anderen Threads könnten sich in den Augen mancher hervorragend als "Bewerbung" zum Mindfuck-Autor eignen.
Nene, er ist der Märchenonkel und denkt sich gerne Sachen aus.
Rechnet dann noch wirr umher um seine Märchen zu begründen und dann passt das für ihn.
In News ist das noch ganz lustig.
Wenn er aber versucht Leute zu beraten und da auch wieder Märchen erzählt, dann ist es nicht mehr so gut.
Weisst man ihn darauf hin, wird eventuell kurz diskutiert oder es wird einfach überlesen.

Aber btt.
Egal was am Ende raus kommt, ich möchte einfach nur wissen, wie schnell sie am Ende wirklich sind.
Dann wird gewartet oder ne 6xxx oder 3xxx gekauft.
 
Zuletzt bearbeitet:
Kostet HBM Speicher immer noch deutlich mehr als solcher hoch getakteter GDDR6X Ram?

Statt 8x GDDR6X könnte man auch 4x HBM2 Speicher verwenden. Wahrscheinlich Kühler, effizienter und wie bei der Vega7 gesehen, hat man mehr Durchsatz.

Schade das keiner mehr auf die Technik zurück greift im Gaming Sektor :(

Wäre schon interessant
RTX4070 mit 3x HBM2 (12GB bei 600-750GB/s)
RTX4080 mit 4x HBM2 (16GB bei 800-1000Gb/s)
 
ja HBM ist immer noch doppelt so teuer wie gddr

Und ja meine Märchen haben nur handfeste infos
meine Quelllen
wccftech
red gaming tech
videocards
techpowerup
diverse twitter accounts
und andere yt leaker sind eher messenger aber ich kann keine asiatischen sprachen

Für feste daten nehme ich igors lab zur hand
pcgh
bedingt computerbase
und alibaba sowie den die per wafer Rechner

Alles nachvollziehbar.
 
ja HBM ist immer noch doppelt so teuer wie gddr

Und ja meine Märchen haben nur handfeste infos
meine Quelllen
wccftech
red gaming tech
videocards
techpowerup
diverse twitter accounts
und andere yt leaker sind eher messenger aber ich kann keine asiatischen sprachen

Für feste daten nehme ich igors lab zur hand
pcgh
bedingt computerbase
und alibaba sowie den die per wafer Rechner

Alles nachvollziehbar.

Aha, warum kommen dann wieder Märchen?
doubling the memory of the graphics cards costs around $12 per GB
Quelle: https://www.hardwaretimes.com/doubl...idia-and-amd-less-than-12-gb-its-very-likely/
Three years ago, HBM cost about $120/GB. Today, the unit prices for HBM2 (16GB with 4 stack DRAM dies) is roughly $120, according to TechInsights.
Quelle: https://semiengineering.com/whats-next-for-high-bandwidth-memory/
Was ich so auf die schnelle gefunden habe.
Also HBM 7,5$/GB und GDDR6 12$/GB.
Mathe scheint echt nicht deine Stärke zu sein.
Oder wo ist deine Quelle dazu?
 
Also man kann den Verbrauch auch sehr gut Minimieren. Als Beispiel die FPS auf 60 einzustellen da verbrauchen die Karten nur das Nötige. Mein altes System verbrauchte um die 350-400 Watt mit der neuen Karte bleibt es fast dabei ich würde sagen die 3090 ti verbraucht maximal 50 Watt mehr solang ich ihm WQHD bleibe. Geisteskrank wird es nur in UHD da sind wir bei 600.
Ja bei mir recht ähnlich. Hab zwar "nur" die 3090 FE, aber da bin ich auch bei um die 400W für das komplette System inkl. Monitor. Mal bisschen mehr, mal bisschen weniger.
Möchte jemand mitraten was die 4090 offiziell kosten wird?
Ich bin für 1699€ UVP von Nvidia.
 
Von 180W rauf auf 340W?
Sind die bei NVidia wahnsinnig geworden?
Ich werde meine 1080 nicht durch einen Stromfresser ersetzen!
Vor allem jetzt erst recht nicht!
Hoffentlich bringt AMD wieder so etwas wie eine Radeon 6700 mit gutem Preis-Leitungs-Mix und wenig Stromverbrauch auf den MArkt, diesmal aber viel früher und vor allem auch mit angehobener RT Leistung.
 
Undervolten heißt nicht, dass deine Karte auch immer langsamer ist. Es schließt sich nicht beides aus. Außer man möchte extrem sparen.

Kurzer Einwurf, wer extrem sparen möchte, kauft keine der extrem Leistungsfähigen Karten sofern diese von dir gemeint waren. Aus reinem Interesse habe ich auch undervoltet, allerdings mit mehr Takt auf GPU und Speicher um die Auswirkungen zu sehen. Eigentlich stimmt daher meine Sig auch nicht mehr aber gelohnt hat es sich. Dennoch frisst die Karte einiges, mir ging es nur um Laustärke und Temp und einfach das Wissen darüber wie sich die Karte verhällt...sparen werde ich damit nicht merklich etwas außer Temp und Laustärke.
 
Zurück