News Geforce RTX 4070: Gigabyte listet Modelle mit 10, 12 und 16 GiByte Speicher

Hmh grübel grübel.
Stell Dir vor, Graka hat 16 GB Ram und die gleiche mit 20GB.
Da würde ja nur ein Speicher Chip mit 4GB fehlen.
Dies sollten an der 16 GB Version genauso wie bei der 20GB Variante natürlich vorbereitet sein so, das man nur den Speicherbaustein draufstecken muss,
von mir aus auch SMD löten.....
Das passt vom Bus her nicht.
Wenn die Karte 16 GB hat, musst du verdoppeln, um das Gleichgewicht auf dem Bus zu halten.
Das kannst du gut an den Custom Versionen der alten R9 Karten von AMD sehen. Die waren eigentlich für 4GB gebaut, wurden von einigen aber als Sondermodelle mit 8GB bestückt.
Wenn ich mich recht erinnere, waren das dann die ersten Module mit 2GB Kapazität, anstelle der üblichen 1GB (8Gbit) Chips.
Da geht das platzsparend... sind halt austauschbare Chips auf dem gleichen Platz.
Auf heutigen Karten werden aber schon die high capacity Chips eingesetzt. So müsste man dann absichtlich einen Teil des Speicherbusses ungenutzt lassen und 1-4 Speicher Controller mit "toten" Leitungen zu freien Chipplätzen bestücken, die dann wieder ziemliche Kopfschmerzen bei elektromagnetischen Störungen machen.
Solche unverbundenen Leitungen sind dann nette Antennen, die Störungen einfangen. Gegenmaßnahmen dafür kosten wieder Platz und Geld.

Dann ist es deutlich effektiver für alle Beteiligten, die Fähigkeiten des GPU Chips - bzw. des MCU Chiplets - komplett zu nutzen und Erweiterung zu streichen.
 
Uff, vielleicht nicht zu sehr auf Google Translate verlassen, vor allem, wenn der Originaltext scheinbar Tippfehler hatte und Idiome enthält.

Er sagte "Jensen's lap", also Sinngemäß, sie werden nicht "Schoßhund" spielen. Zumal das schon wieder ein recht altes Interview ist.
Jepp... EVGA und die bekannten Mitarbeiter hatten nicht viel gute Worte für die Zusammenarbeit mit Nvidia übrig.
Jensen selbst sagte ja mal, dass er nicht verstehe, warum AIBs an den Karten Geld verdienen sollen, wenn sie doch nur einen Kühler draufpacken.
Im Endeffekt will er die AIBs loswerden und alles selbst verkaufen - was ihn zum gleichen Fehler treibt, wie damals 3DFX, die dann von Nvidia gekauft wurden.

Wäre dann nicht ein (Treiber-)Fehler in der Speicherverwaltung möglich? Ich hab keine Ahnung, wie AMD die MCD handhabt. Wäre ev. interessant zu vergleichen, wie Spiele auf 2 Monitoren gehandhabt werden ob da auch so ein Einbruch stattfindet.
Durchaus.
Es dürfte noch die fehlende Erfahrung des Treiber Teams mit dem MCM Ansatz sein, der die Performance in einigen Bereichen beschränkt.
Aber es kann auch ein grundsätzlicher Bug im Design sein, der eventuell auch dazu beigetragen hat, dass die generellen Performance- und Effizienzziele nicht erreicht wurden.
Immerhin sollte RDNA3 mit über 3GHz laufen und 50% effizienter sein, als RDNA2.
Bei den vorherigen Releases mit RDNA 1 und 2.. und den ZEN CPUs haben sie es ja jedes Mal geschafft, ihre Vorhersagen einzuhalten und teilweise zu übertreffen.

Tja, da ist eben das Problem: AMD und Nvidia wissen, dass ein guter Teil der Kundschaft ähnlich viel Selbstbeherrschung hat, wie ein Kleinkind, dass man im Spielzeuggeschäft loslässt.
Das trifft zum Glück bei weitem nicht auf alle zu.
Mich juckt es zwar auch - vor allem, da ich eine neue Arbeits GPU für meinen 3D Drucker Rechner brauche (mit zu alten GPUs spinnt mancher Slicer ziemlich rum) - aber da sind mir aktuell selbst die 2000er noch zu teuer. Dann muss die Arbeit halt erst mal auf dem Laptop gemacht werden.

Du brauchst nur bei den Mindstar-Deals zu schauen. Die bleiben regelmäßig auf mehr als der Hälfte des Kontingents sitzen. Darum gibt es auch mitunter Cashback-Aktionen von Asus und Co. Der Absatz ist deutlich zurückgegangen.
Man sieht es ja auch an den Absatzzahlen vom letzten Quartal. Der Einbruch war sehr extrem - aber zu erwarten.
Da Mining nun erst mal wieder tot ist, wird der durchschnittliche Verkaufspreis deutlich in den Keller gehen.
Die Löhne haben in den letzten Monaten einen deutlichen Kaufkraftrückgang mitgemacht.
Da sind neue GPUs bei weitem nicht mehr oben auf der Kaufliste.
 
ähhh ja...scheiss Spiegel :bier:
Wird Dir da nicht schlecht (allein vom Bilder anschauen habe ich da ein leichtes Unwohlsein), oder gibt sich das nach einiger Zeit?
Mir reicht da schon der 3440x1440p Moni.
Es gibt sich mit der Zeit, ehrlich gesagt sorgt dieser Effekt sogar dafür das du besser in die Welt eintauchst... Fliegen ist richtig Genial! Könnt den ganzen Abend den Rekord da jagen! :bier:
 
Ja einleuchtend, Geld würde das tatsächlich mehr kosten
Aber Pull up oder Pull down iderstände sollten doch das Antennen Probleim terminieren oder?
Oder zu hochfrequent?
Um das richtig zu beantworten bin ich leider zu lange aus dem Schaltungsdesign raus.
Aufs dominante Level ziehen ist auf jeden Fall geboten - auch für die verbundenen Leitungen.
Bei weiteren Maßnahmen für HF bin ich halt leider zu lange raus.
Ich bin aktuell mehr auf System Design Ebene unterwegs (Hardware liegt 1-2 Ebenen "tiefer").
Da gibt es hier im Forum sicher noch ein paar, die das besser beantworten können
 
Meine Vega 56 hat mir in Ultimaker nie Probleme gemacht falls das hilft.
Lychee Slicer für meine Resin Drucker zickt leider mit meiner R9 290. Der Legacy Treiber führt dazu, dass Lychee vollkommen absurde Supports weit abseits der Druckplatte einbaut, die mal eben höher sind, als der Bauraum.
Ab und an gehen die Supports dann auch einfach komplett durch das Modell durch.

Für die FDM Drucker gibts zum Glück nicht so zickige Programme.
 
Zuletzt bearbeitet:
Wer aus Prinzip zu einer Marke greift, egal ob die Konkurrenz Vergleichbares, wenn nicht sogar besseres bietet, ist für mich Fanboy. Und wenn sich eine 3060 deutlich besser als eine 6600 verkauft, bzw. eine 3070 besser als eine 6700 XT, also Regionen wo man nicht mit RT oder DLSS 3 argumentieren kann, dann ist das reines Fanboytum.
Das ist nicht richtig. Du merkst doch direkt das das nur oberflächlich so ist. Weiter ist RT auch auf 3060Ti und 3070 in 1080p zum Beispiel oft gut nutzbar und sieht besser aus. Das entfällt bei einer 6700XT komplett.

Als ich meine 3060TI gekauft habe, war eine 6700XT 50€ teurer und hätte mir für mich weniger geboten. Das hat nichts mit Fanboy zu tun...

Dennoch wäre ich bei dir, wer blind immer wieder nur nach Hersteller kauft könnte auch einfach mal die Augen öffnen. Wobei auch das nur zum kleinsten Teil Fanboys sein dürften. Viel eher wird man auchd darauf treffen, das viele keine Lust haben sich mit der Materie zu beschäftigen.
Es ist ja nicht so, dass ohne RT plötzlich keine Beleuchtung mehr stattfindet. Das ging Jahrzehntelang ohne. Es ist halt nicht 100% realistisch/dynamisch.

Also ohne RT weniger Qualität.
Allerdings fallen mir Bildfehler bzw. Ruckler eher negativ auf als bspw. Kerzenlicht, dass nicht 100% realistisch reflektiert wird.
RT ist für mich ähnlich wie Hairworks, wenn es die Karte packt ein nettes Feature. Aber kein Grund die restlichen Details dafür runterzudrehen.
Bildfehler klare Kiste, aber das sind ja Fehler ;). Wer im Stande ist seine Settings richtig zu setzen, bekommt ohne Treiberfehler keine Bildfehler. Ruckler dasselbe...
Haben VR-Headsets nicht normalerweise 2 Displays? Eines fürs linke Auge, eines fürs Rechte?
Die Bilder für die können nicht 100% identisch sein wenn man einen 3D-Effekt will.
Wenn das nun in Serie statt Parallel berechnet wird und die Ergebnisse für Display 1 verworfen werden und alles für Display 2 neu geladen wird bzw. die Pipeline der MCM nicht dafür ausgelegt ist, könnte das Performanceeinbrüche erklären.
Aber das ist wie gesagt ein uninformierter Erklärungsversuch, was das Problem/Grund für den Abfall zur Vorgeneration sein könnte.
Ich denke, das es eigentlich schlauer funktionieren müsste ;)
Klar wäre das ein Grund zur Aufregung. Aber, dass manche Karten bei Speicherfressern verhungern, obwohl der Chip mehr als genug Leistung hätte ist ja durchaus nachgewiesen.

Für mich wäre das kein Grund sich aufzuregen, wenn in 3 von 40 Spielen mal ich niedrigere Texturen auswählen muss um dann wieder schneller zu sein. Man kauft eine Karte zum bestimmten Zeitpunkt und Fakt, also echter Fakt ist, das im Schnitt eine 3080 immer noch besser performt in 1440p als eine 6800XT. Hat der Käufer einer 3080 doch alles richtig gemacht. Wer kauft Hardware für in 5 Jahren...
Ist doch schön wenn Karten mit mehr Speicher im späteren Verlauf ihres Daseins auch mal besser perfomen, wenn die das in den wichtigen ersten drei Jahren schon nicht machen.
Die Anmerkung mit RT war eher für die "Alle Regler rechts mit DLSS"-Fraktion weil es einfach nur wiedersprüchlich ist.
Wer sagt das denn?
Es dürfte noch die fehlende Erfahrung des Treiber Teams mit dem MCM Ansatz sein, der die Performance in einigen Bereichen beschränkt.

Ich hoffe es ;)
Aber es kann auch ein grundsätzlicher Bug im Design sein, der eventuell auch dazu beigetragen hat, dass die generellen Performance- und Effizienzziele nicht erreicht wurden.
Bitte nicht
Immerhin sollte RDNA3 mit über 3GHz laufen und 50% effizienter sein, als RDNA2.
Bei den vorherigen Releases mit RDNA 1 und 2.. und den ZEN CPUs haben sie es ja jedes Mal geschafft, ihre Vorhersagen einzuhalten und teilweise zu übertreffen.
7900XT leistet im Schnitt 20% mehr als eine 6900XT (natürlich Stock vs stock)
Verbraucht dabei rund 10W mehr, bei 4GB mehr Speicher. Wenn man die 7900XT so drosselt, das diese genau wie die 6900XT performt, landet man wohl bei rund 200W. Wenn man sogar noch 4GB abziehen, würden man gut möglich bei nur 190W landen.

300 zu 200W passt doch alles ;)

Wie sieht es beim OC eigentlich aus bei RX7900... Kann man die Spannung anheben usw... Da scheitert man bei der 7900XT doch dran und dann halt bei 2850MHz oder so?
Man sieht es ja auch an den Absatzzahlen vom letzten Quartal. Der Einbruch war sehr extrem - aber zu erwarten.
Da Mining nun erst mal wieder tot ist, wird der durchschnittliche Verkaufspreis deutlich in den Keller gehen.
Die Löhne haben in den letzten Monaten einen deutlichen Kaufkraftrückgang mitgemacht.
Da sind neue GPUs bei weitem nicht mehr oben auf der Kaufliste.
 
Zuletzt bearbeitet:
Das ist nicht richtig. Du merkst doch direkt das das nur oberflächlich so ist. Weiter ist RT auch auf 3060Ti und 3070 in 1080p zum Beispiel oft gut nutzbar und sieht besser aus. Das entfällt bei einer 6700XT komplett.
1677050718383.png


Achja, es entfällt komplett?
Ich sehe da 41 Frames auf der 6750XT ohne FSR aber nur 17 bei der 3070 und die 3060Ti liegt noch weiter unten.
Selbst die 6650XT schafft es besser in Raytracing als die 3060TI und 3070.
 
Anhang anzeigen 1418680

Achja, es entfällt komplett?
Ich sehe da 41 Frames auf der 6750XT ohne FSR aber nur 17 bei der 3070 und die 3060Ti liegt noch weiter unten.
Selbst die 6650XT schafft es besser in Raytracing als die 3060TI und 3070.
Mir ging es, wie aus dem Dialog zu entnehmen um den gesamten Schnitt aller Spiele, nicht um ein Langweiler Spiel ;)
Sorry, nicht ernst nehmen, aber Harry Schrotter war noch nie meine Welt.

https://www.computerbase.de/2023-02...ll_hd_wqhd_und_ultra_hd_mit_raytracing_update

Hier fällt die 3060 unter 30 Fps mit Rt.


Hier fällt die 3060 und die 6700XT mit RT und DLSS / FSR unter 30Fps.

Also sind die schonmal safe genau so ungeeignet ;)
Bzw. warte mal, wenn man also die Texturen so runter schraubt, das die 8GB reichen kann man mit 8GB der 3060TI und 3070 sehr gut weiter spielen mit RT. Wobei dies bei 6700XT und 3060 nicht hilft und man einfach auf RT verzichten muss.

Ach ja, die Texturen runter zu schrauben ist nicht so hässlich und dürfte im Test in Bewegung und ohne Vergörßerung den meisten kaum auffallen ;)
 
Zuletzt bearbeitet:
Mir ging es, wie aus dem Dialog zu entnehmen um den gesamten Schnitt aller Spiele, nicht um ein Langweiler Spiel ;)
Sorry, nicht ernst nehmen, aber Harry Schrotter war noch nie meine Welt.

https://www.computerbase.de/2023-02...ll_hd_wqhd_und_ultra_hd_mit_raytracing_update

Hier fällt die 3060 unter 30 Fps mit Rt.
Da wird ja auch nur auf RT Hoch getestet.
Spielt aber keine Rolle da mit DLSS beides spielbar ist auf der 3060 Ultra und High.

Aber diesmal ging es mir ja mehr um die Radeons... den die Rohleistung der 6er Serie ist vorhanden.
Der riesige Unterschied zu Release war mehr oder weniger durch FSR 1.0 bedingt.

Mit FSR 2.0 ist dann doch nochmal ein ordentlicher FPS Boost vorhanden und man ist schon "fast" equivalent zur 30er Serie von Nvidia unterwegs. Es ist also nicht richtig das es gar nicht möglich ist - den es ist sehrwohl möglich mit diesen Karten flüssiges RT zu spielen.
 
Wer aus Prinzip zu einer Marke greift, egal ob die Konkurrenz Vergleichbares, wenn nicht sogar besseres bietet, ist für mich Fanboy. Und wenn sich eine 3060 deutlich besser als eine 6600 verkauft, bzw. eine 3070 besser als eine 6700 XT, also Regionen wo man nicht mit RT oder DLSS 3 argumentieren kann, dann ist das reines Fanboytum.

Eine RX 6700XT ist beim Raster langsamer...beim Raytracing massiv langsamer. In Spielen in denen mehr als nur Schatten mit Raytracing berechnet werden reden wir von knapp doppelter Performance für die RTX 3070.
Performance/Watt ist die RTX 3070 auch besser.
Wer will konnte sich die RX 6700 XT kaufen...nüchtern betrachtet gab es aber auch genug Gründe um zu einer RTX 3070 zu greifen...so ganz ohne Fanboytum.
Eine RX 6700 XT war für mich nie ein Thema. Für das was sie Leistet säuft sie zuviel...RX 6800 FTW :daumen:
 
Da wird ja auch nur auf RT Hoch getestet.
Spielt aber keine Rolle da mit DLSS beides spielbar ist auf der 3060 Ultra und High.

Aber diesmal ging es mir ja mehr um die Radeons... den die Rohleistung der 6er Serie ist vorhanden.
Der riesige Unterschied zu Release war mehr oder weniger durch FSR 1.0 bedingt.

Mit FSR 2.0 ist dann doch nochmal ein ordentlicher FPS Boost vorhanden und man ist schon "fast" equivalent zur 30er Serie von Nvidia unterwegs. Es ist also nicht richtig das es gar nicht möglich ist - den es ist sehrwohl möglich mit diesen Karten flüssiges RT zu spielen.
Der eine link war mit DLSS und bleibt unter 30Fps ;)

Am Ende bleibt, mit ein paar kleinen Anpassungen lässt sich oh wunder auch HL auf einer 3060, einer 6600XT, einer 6700XT, einer 3060Ti und 3070 problemlos spielen... und Spaß haben.
 
Naja...wenn Du ein gutes AMD Ergebnis brauchst ist HWU die richtige Anlaufstelle. Weltweit schafft es kein Tester die AMD Karten mit Raytracing an einer RTX 4090 vorbeizuschmuggeln...für den roten Steve gibt es da null Probleme.

Im online Artikel ist es nicht immer ganz so drastisch wie in seinen Videos...da gilt es Klicks zu generieren und sich werbewirksam zu verkaufen.
Steve.png
 
Zuletzt bearbeitet:
Der eine link war mit DLSS und bleibt unter 30Fps ;)

Am Ende bleibt, mit ein paar kleinen Anpassungen lässt sich oh wunder auch HL auf einer 3060, einer 6600XT, einer 6700XT, einer 3060Ti und 3070 problemlos spielen... und Spaß haben.
Mein link war nicht mit DLSS. Es steht sogar dran das es Ultra Quality Settings sind, damit ist nicht DLSS oder FSR gemeint. Und bei CB ist das ebenfalls nicht erwähnt in der Legende zu den Tests! Lediglich wird hier mit Settings Hoch beim Raytracing gebencht - was das Ergebnis um meilen verändert.
Naja...wenn Du ein gutes AMD Ergebnis brauchst ist HWU die richtige Anlaufstelle. Weltweit schafft es kein Tester die AMD Karten mit Raytracing an einer RTX 4090 vorbeizuschmuggeln...für den roten Steve gibt es da null Probleme.

Im online Artikel ist es nicht immer ganz so drastisch wie in seinen Videos...da gilt es Klicks zu generieren und sich werbewirksam zu verkaufen.
Anhang anzeigen 1418685
Die 7900XTX perfomt dank des Cache wirklich mehr Frames in Full HD.

Das ist kein geheimnis sondern schon seit der 6er Serie bekannt, dass AMD durch die Bauweise in niedrigeren Auflösungen deutlich an Performance gewinnt.

Sobald du die Auflösung höher machst, siehst du wie gewohnt das dieser Vorteil verschwindet.

Das bei CB im Link oben die 7900XTX hinter der 4090 liegt - liegt auch an den Raytracing Einstellungen Hoch. Es ist ein riesiger Unterschied in HL zwischen Raytracing Hoch und Raytracing Ultra. Die Ergebnisse sind bei beiden Tests deutlich unterschiedlich!
 
Zuletzt bearbeitet:
Die 7900XTX perfomt dank des Cache wirklich mehr Frames in Full HD.
Mir ging es hier speziell um die 1080p Raytracing Ergebnisse zu Hogwarts...und da ist Steve nun mal der einzige der AMD vor der RTX 4090 sieht. Vielleicht ist es ja dem Prozessor geschuldet :ka:
Das die grossen Nvidia Karten in 1080p nicht unbedingt die beste Wahl sind ist ja bekannt.
 
Mir ging es hier speziell um die 1080p Raytracing Ergebnisse zu Hogwarts...und da ist Steve nun mal der einzige der AMD vor der RTX 4090 sieht. Vielleicht ist es ja dem Prozessor geschuldet :ka:
Das die grossen Nvidia Karten in 1080p nicht unbedingt die beste Wahl sind ist ja bekannt.
Das ist mir wie gesagt auch schon aufgefallen.
Aber es ist auch bei anderen Tests nicht nur bei Steve.

Warum auch immer ist in FHD mit etwas schwereren Raytracing Workload die 7900XTX besser als bei schwächeren Raytracing Workloads in FHD. Ähnliches Resultat ist bei der 7900XT auch zu sehen. Die 6er Serie hat dies gar nicht.
Das ist auch Game übergreifend und nicht nur HL - wobei je nach dem welches Game es ist die 4090 dank Treiber deutlich besser performt als in HL.

Das Phänomen siehst du übrigens auch bei Intel - starke Raytracing Workloads und du hast mehr Performance.
Vielleicht ist es auch einfach den Raytracing Cores geschuldet.

Hab sogar schon einen Test gesehen da war der A770 16GB knapp hinter der 4080 aber bei beiden im Framebereich unter 20 FPS. Während die Radeons komplett eingebrochen sind... kann eigentlich auch nicht sein :ka:

Bei Nvidia skaliert es jedenfalls nicht so merkwürdig man hat keinen Vorteil von starken Raytracing Workloads in niedriger Auflösung. :ka:
 
Mein link war nicht mit DLSS. Es steht sogar dran das es Ultra Quality Settings sind, damit ist nicht DLSS oder FSR gemeint. Und bei CB ist das ebenfalls nicht erwähnt in der Legende zu den Tests! Lediglich wird hier mit Settings Hoch beim Raytracing gebencht - was das Ergebnis um meilen verändert.

Die 7900XTX perfomt dank des Cache wirklich mehr Frames in Full HD.

Das ist kein geheimnis sondern schon seit der 6er Serie bekannt, dass AMD durch die Bauweise in niedrigeren Auflösungen deutlich an Performance gewinnt.

Sobald du die Auflösung höher machst, siehst du wie gewohnt das dieser Vorteil verschwindet.

Das bei CB im Link oben die 7900XTX hinter der 4090 liegt - liegt auch an den Raytracing Einstellungen Hoch. Es ist ein riesiger Unterschied in HL zwischen Raytracing Hoch und Raytracing Ultra. Die Ergebnisse sind bei beiden Tests deutlich unterschiedlich!
1. Warum schneidet hier die 3060 schlechter ab, wenn nur in hoch getestet wird? Ich hätte Erklärungen dazu ;)
(Dein test zeigt keine anspruchsvolle Szene ggfs., dass würde das erklären.

2. All das zeigt aber was ich meine, mit dem drehen der entsprechenden Regler, läuft es auch auf 8GB und dann im Rahmen sogar besser, bei 3060TI, 3070, RX6650, als bei einer 3060. Hier entscheidet dann die Rechenleistung.

Ohne Regler einfach alles Ultra packt auch die 3060 nicht, weil die Leistung fehlt. Wenn schon RT nur "high" zu unter 30Fps führt ;)

Keiner von uns beiden bestimmt, was wer wie einstellen möchte, welche vorlieben bei den Settings wer auch immer hat. Also vielleicht jetzt einfach gut sein lassen.
 
Zurück