Verständnisfrage zur Leistung einer Grafikkarte wegen angeblichem Super Refresh

kalahan123456789

Komplett-PC-Aufrüster(in)
Screenshot (230).png



So bei der 4080 zur 4080 Super ist es logisch woher die Leistung kommt ein bisschen mehr CUDA Cores und vielleicht schnellerer speicher 5-7% +. Ergibt Sinn auch beide 320 Watt. 4070TI Super ergibt auch Sinn. Selber Chip wie die 4080 nur halt mehr beschnitten und weniger Leistungsaufnahme.

Aber die 4070 Super verwirrt mich, klar mehr Kerne und ein bisschen mehr Saft. Aber dann sind noch immer 225 Watt der 4070 super zu den 285 Watt der 4070TI. Wie funktioniert das mit der Leistung?

Brauchen mehr Kerne mehr Strom für die Leistung oder wie funktioniert das? Was bestimmt den Verbrauch der Karte zu der angegebenen Leistung?

Warum hat die 4070TI Super nur 285 Watt Aufnahme, obwohl es den Chip der 4080 verwendet der ja für 320 Watt ,,gemacht" ist?

Nimmt man die Karte Stock kommen bei den Karten meisten um die 2700-2850MHz raus aber warum bei 300 Watt der 4080? Die 4070 schafft diese MHz mit nur 200 Watt. Also kommt der Mehrverbrauch, weil mehr Kerne gefüttert werden müssen nehme ich an.

Aber wie passt dann das zu der 4070TI Super(was ein blöder Name) mit dem Chip der 4080 auf 285 Watt wie die 4070TI, obwohl die ein anderer Chip ist? Die werde ja auch ihre 2.8GHz haben Stock, aber wenn die 4070TI Super das schafft mit 285 Watt heißt, das dann nicht das der Chip besser ist als der 4080? Was keinen Sinn ergibt? Oder gleiche Leistungsaufnahme wie die 4070TI obwohl AD 103 statt 104?

Das geht nicht in meinen Kopf hinein, kann wer aufklären und ich hoffe, es ist auch verständlich was ich meine. Oder vielleicht falle ich auf Gerüchte rein, die nicht den Fakten entsprechen, weil ja noch nicht offiziell angekündigt.
 
Grundsätzlich kann man sagen, dass mehr Recheneinheiten und/oder Takt mehr Saft brauchen.
Dabei skalieren Leistungsaufnahme, Takt und Leistung nicht linear.
Aber auch die Chipgröße und Aufbau haben Einfluss auf die Leistungsaufnahme.
 
Was bestimmt den Verbrauch der Karte zu der angegebenen Leistung?
Eine Zahl im BIOS der Karte.

Wie hoch das Powerbudget einer Karte ist (was sie an Strom verbrauchen "darf") wird einfach im BIOS der Karte festgelegt - und kann auch in Form des Powertargets vom Benutzer beeinflusst werden. Du kannst (im vernünftigem Rahmen) jeder beliebigen dieser Karten jede beliebige Zahl da eintragen - eine RTX4070 oder 80 oder 90 kannst 100W erlauben oder 200 oder 300 oder 900W. Die Karten werden sich an diesem Limit orientieren und es nicht überschreiten (bzw. im Falle der 900 nicht erreichen) - und um das zu schaffen passen sie Betriebsparameter wie Takt, Spannung usw. entsprechend an. Wegen letzterem ändert sich dann auch die Performance.

Verrenne dich da nicht in die ganzen Spezifikationen der Karte bzgl. ihres Verbrauches. Die angegebene TDP ist nur der Richtwert ab Werk, was die Karte maximal verbrauchen darf, und der ist ziemlich willkürlich gesetzt: NVidia kann ihren karten mehr erlauben, dann werden sie schneller aber ineffizienter oder sie können weniger ansetzen und die Karten werden langsamer aber effizienter. Was am Ende für eine zahl vor dem Watt steht ist zum großen Teil davon abhängig, wie man die Karte am Markt und gegen die Konkurrenz positionieren will, nicht zwingend von den technischen Spezifikationen der Chips. ;-)
 
Hey ich habe eine 4090 mit 300W laufen und die hat 16k Cudakerne. Die 150W weniger kosten etwa 5-7% Leistung.
Oftmals sind die Karten ab Werk sehr hoch getaktet um zuverlässig ein gewisses Leistungsziel zu erreichen.
Anders gesagt die 4070Ti ist sehr hoch gestapelt vom Powerlimit her. Im normalen Betrieb verbraucht sie meist weniger.

225W heißen bei der 4070 Super aber auch, das man 1x8 Pin und 1x6 Pin bzw 300W 12VHPWR benötigen wird.
Sehr warscheinlich wird es nur den 12VHPWR Stecker geben.

Ich hoffe, das die 4070er 50-100€ billiger werden... Für die Leistung einer 4070Ti, was einer 3090 entspricht, sind 12GB VRAM zu wenig für mich.
 
Wird schon klarer, Danke.

Aber wie machen, die das die Karten dann trotzdem alle gleich takten.

Also um ihre 2.8GHz herum. Würde man der 4070 wie du da oben sagst theoretischer Weise nur 100 Watt geben blieben vielleicht weiß nicht, sagen wir 1.5GHz übrig. 300 Watt würden bei der 4070 nichts bringen da bei 3GHz sowieso Schluss ist, die schafft sie ja mit ihren erlaubten 200 Watt.

Ja stimmt schon TDP Max, die Karten brauchen ja alle eigentlich ein bisschen weniger kommt auch stark auf das Spiel drauf an.

Das heißt die 4070 Super dürfte bis auf 15 % an die 4070 TI kommen und dabei 60 Watt weniger verbrauchen was heißen würde, das die Karte relativ ineffizient ist, wobei die 4070TI die ineffizienteste ADA Karte ist. Die braucht ja oft fast das gleiche wie eine viel schnellere 4080.

Aber wie soll die 4070TI Super mit nur 285 Watt TDP und AD 103 Chip ihre 2.8 GHz schaffen, wenn man auch noch annimmt das da wohl die schlechten Ad 103 Chips verwendet werden, die mehr Saft brauchen würden für den gleichen Takt als eine vollwertige 4080. Außer die Taktet wirklich um sagen wir 200MHz weniger, aber wenn ich mir die Vergangenheit bei Nvidia anschaue haben, die es immer geschafft das alle Karte der Generation ähnlich takten, trotz komplett unterschiedlicher TDP, Chips und Die Größe.

Wahrscheinlich denke ich zu kompliziert aber das würde mich halt interessieren.
Hey ich habe eine 4090 mit 300W laufen und die hat 16k Cudakerne. Die 150W weniger kosten etwa 5-7% Leistung.
Oftmals sind die Karten ab Werk sehr hoch getaktet um zuverlässig ein gewisses Leistungsziel zu erreichen.
Anders gesagt die 4070Ti ist sehr hoch gestapelt vom Powerlimit her. Im normalen Betrieb verbraucht sie meist weniger.

225W heißen bei der 4070 Super aber auch, das man 1x8 Pin und 1x6 Pin bzw 300W 12VHPWR benötigen wird.
Sehr warscheinlich wird es nur den 12VHPWR Stecker geben.

Ich hoffe, das die 4070er 50-100€ billiger werden... Für die Leistung einer 4070Ti, was einer 3090 entspricht, sind 12GB VRAM zu wenig für mich.
Ja aber wann braucht eine 4090 tatsächlich 450Watt? Selbst Stock sind es 330-380Watt variiert wirklich stark. Ja bei der 4070Ti sind es laut PCGH Test Average 250-260 Watt glaube ich jetzt aus dem stand heraus. Stecker sind egal.

Mir gehts rein um die Leistung via TDP, Chip und wie die das so perfekt abharmonieren.

Erinnere mich an die RTX 2070 extrem effizient damals 175 Watt, die 2070 Super 15% schneller aber gleich mal 225 Watt. Gut Turing ist ein anderes Biest als ADA aber die Physik ändert sich ja nicht. Bin gespannt was die offiziellen Werte sagen. Es heißt ja auch das nur eine 4080 Super und 4070 Super kommen soll. Wer weiß schon was tatsächlich stimmt. Warum gibt es kein RDNA 3r
Wird schon klarer, Danke.

Aber wie machen, die das die Karten dann trotzdem alle gleich takten.

Also um ihre 2.8GHz herum. Würde man der 4070 wie du da oben sagst theoretischer Weise nur 100 Watt geben blieben vielleicht weiß nicht, sagen wir 1.5GHz übrig. 300 Watt würden bei der 4070 nichts bringen da bei 3GHz sowieso Schluss ist, die schafft sie ja mit ihren erlaubten 200 Watt.

Ja stimmt schon TDP Max, die Karten brauchen ja alle eigentlich ein bisschen weniger kommt auch stark auf das Spiel drauf an.

Das heißt die 4070 Super dürfte bis auf 15 % an die 4070 TI kommen und dabei 60 Watt weniger verbrauchen was heißen würde, das die Karte relativ ineffizient ist, wobei die 4070TI die ineffizienteste ADA Karte ist. Die braucht ja oft fast das gleiche wie eine viel schnellere 4080.

Aber wie soll die 4070TI Super mit nur 285 Watt TDP und AD 103 Chip ihre 2.8 GHz schaffen, wenn man auch noch annimmt das da wohl die schlechten Ad 103 Chips verwendet werden, die mehr Saft brauchen würden für den gleichen Takt als eine vollwertige 4080. Außer die Taktet wirklich um sagen wir 200MHz weniger, aber wenn ich mir die Vergangenheit bei Nvidia anschaue haben, die es immer geschafft das alle Karte der Generation ähnlich takten, trotz komplett unterschiedlicher TDP, Chips und Die Größe.
 
Zuletzt bearbeitet:
Ja aber wann braucht eine 4090 tatsächlich 450Watt? Selbst Stock sind es 330-380Watt variiert wirklich stark.
Das ist (bei allen Karten) extrem davon abhängig was sie genau tun.

Die Powerlimits von 4090 und 4080 sind vergleichsweise hoch gesetzt. Bei "normaler" last wird eine 4090 niemals 450W verbrauchen und eine 4080 niemals 320W. Die Realität liegt da eher bei 350 und 250W.
ABER.

Wenn du die Chips voll belastest - und damit meine ich nicht eine "100% Auslastung"-Anzeige (die nur sagt "kann nicht mehr Aufgaben annehmen/Pipeline voll") sondern auch eine möglichst komplexe Auslastung, sprich massives RTX, DLSS, Shader, Geometrie usw. - dann kommen die Karten sehr wohl an ihr TDP-Limit - oder takten stark runter wenn man letzteres begrenzt hat.

Beispiel: Ich habe meine RTX4080 auf ~250W limitiert und die Taktkurve angepasst. Bei praktisch allen Spielen kann die Karte 2700 MHz halten und ist damit etwa genauso schnell wie @stock - trotz 70W weniger Erlaubnis.
Wenn ich aber QuakeRTX in 4K spiele was ein ziemlicher worstcase für die GPU ist klappt die Karte stellenweise auf unter 2000 MHz zusammen wenn sie ihre 250W halten will - oder kommt grade mal bei ~2500 MHz raus wenn sie die vollen 320W darf.

Die TDP-Limits von NVidia sind bewusst hoch - weil NV weiß, dass die GPUs wenn die Zukunft Spiele hervorbringt die sie besonders gut auslasten auch so viel verbrauchen. Es ist besser, in den Tests dazustehen als "die Karte braucht weniger als die TDP" und irgendwann wird die TDP doch ausgenutzt als Karten zu liefern die ein zu enges TPD-Limit heute noch gut nutzen aber in ein, zwei Jahren bei neuen Spielen dann ein "Gate" auslösen weil sie auf einmal 500 MHz runter müssen.
 
bei nvidia ist das mehr ein slider von 65-120%
Im vbios der gpu also firmware kann man die werte genau festlegen aber daran kommt man nicht mehr ran da jedes vbios zertifiziert sein muss von nvidia.


also ne rtx4060 könnte bis 80w gesenkt werden vs 130w
ne rtx4060ti auf maxed 120w vs 170w
ne rtx4070 maxed 180w vs 200w
ne rtx4070ti maxed 190w vs 285s
ne rtx4080 maxed 200w vs 350w
ne rtx4090 maxed 250w vs 450w

ältere gen sieht das so aus
rtx3050 maxed bei 90w vs 130w
rtx3060 maxed 130w vs 170w
rtx3060ti maxed 170w vs 225w
rtx3070 maxed 190w vs 250w
rtx3080 maxed 250w vs 350w
rtx3080ti maxed 300w vs 375s
rtx3090 maxed 350w vs 400w

Das alles bei 65% PT Limitierung geringer geht nicht.
Das geht ohne Taktlimitierung mit Taktsenkungen etwa -200mhz geht da noch was aber auch min um weitere 10% perf Verlust wo vorher maxed 10% verloren gingen .

bei amd sieht das anders aus da deren vbios quasi offen ist. Und im Treiber feste zahlen also tbw eingestellt werden kann.
Da ab 1,05v je 0,1v der verbrauch zum Quadrat steigt ist das nicht linear.
Die maxed vcore der gpu's liegt zwischen 1,08 und 1,1v je nach chipgüte das hat sich seit 2010 nicht geändert.
Das liegt an den Fertigungsprozesse das ändert sich ab n2x mit dem backside Stromversorgung halbiert sich die vcore auf 0,50v mit gleichzeitiger gaa auch zu einer drastischen widerstand Reduzierung was dann ermöglicht die vcore auf min 1,0v anzuheben ohne zum Quadrat an verbrauch zu haben. Folglich ist die zukünftige maxed vcore bei 1,05v.
Das ist Thema ab 2028 wo erste gpu's mit dem n2x node kommen das wäre pessimistisch die rtx70 Serie. Amd dann mit neuen Namen Schema, da die rx9000 Serie schon 2026 kommt Vermutlich in n3 node als mcm.

Ein hartes Zeichen an Nvidia wäre wenn amd nvidia nächste Namenschema klaut etwa ptx "pathtracing extreme"
Der Grund ist auch klar da man mehr alu auf dem chip dankt mcm bekommt und somit mehr raytracing cores
Die durch die alu dann schneller werden.
Das könnte es ab 2026 geben mit der rx9000 Serie ab 120cu low end aufwärts
Aktuell sind high end 96cu
Mit n2x erwarte ich sogar schon 240cu da man die alu per chip erhöhen kann quasi verdoppeln und den Takt auf 4,0ghz gehen kann.
Da die maxed chipfäche pro gcx nur noch bei 50mm² liegt das ist ohne Si und L3 cache
Ein gcx ab n3 liegt bei etwa 100mm² mit 60cu inklusive L2
Derzeit bei 200mm² siehe n32
Amd Zukunft ist rosig wenn mcm gelingt nvidia hat darauf keine Antwort und kann nur mit big chips kontern die niedrig Takten also quasi effizienter nur blöd das man keine kleine chips ans limit verkaufen kann da nicht wirtschaftlich.
Das aber hängt vom Marketing ab und wie sich der markt entwickelt bis 2028.

2024 erwarte ich kein große Änderungen eher Sinken die preise da wo es sinn macht also low end.
An der Effizienz wird zuletzt gedacht und da sehe ich frühestens mit der rtx60 Serie ab dann steigt nvidia komplett aus low end aus.
quasi erst ab ner 600€ gpu einsteigend sofern man das auch so verkaufen kann als 70er klasse. Das aber hängt von amd ab, ab wann die preise für rx9000 anfangen und wie schnell diese sind .
ich fische im trüben was amd angeht ich kenn die patente und weis wie groß das potenzial mit mcm ist aber ob das mit der Effizienz aus so klappt ist unklar.
Darum ist das eher die pessimistische Ansicht wen ich Taktraten annehme also maxed 4,0ghz in n2x node
ich sehe bei amd die Wahl ab rx9000 ab 2 gcx dann 4 und zuletzt 6 gcx kommen. je gcx 60cu
oder den anderen weg über geteilte gcx in 20cu Blöcken zu je 2 also 40cu ebenso mit 2 4 6gcx in einen mcm Bausatz.
Dafür mit höheren Takt ab 5,0ghz das muss aber in n2 node kommen
Die Herausforderung ist der Treiber und die arch Eigenheit mehrere gcx die zusätzlichen fp32 die Latenz ausgleichen kann derzeit sind es 17% geplant waren aber mehr 25% dann passt das mit 6 gcx und am ende bei takt mal alu mal 2 auszukommen.
Es hängt vom 3d packaging ab wie gut das perform, derzeit ist es auch der Grund warum nur ein gcx genutzt wird für mcm und es nur die 17% wurden .
Klappt amd mcm hat nvidia nix entgegenzusetzen und kann nur monolithisch auf maxed perf und Takt gehen was auch nur bis n2x gehen wird. Ab a14 (2028) hat nvidia ein problem das man nur mit mcm lösen kann.

ich plane meinen pc maximal in 3 Jahren im voraus derzeit sehe ich maximal noch ne rtx5060 in meinen System, danach gibt es keine mehr und dann sehe ich nen reines amd system mit ner apu oder den kleinsten mcm chip wo auch die 150w nicht gesprengt wird.

Das weis auch nvidia das es so auskommen wird. entweder Preiskampf oder eigenes mcm design entwerfen ab der rtx8000 Serie
 
Das alles bei 65% PT Limitierung geringer geht nicht.
Wenn du schon solche riesigen Posts absetzt die mehr verwirren als klären solltest du vielleicht wenigstens vorher die Fakten richtig einsammeln.

Das hier ist das Minimum, was ich einstellen kann und übernommen wird:
1702941657922.png


3, in Worten DREI Prozent.
Was die Karte dann maximal macht sieht man in den Zahlen darüber (das ist 3D-Last!). :-D
 
Ja aber wann braucht eine 4090 tatsächlich 450Watt? Selbst Stock sind es 330-380Watt variiert wirklich stark. Ja bei der 4070Ti sind es laut PCGH Test Average 250-260 Watt glaube ich jetzt aus dem stand heraus. Stecker sind egal.
Ich kann mit 2 kleinen Änderungen die Karte bis 600W hochprügeln...für 5% extra Performance.
Es geht darum, wieviel Sinn es macht X mehr Watt reinzustecken um ein paar Prozente mehr Leistung zu bekommen.
Und die Hersteller machen dies IMMER, sei es GPU oder CPUs.
Schau dir die Ryzen an... 65W 7700 ist sehr nahe an der Leistung eines 120W 7700X...

Wenn man als Nutzer weniger Lüfter-Lärm haben will oder energiebewusst ist, dann kann man einiges einsparen.
Ich meine mein PC samt 4090, 5800X3D, OLED TV und zweiten Monitor verbrauchen zusammen weniger als die 4090 Stock bei vielen Leuten... für 5-7% weniger GPU Leistung!!!

Ich kann meine GPU noch weiter drosseln, nur dann fällt die Leistung DEUTLICH ab.
Und meine GPU ist NICHT Powerlimitiert, der Regler ist unangetastet, sondern undervoltet/untertaktet. Die gönnt sich halt damit weniger.

RTX3000 war eine Säufer Generation, das ist tatsächlich dem Samsung Node geschuldet. Nvidia hatte in der Entwicklung mit 600W gerechnet, aber die TSMC Node war mind 30% effizienter. Deswegen hat die 4090 auch ein 600W Bios...
Ich hatte eine 3060Ti, eine 3080 und eine 3090. Mit undervolting war mit allen Karten nicht viel zu holen. Bei der 3090 brachte starkes (-150 bis -200mv) Undervolting nichts, die saufte trotzdem weiter 350W. Nur ein hartes Powerlimit hätte da geholfen, was ich nicht wollte.
bei amd sieht das anders aus da deren vbios quasi offen ist.
Ich dachte AMD hat bei der RX7000er Generation das zu gemacht. Das More Power Toll geht ja nicht mehr.
Klappt amd mcm hat nvidia nix entgegenzusetzen und kann nur monolithisch auf maxed perf und Takt gehen was auch nur bis n2x gehen wird. Ab a14 (2028) hat nvidia ein problem das man nur mit mcm lösen kann.
AMD hat Probleme mit MCM, deswegen setzen sie ja die High End Generation RX8000 aus. Und es gibt nur monolithische GPUs.
 
Zuletzt bearbeitet:
1702945691722.png

gut also stimmt meine zahl nicht, es sind 58% das letzte mal als ich das geprüft habe war vor 2 Jahren da war es noch 65%

Deine 3% trifft auf ne amd gpu zu wenn nicht ist irgendwas an der software falsch
 
Normalerweise kann man den Regler so weit runter drehen bis ~100W erreicht werden. Bei meiner RTX 3070/240W waren es 40% und bei der RTX 4070TI/285W sind es 35%.
Und wenn Du jetzt mal von deiner RTX 3060/170W ausgehst ergeben die 58% eben die ~100W.
 
Niedriger geht es aber nicht
ja die 100w bei 58% kommen hin gerade geprüft
Wie gesagt ich hatte die test vor gut 2 Jahren gemacht. Die Schlussfolgerungen bleiben dieselben die tbp kann man nur mit diesen slider einstellen.
Das niedrigste was ich mal erreicht habe war mit der gtx1060 etwa 70w nur war die perf so schwach das dies sich gar nicht gelohnt hat und mit der rtx3060 fehlt eben gerade bei dxr die perf und deswegen nutze ich den slider nicht.
man hat nie genug perf für aktuelles im low end die high end gpu sieht das mal schnell anders aus.
 
Das heißt die 4070 Super dürfte bis auf 15 % an die 4070 TI kommen und dabei 60 Watt weniger verbrauchen was heißen würde, das die Karte relativ ineffizient ist, wobei die 4070TI die ineffizienteste ADA Karte ist.
Wenn Du sie lässt schon. Für die Leistung einer RTX 4070 braucht sie aber auch nur ~150W.
Das niedrigste was ich mal erreicht habe war mit der gtx1060 etwa 70w nur war die perf so schwach das dies sich gar nicht gelohnt hat
Auch hier kommt es auf deine Einstellungen und auf dein FPS Ziel an. Reichen 60FPS kann man mit der RTX 4070TI (Hogwarts in 1440p) auch mit weniger als 60W auskommen.


 
Zuletzt bearbeitet:
eben die gesperrten fps mache ich nur da wo die Spiel engine versagt quasi nie.
mehr fps desto flüssiger wirds optisch sieht man ab der nativen grenze des monitors kein unterschied mehr.
Aber von 60hz display auf 75hz ist schon ein große Differenz was flüssiges darstellen angeht je mehr hz desto mehr muss die gpu stemmen mein ziel aktuell 100hz für das neue display
Irgendwann wenn micro led kommt wird die Ausgabe aber generell egal sein da es keine pixelverzögerungen mehr gibt und alle freq immer scharf darstellen.
Am ende ist das begrenzen auf feste fps nur dann nötig wenn man empfindlich auf tearing reagiert
Davon bin ich zum glück verschont.
Wenn ich die fps in spielen auch auf 75fps begrenze braucht meine gpu teils sogar nur 30w
ich habe sogar spiele mit 300fps die mit maxed 35w laufen. Es muss nicht immer das neueste Spiel sein .
Dagegen habe ich auch sowas wie starfield das 158w für 30fps saugt

im übrigen ich bleibe bei 1080p 1440p ist teuer auch später wird man min ne high end gpu dafür brauchen und mit pathtracing wird das schlimmer werden.
 
eben die gesperrten fps mache ich nur da wo die Spiel engine versagt quasi nie.
Was? :confused:
Irgendwann wenn micro led kommt wird die Ausgabe aber generell egal sein da es keine pixelverzögerungen mehr gibt und alle freq immer scharf darstellen.
Auch Micro LED hat ne Verzögerung, genauso wie OLED jetzt schon.
Nur ist die viel kleiner als bei LCD.
Am ende ist das begrenzen auf feste fps nur dann nötig wenn man empfindlich auf tearing reagiert
Nope, dafür gibt's adaptive sync.
Wenn ich die fps in spielen auch auf 75fps begrenze braucht meine gpu teils sogar nur 30w
ich habe sogar spiele mit 300fps die mit maxed 35w laufen. Es muss nicht immer das neueste Spiel sein .
Dagegen habe ich auch sowas wie starfield das 158w für 30fps saugt
Sollte jeder wissen, der die PCGH Tests zu Grafikkarten liest.
im übrigen ich bleibe bei 1080p 1440p ist teurer auch später wird man min ne high end bessere gpu dafür brauchen
Habs mal verbessert.
und mit pathtracing wird das schlimmer werden.
Nope.
 
Es scheint nur die 4070ti Super wirklich interessant zu werden. Mit 4GB mehr Speicher und einer Ecke mehr Leistung gegenüber der 4070Ti ist das ein zeitgemäßes Upgrade und in der Form wäre die Karte auch für 4K Gaming geeignet bei moderatem Anspruch.

Die 4080 Super ist mit ihren 5% mehr Cuda Kernen und gleichem Speicher gegenüber der 4080 allerdings nicht der Rede wert. hätte man sich sparen können. Die 4070 Super hat hingegen schon wieder zu knappen Speicher. Was bei der normalen 4070 vor 8 Monaten noch gerade "ok" war ist heute bei nochmal höherer Leistung grenzwertig, würde ich so nicht mehr kaufen.
 
Man sollte auch noch den L2 Cache berücksichtigen.

4080S 64MB
4080 64MB
4070TIS 48MB
4070TI 48MB
4070S 48MB
4070 36MB
Noch relativ Neu ja stimmt auf daas wird nicht geschaut aber schaust aucvh auf RT Kerne usw.

Die 48mb der4070 ti super obwohl ad 103 chip ist schon krass. :( Um nicht der 4080 nahe zu kommen.

Die 4070 ti super wird auf der 7900XT + 5%? landen die in fast jedem spiel die 4070ti schlägt ohne rt natürlich und 15% hinter der 4080 ist
 
Zurück