News Radeon RX 8800 XT: Gegner zur RTX 4080 bei niedrigerem Verbrauch? [Gerücht]

Bei deinem letzten Kommentar? Was hatte das mit Nvidias Wechsel zu TSMC zu tun?
Dafür musst du das jetzt das zweit mal aufbereiten. Ok.
Dann können wir doch damit aufhören ;)
Aber genau das ist ja die Frage dahinter, wir haben ja auch ohne Upscaling als Bedingung in den letzten 10 Jahren eine enorme Menge Grafikqualität dazu gewonnen. Wenn man jetzt sagen würde, dass die GPU Entwicklung an einer Hürde angekommen ist und kaum noch Zugewinne vorhanden sind, dann würde ich Upscaling als Notwendigkeit verstehen, aber dem ist ja nicht so. Bliebe noch eine überproportionale Steigerung der Bildqualität, aber eben genau diese sehe ich auch nicht. Es ist der "normale" lineare Wandel in der Qualität, der früher über zusätzliche Rechenkapazität nativ abgebildet werden konnte und heuer braucht man dafür Upscaling!
Da die Hardware Sprünge bei beiden großen Herstellern immer kleiner wurden, sind wir ja vielleicht doch an dem Punkt, das Upscaler nötig sind.
Ich denke man sieht ja auch Unterschiede, es gibt Games die sehen fantastisch aus und haben gemäßigte Anforderungen an die Hardware. Dagegen gibt es Games die eher schlechter aussehen, aber deutlich höhere Anforderungen haben. Nimm mal Stalker 2 und Black Myth, Stalker sieht nicht schlecht aus, aber auch nicht überragend.
Ich finde Stalker tut man schnell unrecht. Durch die realitätsnähe der Optik wirkt es nicht so pompös wie ein Black Myth. Auch die Welten... Wenn ich mir beide Spiele anschaue, finde ich nicht das man Stalker 2 negativ hervorheben braucht, bezüglich schlechter Optimierung.

Aber ja, es gibt auch Spiele da kratzt man sich am Kopf.
Black Myth ist schon eine wahre Grafikpracht und beide Spiele erreichen ähnliche FPS mit vergleichbaren Karten, ich finde daran erkennt man ganz gut, was Optimierungen ausmachen und das wir hier an vielen Stellen einfach unoptimierte Scheiße geliefert bekommen und die Hersteller uns doch mitteilen; macht DLSS an und haltet den Rand!
Finde das ist eher selten der Fall.
Gerade im Bereich Spiele die wirklich technisch auch weit vorne sind, die sind doch eher alle auf einem ähnlichen Performance Level.
Wie gesagt, ich sehe nicht, dass der Zugewinn in der Optik so groß ist, dass dies nun plötzlich Upscaling bedingt.
Wenn ich mir anschaue, wie viel besser die Beleuchtung und die Verschattung und auch bock boring Spiegelungen durch RT, oder gar PT geworden sind. Finde ich den Zugewinn gewaltig und auch denke ich das nichts die Optik in Spielen die letzten 10 Jahre stärker gepuscht hat.

Aber auch das ist meine Meinung und das mag wer anders anders sehen.
Denn wir haben ja nunmal auch in vier Jahren 180% Leistungsgewinn erhalten (2080Ti auf 4090), die nicht in Games umgesetzt werden.
Ich beziehe mich da gerne eher auf die normalen Karten, nicht nur das Halo Produkt, da die meisten nicht die Halo Produkte kaufen.
 
Zuletzt bearbeitet:
Da die Hardware Sprünge bei beiden großen Herstellern immer kleiner wurden, sind wir ja vielleicht doch an dem Punkt, das Upscaler nötig sind.
Ist das so? Ich halte 67% je Generation nicht für ungewöhnlich und auch in der Vergangenheit einen mehr als guten Schnitt.

980 Ti auf 1080 Ti = 59%
1080 Ti auf 2080Ti = 29%
2080Ti auf 3090 = 45%
3090 auf 4090 = 58%

(weiter zurück gehen die Benchmarks im GPU Index hier leider nicht)

daher ab hier CB

480 auf 580 = 17%
580 auf 680 = 60%
680 auf 780 = 61%
780 auf 980 = 53%
980 auf 1080 = 27%



Finde daher kann deine Aussage so nicht stehen bleiben!
 
Ist das so? Ich halte 67% je Generation nicht für ungewöhnlich und auch in der Vergangenheit einen mehr als guten Schnitt.
Dachte du hättest noch im Kopf, das ich mich wie gerade vorhin geschrieben eher auf die nicht Halo Produkte beziehe. Sondern auf die Produkte die überwiegend gekuft werden.

Also eher xx70 und xx80 von Gen zu Gen.
Finde daher kann deine Aussage so nicht stehen bleiben!
Daher finde ich das schon.

dann sind es von der 1070 auf 2070, dann von 2070 super auf 3070 und auf 4070 eher 41%, dann 32%, dann 29%.

Also die letzten zwei mal schon mal nur knapp 30%.

Das ist nur minimal mehr, als der derzeitge Sprung einer Leistungsklasse.

4070 auf 4070ti 23%
4070ti auf 4080 23%

4070ti super ist etwas dichter an der 4080 super, mit nur 16-18%.

So kam ich darauf.
 
1080 Ti auf 2080Ti = 29%
Speziell diesen Vergleich halte ich für falsch. Denn mit der Möglichkeit DLSS zu nutzen und RT Performance, ist der Abstand eigentlich größer. Das Argument FSR gilt zwar, aber FSR kam recht spät in die Verbreitung. Allgemein sollte man bei älteren Modelle auch berücksichtigen, wie gut sie gealtert sind.
Cyberpunk 2077 konnte ich auf 4k mit RT (war nicht auf Max) und DLSS Balanced noch recht gut auf 4k spielen mit der 2080TI. Also mit 40-55fps.
Mit einer 1070TI brauchte ich das Spiel gar nicht erst starten.
 
Ist das so? Ich halte 67% je Generation nicht für ungewöhnlich und auch in der Vergangenheit einen mehr als guten Schnitt.

980 Ti auf 1080 Ti = 59%
1080 Ti auf 2080Ti = 29%
2080Ti auf 3090 = 45%
3090 auf 4090 = 58%
+77% Speicherbandbreite
+33% mehr Rechenwerke + 10% mehr Takt + 10% mehr "IPC"

Da sind 60% mehr Perf sicherlich drin.
 
Ist ein monolithischer 280-300mm² DIE in 4nm billiger als ein 346mm² Chiplet DIE in 5/6nm?
es sind 2Jahre vergangen 4nm kostet heute wohl das selbe wenn nicht gar weniger wie zur Zeiten RDNA3 entwicklung, eventuell wäre es auch schon zur veröffentlichung günstiger gewesen den die weichen werden ja schon lange vor der Produktion gestellt. aber wie kennen die Aktuellen Preise nicht somit bleibt es raten.
Denke aner schon das es durchaus heute ein 350mm2 in 4nm heute günstiger in der Herstellung wie die 530mm2 in 7nm zur RDNA2 zeiten war damals noch ebenso fortschritlich wie die 4nm heute. was auf alle fälle bei AMD mit, bzw ohne Marktanteil günstiger ist man spart Strom, eine weitere Maske für die MCDs sowie das zusammenkleben von MCD und GCD kostet auch Zeit und Geld.
Da AMD sagte sie wollen die Mittelklasse angreifen geht das nur über PL selbst wenn die Launch Preise steigen heist das nicht das die Kosten gestiegen sind, evenzuell einfach nur die Marge.
die OEMs zumindest für die NB wohl nur die GPUs bei AMD/Intel/Nvidia den Vram besorgen sie selbst u d verlöten alles.
AMD Intel und Nvida lassen in 5/4nm herstellen, so das die mm2 Kosten bei allen in eta gleich sind.
sprich ein 300mm2 die kostet AMD/INTELNvidia in etwa das selbe gib Intel und Nvidia je bisschen groskunden rabat und intel noch einen abschlag da nur 5nm macht am ende den brei nicht fett Intel und AMd brauchen aber nur GDDR6 Nvidia GDDR7 umd hat eh mit abstand die beste Marge
 
2070 super auf 3070
Das macht dann aber keinen Sinn, wenn von 2070 Super dann auch zu 3070 Super und dann zu 4070 Super, jeweils über 40%
Du weißt schon, das weder Nvidia noch AMD eine bisher 4nm Desktop GPU hatten oder?
Irrtum, 4nm bezeichnet in dem Sinne keinen eigenen Node, aber Nvidia fertigt Ada in N4P von TSMC, das was man landläufig als 4nm bezeichnen würde.

AMD fertigt aktuell in N5 und dürfte nur über N4P ca 10% heraus holen. Der Rest müsste über die Arch kommen, wie schon gesagt halte ich das für absolut unrealistisch, dass man in 4080 Gefilden unterwegs ist.


+77% Speicherbandbreite
+33% mehr Rechenwerke + 10% mehr Takt + 10% mehr "IPC"

Da sind 60% mehr Perf sicherlich drin.
Wo soll denn mehr Takt herkommen? Wieviel Leistung willst du in den Chip schieben? Bei 600W rechne ich grob mit 30 bis 40% mehr Leistung
 
Verbesserter Prozess, verbesserte Architektur ...
Der Prozess bleibt gleich

Ging doch vor ner ganzen Weile schon rum, dass die ne ordentliche Schippe höher takten.
Ja, mal sehen. Das kann ja auch "Boost" sein und muss nicht wie bei der 4090 dauerhaft stabil bleiben. Aber mal im Ernst, 600W? Also noch mal 33% mehr Leistungsaufnahme. Ich bin mir auch noch nicht sicher wie Nvidia den Chip realisieren will, denn die Anzahl der Shader die kursiert ist ja quasi absurd hoch und wie groß so ein Chip dann am Ende wird? Das wird wohl nahe am technischen Maximum der Belichtung liegen und entsprechend kosten.

Aber mal abwarten, denke der größte Boost wird vom RAM kommen, das ist aber schon recht spezifisch, wann eine Mehrleistung kommt. Gerade bei der 5080 / 5070 sind es teilweise keine 10% mehr Einheiten und viel mehr Takt sehe ich eben nicht.
 
Irrtum, 4nm bezeichnet in dem Sinne keinen eigenen Node, aber Nvidia fertigt Ada in N4P von TSMC, das was man landläufig als 4nm bezeichnen würde.
Das genaue Gegenteil ist der Fall, bei Ada heißt es 4N ohne P, ist aber 5nm.
N4P ist für Blackwell und für Desktop noch nicht draußen.

Kannst auch gerne auf Techpowerup nachlesen:
1733432404952.png

Oder auf Wikipedia:
1733432458955.png
 
Das macht dann aber keinen Sinn, wenn von 2070 Super dann auch zu 3070 Super und dann zu 4070 Super, jeweils über 40%
Ich ziehe jeden Release für sich heran. Aber kannst du gerne anders machen.
Irrtum, 4nm bezeichnet in dem Sinne keinen eigenen Node, aber Nvidia fertigt Ada in N4P von TSMC, das was man landläufig als 4nm bezeichnen würde.

AMD fertigt aktuell in N5 und dürfte nur über N4P ca 10% heraus holen. Der Rest müsste über die Arch kommen, wie schon gesagt halte ich das für absolut unrealistisch, dass man in 4080 Gefilden unterwegs ist.



Wo soll denn mehr Takt herkommen? Wieviel Leistung willst du in den Chip schieben? Bei 600W rechne ich grob mit 30 bis 40% mehr Leistung
Der Prozess bleibt gleich


Ja, mal sehen. Das kann ja auch "Boost" sein und muss nicht wie bei der 4090 dauerhaft stabil bleiben. Aber mal im Ernst, 600W? Also noch mal 33% mehr Leistungsaufnahme. Ich bin mir auch noch nicht sicher wie Nvidia den Chip realisieren will, denn die Anzahl der Shader die kursiert ist ja quasi absurd hoch und wie groß so ein Chip dann am Ende wird? Das wird wohl nahe am technischen Maximum der Belichtung liegen und entsprechend kosten.
600w sind schon ein hartes Brett, doch hier wäre wirklich eine deutlich Steigerung noch denkbar

Aber mal abwarten, denke der größte Boost wird vom RAM kommen, das ist aber schon recht spezifisch, wann eine Mehrleistung kommt. Gerade bei der 5080 / 5070 sind es teilweise keine 10% mehr Einheiten und viel mehr Takt sehe ich eben nicht.

Bei der 5080 zum Beispiel sehe ich das auch nicht... Eher 20-30% bei dann bis zu 400W.
Bei den Spekulationen zur 5070ti sehe ich nicht ganz so schwarz... Hier halte ich bis 30% für gut möglich und das bei "nur" 300w.

Daher heißt es für mich auch, je nach abschneiden der 8800xt entweder 5070 ti, oder 8800xt.

Hoffe ja auf gutes Abschneiden der 8800xt und das man da noch etwas übertakten kann...
 
Zuletzt bearbeitet:
Ich ziehe jeden Release für sich heran. Aber kannst du gerne anders machen.
Sei mir nicht böse, aber du kannst doch über Generationen von GPUs hinweg nicht sinnvoll vergleichen, wenn du dort mal die, dort mal die und da vieleicht auch mal die nimmst. Man muss schon eine gleichbleibende Referenz haben, da bietet sich eigentlich das Top Modell an und da muss man eben sagen, der Abstand ist über die Generationen relativ konstant geblieben, zwischen 50-60% Zuwachs je Generation (wobei ich keinen Sinn darin sehe Releases zu nehmen; sondern hier machen nur Generationen Sinn, also Ada - Blackwell und soweiter).

Daher hier nochmal der Punkt um den es eigentlich ging! Geringere Leistungssteigerungen sind kein Grund für die heuer immer häufiger notwendige Upscaling Geschichte, Upscaling ist am Ende eine Krücke um fehlende Leistung zu kompensieren und um die Lebensdauer der Karten zu verlängern oder um eine günstigere Karte kaufen zu können! Wenn aber bereits die 1000 EUR Modelle (die früher mal Titan hießen) in aktuell sinnvollen Auflösungen keine Chance auf brauchbare FPS haben, dann sehe ich hier die Spielehersteller auch in der Verantwortung besser zu programmieren. Man schaue sich die Vergangenheit an, was für Tricks die Hersteller alles hatten um "Leistung" zu sparen, ich denke da früher an Donkey Kong auf der SNES, das sieht heute noch nicht schieße aus, und das lief auf einer 20Mhz CPU ohne Upscaling, einfach nur mit Tricks und Finesse programmiert.
 
Sei mir nicht böse, aber du kannst doch über Generationen von GPUs hinweg nicht sinnvoll vergleichen, wenn du dort mal die, dort mal die und da vieleicht auch mal die nimmst. Man muss schon eine gleichbleibende Referenz haben, da bietet sich eigentlich das Top Modell an und da muss man eben sagen, der Abstand ist über die Generationen relativ konstant geblieben, zwischen 50-60% Zuwachs je Generation (wobei ich keinen Sinn darin sehe Releases zu nehmen; sondern hier machen nur Generationen Sinn, also Ada - Blackwell und soweiter).

Daher hier nochmal der Punkt um den es eigentlich ging! Geringere Leistungssteigerungen sind kein Grund für die heuer immer häufiger notwendige Upscaling Geschichte, Upscaling ist am Ende eine Krücke um fehlende Leistung zu kompensieren und um die Lebensdauer der Karten zu verlängern oder um eine günstigere Karte kaufen zu können! Wenn aber bereits die 1000 EUR Modelle (die früher mal Titan hießen) in aktuell sinnvollen Auflösungen keine Chance auf brauchbare FPS haben, dann sehe ich hier die Spielehersteller auch in der Verantwortung besser zu programmieren. Man schaue sich die Vergangenheit an, was für Tricks die Hersteller alles hatten um "Leistung" zu sparen, ich denke da früher an Donkey Kong auf der SNES, das sieht heute noch nicht schieße aus, und das lief auf einer 20Mhz CPU ohne Upscaling, einfach nur mit Tricks und Finesse programmiert.
Was auch immer, keine Lust mehr.

Nur noch am Rande. Upscaling ist für mich auch keine Krücke, nicht auf dem Stand, auf dem DLSS aktuell ist.
 
Bei der 5080 zum Beispiel sehe ich das auch nicht... Eher 20-30% bei dann bis zu 400W.
30% wird auch schon sportlich, gerade im Raster glaube ich da fast nicht dran, aber 20% sind durchaus mehr als realistisch eingeschätzt. Kann mir halt nicht so recht vorstellen, dass man den Abstand zur 5090 nochmals so massiv vergrößert, die wird ja dann fast doppelt so schnell wie die 5080? Oder man nimmt es dann endgültig als Luxuskarte und zieht 3k ohne Steuern aus der Karte.

Daher heißt es für mich auch, je nach abschneiden der 8800xt entweder 5070 ti, oder 8800xt.
Wie gesagt, preislich kann das ein Kampf werden, aber in allem anderen ist der Rückstand von AMD zu groß, der Fertigungssprung zu klein um aufzuschließen.
 
30% wird auch schon sportlich, gerade im Raster glaube ich da fast nicht dran, aber 20% sind durchaus mehr als realistisch eingeschätzt.
Ja, passt. habe ich nicht differenziert ausgesagt. Meine tatsächlich auch RT mit an die 30% (mit etwas Glück) und im Raster 20%...


Kann mir halt nicht so recht vorstellen, dass man den Abstand zur 5090 nochmals so massiv vergrößert, die wird ja dann fast doppelt so schnell wie die 5080? Oder man nimmt es dann endgültig als Luxuskarte und zieht 3k ohne Steuern aus der Karte.
Fast doppelt so schnell glaube ich bei 400 zu 600w nicht, auch gerade mit 32 zu 16GB. der VRam frisst ja auch noch. real könnten für den Grafikprozessor so 340W rund 490W gegenüber stehen.

Das ist 44% mehr Energie für den Kern. Daher denke ich maximal wird die 5090 um die 60% schneller sein, als die 5080. Realistisch glaube ich an um die 45%. Wegen Skalierung der Rechenwerke. Aber ich spekuliere gerade.
Wie gesagt, preislich kann das ein Kampf werden, aber in allem anderen ist der Rückstand von AMD zu groß, der Fertigungssprung zu klein um aufzuschließen.
Sag ja nur das ich nichts im Voraus ausschließe, auch wenn ich das auch für extrem unwahrscheinlich halte.

AMD bräuchte bei dem kleinen Chip schon einen 70-100% IPC Sprung bei Ray Tracing um auf das 5070ti Niveau zu kommen.
 
Du weißt schon, das weder Nvidia noch AMD eine bisher 4nm Desktop GPU hatten oder?
ja aber 4nm ist weiterhin nur 5nm optimiert gehört zum 5nm prozess den beide schon bei Ada und RDNA3
genutzt haben Nvidia sogar damals schon einen Optimierten Prozess die Kosten 4 zu 5nm vor 2 Jahren dürfte sich nicht viel nehmen, wenn nicht am ende sogar günstiger sein da es ja nun nicht mehr der leading Prozess ist.
 
Zurück