News Radeon RX 8800 XT: Gegner zur RTX 4080 bei niedrigerem Verbrauch? [Gerücht]

Du wirst dich wundern, aber am Beispiel Alan wake 2 sieht zweithöchste Texturen plus RT/PT zum Beispiel deutlich besser aus, als max Raster Details ohne RT/PT .
würde mich wundern, ist richtig.

Das von dir gewünschte brauche ich nicht machen, da ich inzwischen eh eine 4070ti super habe und demnächst eine 8800xt, oder eine 5070ti...
also gestehst du deine Niederlage ein?

Liefer du doch erstmal Belege für deine anfangs völlig überzogenen Aussagen zur 6900xt vs rtx 3000...
Da frage ich mich tatsächlich, welche das sein sollte? Wollte ich vorhin schon fragen
 
Hab jetzt mal gegoogelt, was ne 4080 so kostet. Ist bei weiten nicht mein Preisbereich. Aber wie kommt man darauf, das ne 8800 bei angenommener gleicher Leistung nur halb so viel kosten darf?
8800 also nur, damit die Preise bei Nvidia (wenn auch nur minimal) sinken?
Seltsames Volk hier
Gruß Yojinbo
Wenn du keine 1000€ für ne GPU hast , kauf ne Konsole
Schau dir die Spiele der letzen 6 Monate an
Ohne Fette GPU inc. DLSS oder FSR geht nix
Mit der 600€ Plus Klasse muss es dann schon mit Fake Frames sein um genung FPS und hübsch hinzubekommen

Faules Spieleentwickler Pack ! Zu langsam selbst auf Fetten GPUs zeigt von wenig Optimierung oder garkeine
Dazu teilweise keine 21/9 Unterstützung zeigt mir das Konsolengames meist so hingekotzt werden für den PC
 
Faules Spieleentwickler Pack ! Zu langsam selbst auf Fetten GPUs zeigt von wenig Optimierung oder garkeine
Das war doch von Anfang an klar, dass es so laufen wird. Upscaling war einige Jahre eine klasse Geschichte, aber jetzt dient es oft nur noch dazu an der Optimierung zu sparen und mehr Gewinn für Publisher abzuschöpfen.

Deswegen war ich auch als Nicht-Nativ-Fanatiker immer dafür, dass Upscaling optional bleibt. Aber das ist es kaum noch, wenn man nicht vierstellig für seine GPU hinlegt. Und noch schlimmer ist, dass auch FG sich durchsetzen wird und dann noch weniger optimiert wird, während wir dann "marktüblich" mit Latenzen aus der Hölle zocken dürfen.
 
würde mich wundern, ist richtig.
Tja, dann hast du dahingehend halt keine Erfahrung. Ist aber so.
also gestehst du deine Niederlage ein?
Du hast Probleme!
Aber wenn du das so möchtest, natürlich nicht.
Da frage ich mich tatsächlich, welche das sein sollte? Wollte ich vorhin schon fragen
Schau dir deine Posts mal an.
Hab jetzt mal gegoogelt, was ne 4080 so kostet. Ist bei weiten nicht mein Preisbereich. Aber wie kommt man darauf, das ne 8800 bei angenommener gleicher Leistung nur halb so viel kosten darf?
Die Hälfte ist natürlich quatsch.
Wenn man sich die letzten Generationen anschaut, dann gab es immer etwa einen Sprung einer Leistungsklasse.
Also eine 8800XT die auf 5070ti Niveau liegen könnte, würde ich in dem Fall rund 10% vor einer 4080(s) sehen. Damit würde die 5070ti etwa 900-1000€ kosten.

Dem zufolge dürfte die 8800XT etwa das selbe kosten, wenn alle Eigenschaften gleich wären. Aber 1. gibt es sicher noch ein paar kleine Unterschiede. Ich denke da an VR Performance, oder auch FSR. und 2. sagt mir die Erfahrung das der Name auch noch mal 50-100€ machen kann.

Daher würde ich eine 8800XT auf dem Leistungsniveau Raster und RT, auch um 800-900€ erwarten.

Wenn die 8800XT aber nur auf das Niveau der 5070 kommt, dann halt denke ich 5070 rund 650-700€ und die 8800Xt in dem Fall 580-650€.


8800 also nur, damit die Preise bei Nvidia (wenn auch nur minimal) sinken?
Wer hat das geschrieben... Wenn einer dann Vollidiot.
Seltsames Volk hier
Gruß Yojinbo
PS: hier gibt es sowieso viel seltsames Volk. Wir sind alle Nerds, daher ist das vorprogrammiert.

Und wenn eine 8800XT wirklich 5070ti Niveau erreicht, denke ich hole ich mir eine. Wenn es eine Weiterentwicklung von FSR dabei gibt.
Wenn du keine 1000€ für ne GPU hast , kauf ne Konsole
Stuss
Schau dir die Spiele der letzen 6 Monate an
Ohne Fette GPU inc. DLSS oder FSR geht nix
Wieso, auch mit einer 4070(super) fährt man richtig gut und ich meine auch mit einer 7800XT.
Mit der 600€ Plus Klasse muss es dann schon mit Fake Frames sein um genung FPS und hübsch hinzubekommen
Wie alt bist du...60+? Oder ein Obernerd ;)

Wenn man sich von seinem Obernerddasein verabschiedet kann man anerkennen das auch FG seine Daseinsberechtigung hat und gar nicht so schlecht funktioniert.
Faules Spieleentwickler Pack ! Zu langsam selbst auf Fetten GPUs zeigt von wenig Optimierung oder garkeine
Naja, im Falle von Path Tracing wohl eher davon, das die Hardware den Spielen etwas hinterhinkt. War früher noch viel extremer.
Dazu teilweise keine 21/9 Unterstützung zeigt mir das Konsolengames meist so hingekotzt werden für den PC
Das ist tatsächlich ein Punkt, den ich auch nicht nachvollziehen kann.
Das war doch von Anfang an klar, dass es so laufen wird. Upscaling war einige Jahre eine klasse Geschichte, aber jetzt dient es oft nur noch dazu an der Optimierung zu sparen und mehr Gewinn für Publisher abzuschöpfen.
Sehe ich absolut nicht so. Klar sind Spiele stellenweise fragwürdig optimiert. Das ist aber nicht schlimmer geworden. Wenn ich mir ansehe, wie Spielewelten heute sind und das mit der Zeit vor Upscaling und Frame generation vergleiche, bin ich heute froh, das es so ist, wie es ist.
Deswegen war ich auch als Nicht-Nativ-Fanatiker immer dafür, dass Upscaling optional bleibt. Aber das ist es kaum noch, wenn man nicht vierstellig für seine GPU hinlegt.
Es ist doch eher so, das die Grafik einfach besser geworden ist.
Und noch schlimmer ist, dass auch FG sich durchsetzen wird und dann noch weniger optimiert wird, während wir dann "marktüblich" mit Latenzen aus der Hölle zocken dürfen.
Die Latenzen aus der Hölle gehört doch ins Reich der Märchen.

Der 0815 Nutzer wird es nicht merken. Der hat vorher ohne FG und ohne Reflex gezockt und nutzt dann mit FG auch Reflex und hat Latenzen auf dem selben Niveau. Bei solchen Themen ist immer faszinierend, wie schnell plötzlich alle zu den 0,1% gehören, die 10ms Unterschied erkennen.
 
Zuletzt bearbeitet:
Es ist halt immer das gleiche bei AMD. Es wird eine hohe Leistung zu billigsten Preisen erträumt. War bei Navi 3 nicht anders. Am Ende waren alle empört als eine 7900XTX vierstellig gekostet hat.
Genau deinen letzten Punkt meinte ich weiter oben als ich sagte, das die Performance-Spitzen AMD's (besonders die XTX) ebenfalls nicht günstig zu haben waren.

Und sofort kommt jemand angekrümelt und wirft mit AKTUELLEN Geizhals-Links um sich:rollen:

Gruß
 
Zuletzt bearbeitet:
Schau dir deine Posts mal an.
Hab ich getan, finde keinen abstrusen Vergleich zur 3090; vieleicht hab ich was übersehen, daher bitte ich um Aufklärung

Die Hälfte ist natürlich quatsch.
Jep

Wenn man sich die letzten Generationen anschaut, dann gab es immer etwa einen Sprung einer Leistungsklasse.
Ist das so?

Wenn man sich bspw. die 2080Ti zur 3090 zur 4090 anschaut, lagen da jeweils 63% Vorsprung drin (etwas das ich für Blackwell ohnehin für unmöglich halte; TDP ist schon ziemlich ausgereizt auch wenn die 4090 dies nicht so richtig nutzt; Waferfläche ist am Anschlag, und Fertigung ist die gleiche)

Schaut man sich dann aber mal die 2080Ti, in der nächsten Stufe eine Karte kleiner, also 3070 und in der folgenden Gen die 4060 an, wird man erstaunlich feststellen, dass deine Aussage "einer Leistungsklasse" nicht mehr stimmt. Die 3070 ist 30% schneller als eine 4060

1733383167710.png


Also eine 8800XT die auf 5070ti Niveau liegen könnte, würde ich in dem Fall rund 10% vor einer 4080(s) sehen. Damit würde die 5070ti etwa 900-1000€ kosten.
Lass uns bitte nicht noch Ti Karten in den Raum werfen, fangen wir doch erstmal mit dem an was auch kommen wird, 5060/5070/5080/5090 und damit hat es sich dann doch erstmal. Ti kommt irgendwann und spielt für den Release meines Wissens nach keine Rolle

Nach der Gemengelage wird man seitens Nvidia die 5090 nochmals deutlich teurer machen, 2.500 EUR schätze ich mal. Die 5080 wird ebenfalls steigen und ich habe mal 1.450 EUR geschätzt (womit der Release EUR Preis der 4080 gehalten wird, was aber nur daran liegt, dass der Euro heute wieder deutlich mehr wert ist und somit 100 EUR Umrechnungsdifferenz im Vergleich zum 4080 Release integriert sein dürften). Damit dürfte eine 5070 eher in den Bereich 700-800 EUR landen (die 4070 lag bei 659 EUR, inkl. Wechselkursschwankung). (hab aber natürlich verstanden, dass du die Ti Variante dort siehst); wird aber aller Voraussicht nach einer 4080 nur begrenzt gefährlich werden können! Die 4070 hatte schon Probleme (in der Leistung) mit der 3080 und das obwohl eben fast zwei Nodes zwischen den Karten liegen und Nvidia somit massives Potenzial hatte.

Überhaupt halte ich in etwa folgendes für realistisch,

Die 5090 wird bei 130% einer 4090 liegen, dafür aber 20% mehr Leistungsaufnahme haben und 20% mehr kosten

die 5080 bei 130% einer 4080 und damit ungefähr auf Niveau einer 4090, dafür wird man aber ordentlich Strom draufgeben müssen, denn anders als bei der 5090 wird es nicht 30% mehr Recheneinheiten zum Vorgänger geben, sondern nur 10% mehr und damit wird man wieder den Takt anheben müssen und das bringt die Karte aus dem "Sweetspot" der Vorgängergeneration heraus und wird überproportional Strom ziehen. Tippe auf 50% mehr Leistungsaufnahme bei 30% mehr Leistung.






die 5070 wird ebenso 30% drauflegen auf die 4070, damit aber eben nur bei 80% einer 4080 liegen!

Die 5070 wird spannender, denke man wird den CoreCount deutlich erhöhen und die 4070Ti anviesieren, was fast 50% mehr Cores sind als bei der 4070. Damit wird man vieleicht sogar die beste Karte des Portfolios von Blackwell erschaffen, da man nicht am Powerbudget drehen muss, aber dennoch mehr Leistung liefern kann!


So und nun noch b2t, ich kann mir eine 8800XT mit der Leistung einer 4080 nur schwer vorstellen, wenn diese dann aber noch effizienter sein soll und kleiner (und ja nicht nur ein bisschen)? Wie soll AMD das machen? RDNA4 müsste ein Meisterwerk sein und würde alles mitbringen um auch Blackwell herauszufordern. Solche Sprünge wären nur denkbar, wenn AMD schon N3 nutzen würde, was aber nicht geplant scheint. Wenn ich tippen müsste, würde ich auf eine 4070Ti Super tippen mit 300W TDP tippen! Was in meinen Augen bei einer Chipfläche von nur 270mm² immer noch eine bomben Karte wäre; aber eben weit weg von einer Challenge zu Nvidia. Preislich wird die Karte sich dann bei 650-700 EUR einrangieren
 
Weil es zur 4080 Benchmarks gibt. Was bringt es zwei noch nicht veröffentlichte Karten zu vergleichen?

Weil man auch zu TSMC gewechselt ist und nicht weil Nvidia zaubern kann
Wer sagt das denn? Darum ging es ja nicht.
Es ging darum, das A) angeblich ja RTX3000 zu RX6000 nicht konkurrenzfähig war, was laut diverser Tests so nicht stimmt und B) eine übertriebene Aussage zum Mehrverbrauch.

Letztendlich leisten aber 6800XT und RTX3080 über den nahezu gesamten normalen Nutzungszeitraum nahezu das selbe, AMD muss mehr abstriche bei RT machen und Nvidia bei VRam, auch liegt der Mehrverbrauch bei nur 28W laut Tests.

Weiter gab es noch eine Aussage, das die 6900XT schneller als die 3090 war, bei lächerlich hohem Mehrverbrauch.

Real zeigten Tests aber das die 3090 im Schnitt 7% schneller war, als eine 6900XT bei 16-17% mehr Verbrauch. Bei RT natürlich mit großen Vorteilen für Nvidia.

Ja, man hat mehr verbraucht, aber das war kaum der Rede wert.
 
Das ist aber nicht schlimmer geworden.
Kommt auf den Zeitraum an den man betrachtet! Sehe aber auch eine weiterhin negative Tendenz.

Es ist doch eher so, das die Grafik einfach besser geworden ist.
Sollte wohl so sein, oder? Aber vieleicht meinst du auch das Upscaling als solches, was in den letzten Jahren einen enormen Zugewinn an optischer Qualität erfahren hat, bei Nvidia mehr als bei AMD, aber selbst dort ist es ja enorm was FSR3 kann im Vergleich zu RSR vor ein paar Jahren.

Aber es ist schon so, dass die UE5 Engine hier vieles kaputt macht, denn sie ist entweder ihrer Zeit einfach voraus oder aber einfach nicht so gut wie sie gerne gemacht wird. Denn ein Upscaler ist ja nahezu Pflicht und das sollte doch einfach nicht so sein. Man sollte nativ zocken können, gerade wenn man 2000 EUR für ne GPU ausgibt, sollte man dies in Ultra HD mit vernünftigen FPS schaffen. ,
 
Hab ich getan, finde keinen abstrusen Vergleich zur 3090; vieleicht hab ich was übersehen, daher bitte ich um Aufklärung
Dann versuche es nochmal, werde jetzt nicht deine Posts für dich zitieren.
Abseits der xx90 ja.
Wenn man sich bspw. die 2080Ti zur 3090 zur 4090 anschaut, lagen da jeweils 63% Vorsprung drin (etwas das ich für Blackwell ohnehin für unmöglich halte; TDP ist schon ziemlich ausgereizt auch wenn die 4090 dies nicht so richtig nutzt; Waferfläche ist am Anschlag, und Fertigung ist die gleiche)
WOW
Schaut man sich dann aber mal die 2080Ti, in der nächsten Stufe eine Karte kleiner, also 3070 und in der folgenden Gen die 4060 an, wird man erstaunlich feststellen, dass deine Aussage "einer Leistungsklasse" nicht mehr stimmt. Die 3070 ist 30% schneller als eine 4060

Anhang anzeigen 1476972


Lass uns bitte nicht noch Ti Karten in den Raum werfen, fangen wir doch erstmal mit dem an was auch kommen wird, 5060/5070/5080/5090 und damit hat es sich dann doch erstmal. Ti kommt irgendwann und spielt für den Release meines Wissens nach keine Rolle
5070ti soll doch direkt kommen.
Nach der Gemengelage wird man seitens Nvidia die 5090 nochmals deutlich teurer machen, 2.500 EUR schätze ich mal. Die 5080 wird ebenfalls steigen und ich habe mal 1.450 EUR geschätzt (womit der Release EUR Preis der 4080 gehalten wird, was aber nur daran liegt, dass der Euro heute wieder deutlich mehr wert ist und somit 100 EUR Umrechnungsdifferenz im Vergleich zum 4080 Release integriert sein dürften). Damit dürfte eine 5070 eher in den Bereich 700-800 EUR landen (die 4070 lag bei 659 EUR, inkl. Wechselkursschwankung). (hab aber natürlich verstanden, dass du die Ti Variante dort siehst); wird aber aller Voraussicht nach einer 4080 nur begrenzt gefährlich werden können! Die 4070 hatte schon Probleme (in der Leistung) mit der 3080 und das obwohl eben fast zwei Nodes zwischen den Karten liegen und Nvidia somit massives Potenzial hatte.

Überhaupt halte ich in etwa folgendes für realistisch,

Die 5090 wird bei 130% einer 4090 liegen, dafür aber 20% mehr Leistungsaufnahme haben und 20% mehr kosten

die 5080 bei 130% einer 4080 und damit ungefähr auf Niveau einer 4090, dafür wird man aber ordentlich Strom draufgeben müssen, denn anders als bei der 5090 wird es nicht 30% mehr Recheneinheiten zum Vorgänger geben, sondern nur 10% mehr und damit wird man wieder den Takt anheben müssen und das bringt die Karte aus dem "Sweetspot" der Vorgängergeneration heraus und wird überproportional Strom ziehen. Tippe auf 50% mehr Leistungsaufnahme bei 30% mehr Leistung.






die 5070 wird ebenso 30% drauflegen auf die 4070, damit aber eben nur bei 80% einer 4080 liegen!

Die 5070 wird spannender, denke man wird den CoreCount deutlich erhöhen und die 4070Ti anviesieren, was fast 50% mehr Cores sind als bei der 4070. Damit wird man vieleicht sogar die beste Karte des Portfolios von Blackwell erschaffen, da man nicht am Powerbudget drehen muss, aber dennoch mehr Leistung liefern kann!
Die Einschätzungen sind relativ genau das was ich erwarte.
So und nun noch b2t, ich kann mir eine 8800XT mit der Leistung einer 4080 nur schwer vorstellen, wenn diese dann aber noch effizienter sein soll und kleiner (und ja nicht nur ein bisschen)? Wie soll AMD das machen?
Sehe ich auch so.
RDNA4 müsste ein Meisterwerk sein und würde alles mitbringen um auch Blackwell herauszufordern. Solche Sprünge wären nur denkbar, wenn AMD schon N3 nutzen würde, was aber nicht geplant scheint. Wenn ich tippen müsste, würde ich auf eine 4070Ti Super tippen mit 300W TDP tippen! Was in meinen Augen bei einer Chipfläche von nur 270mm² immer noch eine bomben Karte wäre; aber eben weit weg von einer Challenge zu Nvidia. Preislich wird die Karte sich dann bei 650-700 EUR einrangieren
Endlich sind wir mal einer Meinung.
Hätte ich fast nicht für möglich gehalten.
Kommt auf den Zeitraum an den man betrachtet! Sehe aber auch eine weiterhin negative Tendenz.
Ja klar.
Sollte wohl so sein, oder? Aber vieleicht meinst du auch das Upscaling als solches, was in den letzten Jahren einen enormen Zugewinn an optischer Qualität erfahren hat, bei Nvidia mehr als bei AMD, aber selbst dort ist es ja enorm was FSR3 kann im Vergleich zu RSR vor ein paar Jahren.
Nein, ich meine die Gesamtheit der Optik im Spiel, das ist deutlich besser geworden.
Aber es ist schon so, dass die UE5 Engine hier vieles kaputt macht, denn sie ist entweder ihrer Zeit einfach voraus oder aber einfach nicht so gut wie sie gerne gemacht wird.
Weiß nicht, ich denke einige sehen einfach nicht das gesamte Bild und konzentrieren sich auf einzelne Inhalte die dann nur geringfügig besser geworden sind.
Denn ein Upscaler ist ja nahezu Pflicht und das sollte doch einfach nicht so sein.
Kann ja gerne so sein, wenn die Optik , oder die Performance passt.
Man sollte nativ zocken können, gerade wenn man 2000 EUR für ne GPU ausgibt, sollte man dies in Ultra HD mit vernünftigen FPS schaffen. ,
Meiner Meinung nach gibt es keinen Grund fanatisch an nativ hängen zu bleiben. In einigen Tests, wird nachweislich gezeigt das auf 100% Spiele, DLSS im Großteil der Spiele mindestens so gut wie nativ ist.
FSR kann noch etwas Verbesserung vertragen und dann ist mir als Endnutzer doch egal, wie das Bild zustande kommt. Hauptsache ich bekomme die beste Optik. Diese ist mir stur nativ nicht immer gegeben.
 
Zuletzt bearbeitet:
5070ti soll doch direkt kommen.
echt? Ich kenn nur die Gerüchte zu den drei Karten 5090/5080/5070 und von einer Ti hab ich noch nichts gehört.

Dann versuche es nochmal, werde jetzt nicht deine Posts für dich zitieren.
ich find nix und glaube du verstauscht da User miteinander.

was meinst du damit?

Nein, ich meine die Gesamtheit der Optik im Spiel, das ist deutlich besser geworden.
Ist das für dich jetzt eine "Sensation"? Ich denke, dass nennt man Fortschritt

Meiner Meinung nach gibt es keinen Grund fanatisch an nativ hängen zu bleiben.
Das ist richtig, dennoch hat "nativ" ja einen Hintergrund und warum müssen teils Bilder erfunden werden um akzeptable Frameraten zu schaffen? Sehe da keinen guten Gedanken dran. Ja, Upscaling ist für mich eine Möglichkeit das Leben der GPUs zu verlängern, wird aber gerade massiv mißbraucht um schlechter programmieren zu können.
 
Aber auch Dank dem Wechsel zu TSMC.

Willst mir jetzt wieder eine Geschichte erzählen, die mit meinem Kommentar nichts zu tun hat?
Wo hab eich das bereits gemacht?
echt? Ich kenn nur die Gerüchte zu den drei Karten 5090/5080/5070 und von einer Ti hab ich noch nichts gehört.
Gab tatsächlich auhc Gerüchte zur 5070ti.
ich find nix und glaube du verstauscht da User miteinander.
Wenn das so ist, dann sorry.
Ist das für dich jetzt eine "Sensation"? Ich denke, dass nennt man Fortschritt
Wieso Sensation, es ist eben dieser Fortschritt und natürlich benötigt das viel Leistung.
Das ist richtig, dennoch hat "nativ" ja einen Hintergrund und warum müssen teils Bilder erfunden werden um akzeptable Frameraten zu schaffen?

Damit mehr Leistung für bessere Grafik frei wird. Ist doch ein guter Ansatz.
Sehe da keinen guten Gedanken dran. Ja, Upscaling ist für mich eine Möglichkeit das Leben der GPUs zu verlängern, wird aber gerade massiv mißbraucht um schlechter programmieren zu können.
Sehe ich nicht. Es gab eben dafür mehr Grafik.

Aber ist natürlich nur meine Meinung.
 
Damit mehr Leistung für bessere Grafik frei wird. Ist doch ein guter Ansatz.
Aber genau das ist ja die Frage dahinter, wir haben ja auch ohne Upscaling als Bedingung in den letzten 10 Jahren eine enorme Menge Grafikqualität dazu gewonnen. Wenn man jetzt sagen würde, dass die GPU Entwicklung an einer Hürde angekommen ist und kaum noch Zugewinne vorhanden sind, dann würde ich Upscaling als Notwendigkeit verstehen, aber dem ist ja nicht so. Bliebe noch eine überproportionale Steigerung der Bildqualität, aber eben genau diese sehe ich auch nicht. Es ist der "normale" lineare Wandel in der Qualität, der früher über zusätzliche Rechenkapazität nativ abgebildet werden konnte und heuer braucht man dafür Upscaling!

Ich denke man sieht ja auch Unterschiede, es gibt Games die sehen fantastisch aus und haben gemäßigte Anforderungen an die Hardware. Dagegen gibt es Games die eher schlechter aussehen, aber deutlich höhere Anforderungen haben. Nimm mal Stalker 2 und Black Myth, Stalker sieht nicht schlecht aus, aber auch nicht überragend. Black Myth ist schon eine wahre Grafikpracht und beide Spiele erreichen ähnliche FPS mit vergleichbaren Karten, ich finde daran erkennt man ganz gut, was Optimierungen ausmachen und das wir hier an vielen Stellen einfach unoptimierte Scheiße geliefert bekommen und die Hersteller uns doch mitteilen; macht DLSS an und haltet den Rand!

Sehe ich nicht. Es gab eben dafür mehr Grafik.
Wie gesagt, ich sehe nicht, dass der Zugewinn in der Optik so groß ist, dass dies nun plötzlich Upscaling bedingt. Denn wir haben ja nunmal auch in vier Jahren 180% Leistungsgewinn erhalten (2080Ti auf 4090), die nicht in Games umgesetzt werden.
 
Wie gesagt, ich sehe nicht, dass der Zugewinn in der Optik so groß ist, dass dies nun plötzlich Upscaling bedingt. Denn wir haben ja nunmal auch in vier Jahren 180% Leistungsgewinn erhalten (2080Ti auf 4090), die nicht in Games umgesetzt werden.
Das Problem ist mittlerweile, dass man an einem Punkt angekommen ist, wo "ein wenig mehr" an Grafikpracht "deutlich mehr" Leistung vonnöten wird. RT ist ein gutes Beispiel. Endlich gibt es Echtzeitbeleuchtung inklusive Spiegelungen ect. Also Möglichkeit, Licht und Schatten und vieles mehr realistisch zu berechnen. Oft sieht man davon nicht viel und es frisst dennoch enorm an Leistung.
Gibt noch andere Beispiel, auch im Bereich Geometrie, Polygonenanzhal ect. wo enorme REchenleistung notwendig geworden ist, um das Bild optisch nur etwas zu verbessern.
Darum hat man ja mittlerweile in sehr vielen Spielen optisch kaum noch einen Unterschied zwischen High und Ultra Einstellungen. Da fängt man oft an mit der Lupe zu suchen. Aber der Leistungsgewinn wenn man auf High runter stellt ist ziemlich hoch.
Ob ein Spiel optisch gefällt, ist zudem nicht mal von den Techniken die verwendet werden abhängig. Es ist auch immer ein persönlicher Geschmack der sich hier widerspiegelt. Ich bin mir sehr sicher, dass sich z.B. dein und mein Geschmack was gute Optik betrifft, sehr unterscheidet wenn wir uns zusammen hinsetzen würden um mal 10 Spiele zu bewerten.
 
Ich denke dass die 8800 XT weder in RT noch in Raster ganz an die 4080 heran kommen wird.
Vielleicht in einigen ausgewählten Titeln, aber im Schnitt doch eher nicht.
Dafür spricht schon alleine, dass anscheinend nur 20 Gbps Chips an einem 256bit bus verbaut werden. Das würde einer Bandbreite von nur 640 GB/s entsprechen.

Um diesen Mangel entgegenwirken zu können, sollen ja laut MLID 64 - 96MB IC-Cache verbaut werden. Wobei mir 64 MB IC-Cache davon am wahrscheinlichsten sind, die 96MB passen irgendwie nicht so richtig zu einer Mittelklasse GPU.

AMD müsste da wohl schon noch an einigen weiteren Stellschrauben drehen,
um diesem Mangel etwas entgegenwirken zu können.

Vielleicht könnten sie wie dies bereits bei der 7900XTX der Fall ist
die IC-Bandbreite von 2,1 (7800XTX) auf 2,5 TB/s (7900XTX) erhöhen?
Wäre dies denn so ohne weiteres machbar?
Wenn sie also wirklich in Schlagdistanz einer RTX 4080 kommen wollen, müssen sie
entweder bei der IC-Bandbreite, 96 anstatt nur 64MB IC, oder eine andere Verbesserung vorgenommen haben.
Anderweitig wäre man was die Speicherbandbreite anbelangt, zu nah an einer 7800XT dran.

RX7800XT
19,5 Gbps, 256 Bit, 624 GB/s
8 x 256KB L1
4MB L2
64MB IC

Zum Vergleich die RTX 4080:
22,4 Gbps, 256 Bit, 717 GB/s
9.5 MB L1
64 MB L2

1733348986783.png

1733395124475.png
 
Zurück