AMDs Radeon RX 6800 (XT) ... - Das sagen die PCGH-Redakteure dazu

AMD mag uns immer noch nicht mit Hardware und Softwaresupport bedenken.
Echt schade.

Hab gestern wieder genüsslich dein tool genutzt, um meine 3080 abzuchecken. :)
Konnte da toll schauen, wie war mein St.Denis Run(ähm ... Anmerkung: Rede von RDR2) mit der 1080Ti mit viel, viel niedrigeren Grafikeinstellungen und nun geht die Post ab, Richtung Ultra und doch noch klar mehr fps. :)

Die ganzen schönen Daten, die man da ablesen kann. Herrlich !
Wenn ich dran denke, wie die ersten postings hier los gingen(Was das tool angeht) ...
Hammer.
Hoffe es geht weiterhin vorwärts ! :daumen:

Was wollte ich sagen !?

Ach ja ...

Ich finde man sollte mal weniger nörgeln, allgemein und doch auch mal mehr die tollen Seiten betrachten.

AMD is back im Highend GPU Bereich.
Punkt. :)

Was da jetzt an Details auseinandergefriemelt wird ... ja gut ...
Man findet immer was.

Aber es gibt jetzt echt für AMD Freunde eine Alternative, für's Highend Zocken.
Das is doch klasse !
Dazu kommen noch so kleine Nadeln, wo AMD Nvidia mal mit mehr Speicher piekst, was auch gut so ist, damit sich etwas verbessert.
Andersherum piekst Nvidia AMD mit Innovationen Richtung RT/DLSS.

Wenn sich dahingehend beide dann gegenseitig etwas aufschaukeln und aneinander wachsen, kommen am Ende wieder tollere Produkte bei raus, die uns erfreuen werden.

Ich find' die Radeons geil ! :D
Ich find' die Amperes geil ! :D

(Dieses Posting bitte nicht liken, da es mir wie "fishing for likes" vorkommt ;) )
Nee ... is mir einfach so eingefallen und es tippelte sich automatisch dahin, beim ersten Kaffee. Guten Morgen @ all ! :kaffee:

Danke auch noch mal an alle Redakteure für die Arbeit, auch wenn man mal kritisiert wird. Macht einfach euer Ding und feddich. ;)


So ... bin mal 3080 tüfteln. :banane:
(Es is so geil !!! :D )
 
innovativ^^ nicht relevant in 10 jahren vielleicht.
hard unbox.png
 
Was ist an dem unvernünftig?
Technik;
Benchmarks:
Ich muss noch einmal etwas sagen. Ja, das ist kein vernünftiger Test. Ich würde erwarten, dass ein Side-by-Side Vergleich der gleichen Spielszenen zu sehen ist.
 
Ich habe bei Wolfgang nachgefragt, bis jetzt leider noch keine Antwort erhalten. Es ist tatsächlich möglich, dass Hardwarefehler/Speicherkorrekturmechanismen die Performance negativ beeinflussen können. Andreas Schilling vom LUXX hatte einen ähnlichen Test gemacht und deutliche Performanceeinbrüche bereits bei 2150MHz beobachten können.

Ich hätte den Test auch anders aufgezogen. Von weiter unten beginnend, hätte ich Stützstellen für eine Approximation gemessen, um dann mit einer geeigneten Modellfunktion die Degressivität zu untersuchen.


Wie haben keine wirklichen Einsichten, weil wir keine eigene Hardware haben. AMD mag uns immer noch nicht mit Hardware und Softwaresupport bedenken.
Watchdos Legend UHD und alle Ultra:

1800 MHz 46.8 FPS
1900 MHz 48,1 FPS
2000 MHz 49,3 FPS
2100 MHz 49.6 MHz
2150 MHz 48.2 MHz

Leider ist der Speicher schon bei 2150 MHz am Ende, denn ab 2.1 GHz gehts rapide runter. Da aber die Performance bis 2.1 GHz nahezu gleich skaliert, sehe ich hier durchaus ein Limit. Das Runtersetzen geht mit dem MorePowerTool recht gut, allerdings ist bei 1700 Ende, Green Screen.

Watch Dogs als Negativbeispiel für die 3080 sollte sich mit dem nächsten Treiber wohl auch noch etwas verbessern. Wobei die CPU bei mir sogar in QHD noch etwas im Flaschenhals klebt, da hilft der 6800XT nur SAM etwas weiter. Ohne ist die 3080 wieder vorn.
 
Cool also weniger limitiert als jede andere moderne Karte. Top Job AMD!
Das der Speicher so hard dropped ist aber auch echt madig. Aber müsste dann CB mit 2600 MHz nicht deutlich unter Stock performance sein, wenn der so hard Fehler ausspruckt?

(49,6/49,3)*100 = 1,006
(2100/2000)*100 = 1,05
5% mehr Takt mit 0,6% mehr Performance :daumen:
 
Der Speicher sollte sich aber eigentlich leicht stabilisieren lassen indem man dem SOC etwas mehr Saft zugesteht.
 
Man kommt ran, kann alles mögliche voreinstellen, aber sie steigt nicht in real. Firmware Cut. Nachgemessen :(
Cool also weniger limitiert als jede andere moderne Karte. Top Job AMD!
Das der Speicher so hard dropped ist aber auch echt madig. Aber müsste dann CB mit 2600 MHz nicht deutlich unter Stock performance sein, wenn der so hard Fehler ausspruckt?
2600 MHz gehen nicht, das muss ein Vertippser sein. 8600 MHz = x´4x 2150 ;)
 
Man kommt ran, kann alles mögliche voreinstellen, aber sie steigt nicht in real. Firmware Cut. Nachgemessen :(

2600 MHz gehen nicht, das muss ein Vertippser sein. 8600 MHz = x´4x 2150 ;)
Man kann aber evtl. über die Leistungsaufnahme noch etwas stabilisieren, da meine die 2150 ohne Abstriche macht kann ich das aber nicht testen.
 
Der Infinity Cache soll das ja kompensieren und das macht er ja offenbar sehr gut. Wenn die Spiele jenseits 10GB erfordern, dann ist mit der RTX 3080 Schicht im Schacht. Wie sich AMD halten kann, wäre interessant, wenn es eine 16GB RTX 3070Ti gäbe, da sollte man sich das ganze nach 5 Jahren nochmal ansehen, das wäre interessant. So kann man es jetzt schon voraussagen: mit 8 oder 10GB sieht Nvidia, gegen die 16GB von AMD, in 5 Jahren kein Land mehr.



Ich finde, das genaue Gegenteil ist der Fall: solange Nvidia nur 8 oder 10GB bietet, haben sie gegen die 16GB Karten von AMD keine Chance. Da müssen sie schon etwas drauflegen, eine 16GB RTX 3070Ti oder eine 20GB RTX 3080Ti wären sehr interessant.
momentan sieht es aber andersrum aus. Die 6800xt hat trotz mehr vram keine Chance. Das mag daran liegen, dass momentan kein Spielt diese 16 Gb wirklich braucht. Aber wenn sich das in deinen 5 Jahren ändert, ist der chip ohnehin wieder zu langsam und wird nicht vom Speicher ausgebremst.
Keiner behält diese Karten 5 Jahre und falls doch, hast du dann zwar ein bisschen mehr Speicher aber wohl keinen Spaß mit dem bis dahin etablierten RT-Effekten. Die Karten sind gut, aber im Vergleich zu nvidia mit deutlichen Performance und Feature-Vorteil einfach zu teuer.
 
momentan sieht es aber andersrum aus. Die 6800xt hat trotz mehr vram keine Chance. Das mag daran liegen, dass momentan kein Spielt diese 16 Gb wirklich braucht. Aber wenn sich das in deinen 5 Jahren ändert, ist der chip ohnehin wieder zu langsam und wird nicht vom Speicher ausgebremst.

Die Spiele kommen schon. Godfall soll, mit Ultra Details, ja 12GB brauchen, auch einige andere Dinge, die von über 10GB profitieren, gibt es schon und es wird immer mehr.

Keiner behält diese Karten 5 Jahre und falls doch, hast du dann zwar ein bisschen mehr Speicher aber wohl keinen Spaß mit dem bis dahin etablierten RT-Effekten. Die Karten sind gut, aber im Vergleich zu nvidia mit deutlichen Performance und Feature-Vorteil einfach zu teuer.

Mir ist meine 5 Jahre alte GTX 980Ti abgeraucht, die war noch richtig schnell, hat alles in Ultra, mit 1440p Auflösung, zum laufen gebracht und ich wollte sie eigentlich noch zwei weitere Jahre nutzen. Da sich der Fortschritt immer mehr verlangsamt, gehe ich von stark steigenden Nutzungszeiträumen aus. Mich würde es nicht sonderlich überraschen, wenn man mit den Karten auch in 10 Jahren noch einigermaßen zocken kann. Die erste Karte, mit der man auch nach 10 Jahren absolut alles zum laufen bringt, steht immerhin auch vor der Tür. Im Rennen sind GTX 670/680 4GB, HD 7970 6GB, Die erste Titan und R9 290(X) mit 4 und 8GB.

Von daher solltest du nicht von dir auf andere schließen.
 
Godfall wird nach Vorberichten schlicht ein schlechtes Spiel und hat wohl alles mit Screenspace Reflections vollgeballert um "Raytracy" auszusehen.
 
Zuletzt bearbeitet:
Godfall wird nach Vorberichte schlicht ein schlechtes Spiel und hat wohl alles mit Screenspace Reflections vollgeballert um "Raytracy" auszusehen.

Ändert dennoch nichts am VRAM Verbrauch. Schlecht optimierte Spiele sind sowieso schon immer eine der größten Aufrüstgründe gewesen. Bis vor etwas über einem halben Jahr war Anno 1404 auch einer der besten Gründe, sich eine schnelle CPU zu kaufen (hat sich mit dem Patch der History Edition zum Glück geändert),
 
Schlecht optimierte Spiele die gutes Gameplay haben, ja. Godfall wird ein (wahrscheinlich) gut auf AMD optimiertes Spiel mit wohl eher schlechtem Gameplay. Also darf man es tatsächlich getrost ignorieren.
 
Godfall wird nach Vorberichten schlicht ein schlechtes Spiel und hat wohl alles mit Screenspace Reflections vollgeballert um "Raytracy" auszusehen.
Das gilt für fast jedes UE4-Spiel (oft sieht das sogar ziemlich gut aus, aber die grundsätzlichen Probleme bleiben).

MfG
Raff
 
Zurück