Radeon RX 6900 XT Liquid Cooling im Test: Der langersehnte Geforce-RTX-3090-Killer?

Wenn ich mir anschau, wie viele % mehr Leistung aus ner 3090 kommen im Vergleich zu ner guten 6800 XT und dann die %-Zahl danebenlege was den Mehrpreis betrifft, dann relativiert sich das mit der Eierlegenden-und-alles-etc.

Für das bissl mehr an Leistung (und klar, viel mehr RT Leistung ohne Frage) so nen Preissprung, da würd ich die 3090 eher die Rolex unter den Grafikkarten nennen.
 
Mann muss das ja auch jeweils in Relation sehen.
Die 3090 ist am Ende des Tages eigentlich konkurrenzlos in Ihrem Bereich, die RT Leistung ist weit vor den anderen Karten, die UHD Leistung ebenfalls hervorragend.

Da wo die Karte Sinn macht, kann die auch keine andere Karte wirklich angreifen, also UHD.

Eine getweakte 6800XT ist aber bereits DEUTLICH schneller als eine ebenfalls getweakte 3090 in QHD und das eigentliche Pendant, die 3080 ist schlicht chancenlos gegen eine 6800XT, hier reden wir nicht von ein paar Promille, solche Werte hier sind schlicht unerreichbar für eine 3080

Screenshot (828).png
Screenshot (827).jpg
Screenshot (825).png
Screenshot (826).png
Borderlands 3_2021.07.17-09.14.jpg
Screenshot (832).png
 
Zuletzt bearbeitet:
btw.
Das LC-Bios erhöht anscheinend die Spannung vom Vram ggü. dem normalen XTH-Bios.
Flashen lohnt sich somit wahrscheinlich, weil doch mehr Vramtakt erreichbar wird.
 
really?

Und RT war aber eigentlich net die Frage!

Es wurde hinterfragt, ob tatsächlich Gleichstand bei Raster ist.(zzgl. Effizienz oder bei open PL)
(insofern wärs schon schön auch nen TS-Score von Deiner optimierten Graka zu haben, ...
oder kommt Da nix Gescheites raus und Deswegen der schnelle Schwenk auf RT?
In dem Zusammenhang Hut ab vor manimani, der wenigstens die balls hatte seinen Score zu nennen, im Gegensatz
zu blautempel+thepunisher und anderen News-Bereich-only words-Helden, die Gestern net gebenched haben!!!
Ich hoffe Du kannst Das besser.)


Wenn RT, dann gänge ja eh nur RE Village /Godfall, wo der Code zur Architektur passt. (wave64 vs 32, linear RT etc.)
Bloom+Blur = off, weil hierfür die Amperes bereits Optimierungen ggü. Turing haben!
Mir ist vollkommen egal, ob Nvidia nach bestmöglicher Optimierung am Ende gut oder gar besser dasteht. Ich wollte nur anmerken, dass man den Grafikkarten deutlich härter zusetzen kann, was das Heizpotenzial und mögliche Instabilitäten durch zu wenig Spannung angeht. Die genannten Fälle stressen sowohl Ampere als auch RDNA 2 stark, 3DMark hat hingegen nur den Vorteil der 1-Klick-Reproduzierbarkeit. In meinem Fall kommt dazu, dass die Grafikkarte bei einem normalen 3DMark-Run nicht "offen" läuft, da die Infrastruktur limitiert - das maskiert die tatsächliche Effizienz etwas.

@PCGH_Raff vielen Dank für den Test des Unicorns! :) Besteht denn gar keine Chance, dass sich das Ding noch nackig macht? Der Vergleich zum normalen XTX-PCB wäre super spannend (auch in Bezug auf die “Nichtflashbarkeit“).

Wir verhandeln gerade mit Dubaro, was den Verbeib der Karte angeht (da ich sie als Referenz hier haben möchte), derzeit besteht aber keine Chance. Sorry.

MfG
Raff
 
Dito
ist nem RDNA2-Käufer egal Was ein grüner RT-Pfad in nem grünen Game/Bench/Showcase XYZ macht.

Da würde ich mit RT nur in roten/neutralen Games auf nem geeigneten roten Renderpfad agieren wollen.


ergo
Sind wir uns einig, Jeder macht Seins und lässt Vermutungen über die Leistungsfähigkeit der Anderen besser sein!
(gerade was OCen etc. angeht)
 
Zuletzt bearbeitet:
Warum kommt eigentlich kein Hersteller Mal auf die Idee den Weg genau umgekehrt zu nehmen und die durch die bessere Kühlung freigewordenen "Watt" einzusparen, zumindest in Form eines Silent BIOS? Immer mehr und mehr Leistungsaufnahme statt mehr Effizienz...
 
really?

Und RT war aber eigentlich net die Frage!

Es wurde hinterfragt, ob tatsächlich Gleichstand bei Raster ist.(zzgl. Effizienz oder bei open PL)
(insofern wärs schon schön auch nen TS-Score von Deiner optimierten Graka zu haben, ...
oder kommt Da nix Gescheites raus und Deswegen der schnelle Schwenk auf RT?
In dem Zusammenhang Hut ab vor manimani, der wenigstens die balls hatte seinen Score zu nennen, im Gegensatz
zu blautempel+thepunisher und anderen News-Bereich-only words-Helden, die Gestern net gebenched haben!!!
Ich hoffe Du kannst Das besser.)


Wenn RT, dann gänge ja eh nur RE Village /Godfall, wo der Code zur Architektur passt. (wave64 vs 32, linear RT etc.)
Bloom+Blur = off, weil hierfür die Amperes bereits Optimierungen ggü. Turing haben!

Stimmt all meine Community Benchmark Threads sind pure Einbildung. Und ich selbst beteilige mich da auch nie dran. Muss ich wohl geträumt haben :(
 
Stimmt all meine Community Benchmark Threads sind pure Einbildung. Und ich selbst beteilige mich da auch nie dran. Muss ich wohl geträumt haben :(
Sind denn die NV-Treiber immer noch so schlecht? (altes Zeug bei Dir)
das
Gestern kein TS mit nem ordentlichen Score drin war?

Oder willst Du sagen, das bei 22k schon Ende Fahnenstange bei Dir ist?
ich helf Dir mal: 24,59/22,12= 11% mehr Score bei FaktorX2.

Das Du sogar hinter der Kleinen von Gurdi liegst ist dann der zusätzliche Funfact.

btw.
Jetzt, wo das Flashen funzt, kommen sicher noch die 25k in Reichweite für die XTH´s.
 
Zuletzt bearbeitet:
Warum kommt eigentlich kein Hersteller Mal auf die Idee den Weg genau umgekehrt zu nehmen und die durch die bessere Kühlung freigewordenen "Watt" einzusparen, zumindest in Form eines Silent BIOS? Immer mehr und mehr Leistungsaufnahme statt mehr Effizienz...
Ich find diese Brechstangen-Karten um die letzten % rauszuquetschen auch schon lange nicht mehr zeitgemäß, aber solange einige Enthusiasten bereit sind den Mehrpreis zu zahlen wird man sie auch anbieten.
 
sehe timespy extreme und da sind sie gleich auf aber das nur bei raster leistung und raster leistung rückt immer weiter im hintergrund. also port royal 13750 mit uv da kommst mit einer 6900xt niemals hin.
 
Anbei mal ein schneller 3DMark-Run - Time Spy Extreme, sonst limitiert die CPU zu hart. Power- und Auslastungsverlauf anbei. Geforce RTX 3090 FE @ ~1.680/9.250 MHz @ 0,737 Volt (fixed), Auto-Lüftersteuerung. Und jetzt, wo sind die Radeon-Werte? Natürlich mit Stromanzeige. :D

Wie gesagt, am besten wäre es, eine PCGH-Benchmarkszene nach ordentlichem Durchheizen mittels CapFrameX zu messen. Oder zwei. Einmal Raster (Witcher? Borderlands?), einmal RT (MEEE? ART-Mark?)? Dann hätten wir Fps und Watt deckungsgleich.

Falls sich jemand wundert: Meine Curve ist vorne etwas "krumm", sodass die absolut felsenfest auch in 8K nutzbaren 1.695 MHz @ 0,737 Volt erst bei 60+ °C angehen (natürlich habe ich auch 1.710 MHz versucht, hatte dann aber nach Stunden einen Crash in Witcher 3 @ 6K). Der 3DMark-Quickie kann all das nicht abbilden. Man merkt, dass ich nix davon halte, nech? ;)

Zahlreiche Vergleichswerte (GPU Scores) gibt's hier: https://www.pcgameshardware.de/3DMa...ls/Punkte-Tabelle-Time-Spy-Benchmark-1357989/

MfG
Raff
 

Anhänge

  • 3DMark TS Extreme_Details.png
    3DMark TS Extreme_Details.png
    220 KB · Aufrufe: 72
  • 3DMark TS Extreme_Afterburner-Log.png
    3DMark TS Extreme_Afterburner-Log.png
    48,7 KB · Aufrufe: 75
@PCGH_Raff: Schöner Test!

Könntest du mal einen ZenTimings-Screenshot von eurem Ryzen 5950X Benchmark-System posten? Ihr erwähnt in euren Testsystembeschreibungen immer die RAM-Optimierung "bis auf das letzte Subtiming" @ DDR4-3800. Mich würde das Ergebnis interessieren.
 
Hätte da mal eine Frage... Zitat: " Die Radeon RX 6900 XT Liquid ist um durchschnittlich sechs Prozent schneller als die "Air"-Variante".

Bin ich der einzige, der das Verhältnis vom Aufwand zum Resultat von 6 (!) Prozent Mehrleistung, gelinde gesagt, absurd findet? Alles unter 10% ist doch bestenfalls messbar, aber in Realität kaum spürbar...
Ist doch bei 3080 vs. 3080Ti vs. 3090 NICHT anders.
Pro 5% Mehrleistung 500 € teurer + 10 % mehr Strom.

MfG Föhn.
Die Karten sind in der Rasterleistung gleich auf
Fast

MfG Föhn.
 

Anhänge

  • BENCH.jpg
    BENCH.jpg
    407,7 KB · Aufrufe: 56
  • Bench 1920x1080.jpg
    Bench 1920x1080.jpg
    364,3 KB · Aufrufe: 27
  • Bench 2560x1440.jpg
    Bench 2560x1440.jpg
    358,7 KB · Aufrufe: 28
  • Bench 3840x2160.jpg
    Bench 3840x2160.jpg
    325,6 KB · Aufrufe: 40
Zuletzt bearbeitet von einem Moderator:
Für ein paar Weltrekorde hat's ja gereicht.
Das Problem bei Nvidia ist halt, da kann man nicht mehr viel rausholen mit OC, deswegen ist AMD bei einigen Listen ganz oben obwohl vom Werk aus manchmal langsamer, also vor allem bei alten Games bzw. APIs.
Richtig


MfG Föhn.
 

Anhänge

  • OC Potential.jpg
    OC Potential.jpg
    598,6 KB · Aufrufe: 65
angefangen hat das mit einer custom 6900xt und dann wollte irgendwer die 6900xt schneller reden als die 3090 und jetzt sind wir schon bei weltrekorden:haha::haha::haha: meine 3090 ist sogar undervoltet und 10500 im tse und 13750 im port royal reichen wir erstmal
 
Zuletzt bearbeitet:
Leute, hört mit dem Unsinn auf und hackt statt dessen auf Nvidia und AMD ein. Die Unterschiede zwischen RDNA2 und Ampere sind marginal, die Effizienz beider Generationen sind zu gering. Seit Maxwell hat sich der Fortschritt insgesamt verlangsamt. Eigentlich müssten wir eher bei der achtfachen Leistung einer 980ti für 250W sein...
Aus dem Thread Angenommen, die GPU-Preise wären normal... aus dem 3DCenter:

Hoffentlich wird die flöten gegangene Generation auf Dauer nachgeholt; hoffentlich führen die Chipletdesigns und das Eintreten von Intel (und mittelbar Apple) zu einer Aufholjagd.
Die Grenze des thermisch machbaren ist fast erreicht. Wird sind schon bei 7nm und selbst da muss mit dem Holzhammer vorgegangen werden um sich von der letzen Generation einigermaßen abzusetzen. Es braucht neue Akzente. 3D stacking wird wohl der nächste Schritt sein. Nur wie will man die Hitze auf so engem Raum noch vernünftig abführen können? Ich glaube wir steuern auf eine technische Stagnation zu, die Jahre andauern könnte.
 
Anbei mal ein schneller 3DMark-Run - Time Spy Extreme, sonst limitiert die CPU zu hart. Power- und Auslastungsverlauf anbei. Geforce RTX 3090 FE @ ~1.680/9.250 MHz @ 0,737 Volt (fixed), Auto-Lüftersteuerung. Und jetzt, wo sind die Radeon-Werte? Natürlich mit Stromanzeige. :D

Wie gesagt, am besten wäre es, eine PCGH-Benchmarkszene nach ordentlichem Durchheizen mittels CapFrameX zu messen. Oder zwei. Einmal Raster (Witcher? Borderlands?), einmal RT (MEEE? ART-Mark?)? Dann hätten wir Fps und Watt deckungsgleich.

Falls sich jemand wundert: Meine Curve ist vorne etwas "krumm", sodass die absolut felsenfest auch in 8K nutzbaren 1.695 MHz @ 0,737 Volt erst bei 60+ °C angehen (natürlich habe ich auch 1.710 MHz versucht, hatte dann aber nach Stunden einen Crash in Witcher 3 @ 6K). Der 3DMark-Quickie kann all das nicht abbilden. Man merkt, dass ich nix davon halte, nech? ;)

Zahlreiche Vergleichswerte (GPU Scores) gibt's hier: https://www.pcgameshardware.de/3DMa...ls/Punkte-Tabelle-Time-Spy-Benchmark-1357989/

MfG
Raff
Balanced Mode, 255er ASIC entsprechend der Referenz. Mein 24/7 Setting.
Screenshot (833).png


Hier liegt der Hund dann auch begraben, eine sinvoll konfigurierte 3090 ist schlicht langsamer als meine Karte bei einem vernünftigen Setting. Die RDNA2 sind einfach deutlich flexibler was tweaking angeht. Das trifft vor allem auf QHD zu aber auch in 1800p.
Bitte deine Beiträge als irreführende Werbung markieren.:-)
Es steht dir frei meine Aussagen mit Werten zu wiederlegen.
 
Zuletzt bearbeitet:
Zurück