• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia RTX A6000: Im Gaming-Test gegen GeForce RTX 3090

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Nvidia RTX A6000: Im Gaming-Test gegen GeForce RTX 3090

Wie schlägt sich eine professionelle Grafikkarte für wissenschaftliche Berechnungen gegen eine normale Spiele-Grafikkarte im Gaming? Die Webseite igor'sLAB hat den Test gemacht und eine Nvidia RTX A6000 gegen eine Geforce RTX 3090 in 8K, 5K und 4K gegeneinander antreten lassen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia RTX A6000: Im Gaming-Test gegen GeForce RTX 3090
 

twack3r

Software-Overclocker(in)
Sehr spannend.

Gerade die Werte aus der UE4 sind interessant; ich habe für ACC eine config erstellt die es der Engine (ebenfalls UE4) erlaubt, die 24GiB meiner 3090 komplett vollzuladen. Anwendung ist ausschließlich in VR, also absolute Speerspitze der Performance Anforderung auf eine Gigabyte 3090 Gaming OC mit 390-400W Budget.

Im Vergleich der configs zwischen stock und custom zeigt sich, dass die frametimes (immens wichtig in VR) bei letzterer deutlich ausgeglichener sind und das obwohl die 3090 samt übertaktetem VRAM ja fast ein GB/s an Bandbreite zur Verfügung hat.

Es zeigt sich also selbst auf der gleichen Karte dass verfügbare und geladene Daten im VRAM einen deutlichen Einfluss auf die 'Glätte' der frametimes haben; begründet ist dies wahrscheinlich weniger in der Bandbreite als der besseren Latenz, vor allem wenn die CPU ohnehin auf 8/8 Kernen gut zu buckeln hat.
 

BxBender

BIOS-Overclocker(in)
@RAFF: wird Zeit für eine weitere Runde "Can it run Crysis in 16K" ! :-)

Abschließend kann man schon mal festhalten, für 8K Gaming an den neuen, extragroßen TV-Bildschirmen von Samsung und Co. wird demnächst wohl eine 3090 mit 24GB die Mindestvorraussetzung sein.
Wehe dem, der jetzt noch eine popelige 3080 Ti mit lachhaft 12GB kauft.^^
 

deady1000

Volt-Modder(in)
Okay und wie sieht es aus, wenn man den Speicher leicht übertaktet? Man kann den Speicher ja im Afterburner locker um 10% anheben. Eigentlich müsste der GDDR6X dem langsameren GDDR6 davonlaufen. Die 24GB können ja von der Speichermenge wohl kaum limiteren. Und wichtig wären noch die Temperaturen. Kann natürlich auch sein, dass die RTX3090 hier in die TJmax vom Speicher gerutscht ist bei dieser hohen Auflösung. Das wäre natürlich fatal. Müsste man daher eigentlich nochmal mit einer wassergekühlten Karte testen.
 

twack3r

Software-Overclocker(in)
Okay und wie sieht es aus, wenn man den Speicher leicht übertaktet? Man kann den Speicher ja im Afterburner locker um 10% anheben. Eigentlich müsste der GDDR6X dem langsameren GDDR6 davonlaufen. Die 24GB können ja von der Speichermenge wohl kaum limiteren. Und wichtig wären noch die Temperaturen. Kann natürlich auch sein, dass die RTX3090 hier in die TJmax vom Speicher gerutscht ist bei dieser hohen Auflösung. Das wäre natürlich fatal. Müsste man daher eigentlich nochmal mit einer wassergekühlten Karte testen.
Die Ergebnisse habe ich vor zu liefern, aber natürlich ohne den A6000.

Ich baue gerade die WaKü auf meine 3090 und berichte gerne, ob es womöglich thermische Einflüsse auf die frametimes gibt.
 

Gurdi

Kokü-Junkie (m/w)
Die Ergebnisse habe ich vor zu liefern, aber natürlich ohne den A6000.

Ich baue gerade die WaKü auf meine 3090 und berichte gerne, ob es womöglich thermische Einflüsse auf die frametimes gibt.
Klar haben die Temperaturen Einfluss darauf. Aber eben auch die Anbindung des Speichers und vor allem wie die Laststeuerung der Karten ist.
 

Cleriker

PCGH-Community-Veteran(in)
Hahaha, da hast du vollkommen recht. Wahrscheinlich denke ich unterbewusst genau daran. Die legendary ist mMn auch eine Klasse für sich. Als ich die ausgepackt habe, war schon toll. Wäre dieser Kühler jetzt noch aus Metall statt Kunststoff... :sabber:

AMD weiß echt wie man schöne Karten baut. Meine Vega Frontier Air ist auch einfach prächtig.
 

Gurdi

Kokü-Junkie (m/w)
Hahaha, da hast du vollkommen recht. Wahrscheinlich denke ich unterbewusst genau daran. Die legendary ist mMn auch eine Klasse für sich. Als ich die ausgepackt habe, war schon toll. Wäre dieser Kühler jetzt noch aus Metall statt Kunststoff... :sabber:

AMD weiß echt wie man schöne Karten baut. Meine Vega Frontier Air ist auch einfach prächtig.
Der Schlumpf ist legend, hab den Kühler auch auf einen V56 gebaut.
 

Sorenhuhn

Komplett-PC-Käufer(in)
Was ich nicht kapier ist, wie die Karte mit nur einem 8pin Anschluss auf 300W kommt?
Sry, habe den neuen Anschluss bei Nvidia vergessen...
 

deady1000

Volt-Modder(in)
An dieser Stelle mal die Frage, warum wird denn hier nicht der neu eingeführte Stecker verwendet? Wenn sich das Ding langfristig durchsetzen soll, dann wäre es gut, den konsequent zu verbauen. Und warum EPS? Das ist doch eher der Standard für 12V CPU am Mainboard. Naja wird wahrscheinlich irgendwas mit Profi- bzw Workstation-Usus zu tun haben. Irgendwas hat man sich wohl dabei gedacht.
 

blautemple

Lötkolbengott/-göttin
An dieser Stelle mal die Frage, warum wird denn hier nicht der neu eingeführte Stecker verwendet? Wenn sich das Ding langfristig durchsetzen soll, dann wäre es gut, den konsequent zu verbauen. Und warum EPS? Das ist doch eher der Standard für 12V CPU am Mainboard. Naja wird wahrscheinlich irgendwas mit Profi- bzw Workstation-Usus zu tun haben. Irgendwas hat man sich wohl dabei gedacht.
EPS ist afaik eine Erweiterung zum ATX Format für Server und Workstation.
 

deady1000

Volt-Modder(in)
Eins verstehe ich aber nicht.

Was kann der Ampere Vollausbau? NVIDIA Quadro RTX A6000 mit 48 GB als 8K und 5K-Karte im Gaming-Test – Dekadenz pur und Sieg gegen die GeForce RTX 3090

Dann aber diese Grafik im Test:

1620214554496.png

1620214670204.png

Also Sieg nur mit Drosselung der RTX3090 auf 300W, weil die Quadro mehr nicht kann? Wahrscheinlich auch nur hart übers Power-Limit, was zu noch schlechterer Leistung führt und ohne Undervolting-Optimierung, während die Quadro sich selbst komplett ausfahren darf? Und auch ohne Speicherübertaktung, weil die Quadro das auch nicht kann?

Wo ist das denn ein Sieg? :ugly: Angesichts des Preises, des deutlich (!) langsameren Speichers, dem niedrigen Power-Limit und der schlechten/lauten Kühlung ist das ne fette Niederlage. Gut, es bleibt ne Quadro, die für bestimmte Tätigkeiten eventuell benötigt wird, aber ich sehe diesen komischen Vergleich trotzdem nicht ein.
 

FormatC

igor'sLAB
Die A6000 ist sogar LEISER als die RTX 3090 FE dank eines deutlich intelliegenteren Kühlkonzepts und des neuartigen Lüfters. Beide getestet im gleichen geschlossenen Gehäuse. Review mit Teardown kommt ja alles noch. Und nein, es wurde samt Curve Editor limitiert, ich lasse meine eigene 3090 meist auch nur mit 300 Watt laufen.

Naja und langsamerer Speicher... Der GDDR6X ist an der Kotzgrenze und ich möchte nicht wissen, wie viel der Bandbreite allein für Fehlerkorrekturen draufgeht. Schon die die Varianzen sprechen da Bände. Mit der RTX 3090 verrecken mir in Maya mít Arnold zudem regelmäßig die Workloads, da nutzt der aufgeblasene 6X dann auch nichts mehr. ECC kann die 3090 auch nicht. Genau dafür und für die Zertifizierungen zahlt man halt mehr. Isso.
 

deady1000

Volt-Modder(in)
Fair enough. :top: Das mit dem Kühler ist interessant.
Ich sagte ja, dass es für ne Quadro gute Gründe geben kann.
Sehe halt nur den "Sieg" nicht so richtig, wenn man dafür erst auf 300W drosseln muss.
 

FormatC

igor'sLAB
Ich will ja meinen Follow-Ups nicht vorgreifen, aber die A6000 hat ein sehr striktes Temperatur Limit von 80 °C. Damit taktet sie, ich nutze die Karten ja im Gehäuse und voll aufgewärmt, bei 1605 MHz, also um die 200 MHz niedriger als die 3090 FE. Bei gleichem Takt ist die 3090 trotz des schnelleren Speichers komplett weit weg.

Momentan grüble ich noch über dem Wasserblock, denn nach den ganzen Workstation-Tests werde ich sie mal zerlegen, die Platine hier im 3D-Scanner einscannen und mir dann so ein Dingsbums fräsen lassen. Mit 200 bis 300 MHz mehr ist das Ding dann ein echtes Biest, trotz der 300 Watt Grenze. Die wassergekühlte RTX 6000 ging ja locker allein durch den Boost plötzlich über 2 GHz. :)
 

Gurdi

Kokü-Junkie (m/w)
Ich will ja meinen Follow-Ups nicht vorgreifen, aber die A6000 hat ein sehr striktes Temperatur Limit von 80 °C. Damit taktet sie, ich nutze die Karten ja im Gehäuse und voll aufgewärmt, bei 1605 MHz, also um die 200 MHz niedriger als die 3090 FE. Bei gleichem Takt ist die 3090 trotz des schnelleren Speichers komplett weit weg.

Momentan grüble ich noch über dem Wasserblock, denn nach den ganzen Workstation-Tests werde ich sie mal zerlegen, die Platine hier im 3D-Scanner einscannen und mir dann so ein Dingsbums fräsen lassen. Mit 200 bis 300 MHz mehr ist das Ding dann ein echtes Biest, trotz der 300 Watt Grenze. Die wassergekühlte RTX 6000 ging ja locker allein durch den Boost plötzlich über 2 GHz. :)
Da bin ich echt mal gespannt. Ich hätte auch gedacht dass der Speicher auf der 90er mehr ausmacht.
 
Oben Unten