Radeon RX 6800 XT: Time Spy Extreme geleakt - stabile Treiber, etwas laut und exzellente Temperaturen?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6800 XT: Time Spy Extreme geleakt - stabile Treiber, etwas laut und exzellente Temperaturen?

Einem Leak nach erreicht die Radeon RX 6800 XT im Time Spy Extreme 8.500 Punkte, womit sie dort nur knapp hinter der Geforce RTX 3080 liegen soll. Außerdem heißt es, dass die Treiber stabil sind, die Temperaturen hervorragend - nur sei das Referenzdesign etwas laut.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6800 XT: Time Spy Extreme geleakt - stabile Treiber, etwas laut und exzellente Temperaturen?
 
Zitat aus dem Artikel:

"Obwohl sich die Radeon RX 6800 XT 300 Watt genehmigen soll, fallen die Temperaturen angeblich hervorragend aus. Jedoch sei das Referenzdesign etwas laut - was auch immer das heißen mag."

Wer hat denn den Text geschrieben?

Da AMD zur RX 6800-6900XT alle Grafikkartenkühler mit nur maximal 2,5 Slot Ausdehnung angibt, sollte das docjh fast logisch sein, das es nicht ganz so leise wird, wenn man dabei bencht!
Dabei ist bestimmt das Energie-Managment nicht aktiv.
Das wird wohl mit weniger anspruchsvollen Anwendungen voll zum Einsatz kommen.
Auch 300Watt, natürlich mit +, müßen auch gut gekühlt werden.
Leise, bedingt aber auch eine große Kühlfläche, oder?
 
Zuletzt bearbeitet:
Zitat aus dem Artikel:

"Obwohl sich die Radeon RX 6800 XT 300 Watt genehmigen soll, fallen die Temperaturen angeblich hervorragend aus. Jedoch sei das Referenzdesign etwas laut - was auch immer das heißen mag."

Wer hat denn den Text geschrieben?

Da AMD zur RX 6800-6900XT alle Grafikkartenkühler mit nur maximal 2,5 Slot Ausdehnung angibt, sollte das docjh fast logisch sein, das es nicht ganz so leise wird, wenn man dabei bencht!
Dabei ist bestimmt das Energie-Managment nicht aktiv.
Das wird wohl mit weniger anspruchsvollen Anwendungen voll zum Einsatz kommen.
Auch 300Watt, natürlich mit +, müßen auch gut gekühlt werden.
Leise, bedingt aber auch eine große Kühlfläche, oder?

naja wenn die Temp. hervorragend aber die Lüfter laut sind würde ich als erstes die Lüfter mal etwas bremsen.
Dann mal schauen in wie weit sich das verbessert bzw. verschlechtert.
 
etwas laut ist ne geile Aussage :D
bei einem ist es leise, der andere meint nö zu laut......
Aber ein zu Laut, bekommt doch ein jeder in den Griff. So wi er es am besten mag. sehe da kein Problem.
Freue mich jedenfalls auf die reihe.
 
Zitat aus dem Artikel:

"Obwohl sich die Radeon RX 6800 XT 300 Watt genehmigen soll, fallen die Temperaturen angeblich hervorragend aus. Jedoch sei das Referenzdesign etwas laut - was auch immer das heißen mag."

Wer hat denn den Text geschrieben?

Da AMD zur RX 6800-6900XT alle Grafikkartenkühler mit nur maximal 2,5 Slot Ausdehnung angibt, sollte das docjh fast logisch sein, das es nicht ganz so leise wird, wenn man dabei bencht!
Dabei ist bestimmt das Energie-Managment nicht aktiv.
Das wird wohl mit weniger anspruchsvollen Anwendungen voll zum Einsatz kommen.
Auch 300Watt, natürlich mit +, müßen auch gut gekühlt werden.
Leise, bedingt aber auch eine große Kühlfläche, oder?
Das werden wir wissen, sobald offiziell Benchmarks veröffentlicht werden. "Hervorragende Temperaturen" kann alles möglich bedeuten.
 
Hervorragende Temperaturen und erhöhte Lautstärke ist doch vielleicht sogar noch besser als anders herum ;)
Jedenfalls klingt das für mich so, dass man die Lautstärke ggf. zu Lasten der Temperaturen (die dann ja noch "Luft" nach oben hätten) regulieren kann.

Stabile Treiber - naja, das wird man sehen.
Sollte meiner Meinung nach so selbstverständlich sein, dass es keiner Positiverwähnung bedürfte!
 
Die Referenzkarte ist für mich sowieso vollkommen uninteressant.

Wann kommen die Customs? Gibt es da schon was stichhaltiges zu?

Mein Körper ist jedenfalls bereit für eine neue, hoffentlich lieferbare, Karte :daumen:
 
Ich denke mit der Referenzkarte hat man die beste Möglichkeit für einen Wasserkühler, vielleicht ist der Kühler von EK ja am gleichen Tag lieferbar. Naja, man darf ja mal träumen.
 
Bin gerade ob der ganzen Leaks und Gerüchte minimal verwirrt. War die Aussage nicht, dass die 6800 XT von der Performance her näher an der 3090 als an der 3080 liegen sollte? Von daher bin ich recht ernüchtert von den Werten.

Klar kann man die noch hochtakten (wie weit wird sich zeigen), aber manche 3080 knackt so ja auch die 10K Punkte.
 
Knapp unter 3080 mit guten Temps in Time Spy, bei 300 Watt mit Referenz Design... nicht schlecht. Es gab ja Leaks einer Asus Strix mit über 2500Mhz, wenn nicht nur die "golden samples" das erreichen, dann sehe ich eine 6800XT mit Wakü an einer 3090 vorbeiziehen.
 
Bin gerade ob der ganzen Leaks und Gerüchte minimal verwirrt. War die Aussage nicht, dass die 6800 XT von der Performance her näher an der 3090 als an der 3080 liegen sollte? Von daher bin ich recht ernüchtert von den Werten.
Die 3080 bekommt ihre extreme Leistung (durch verdoppelte fp32 im Vergleich zu Turing) halt nur recht schwer in Spielen auf die Straße, weshalb sie auch so viel von höheren Auflösungen profitiert.
Sollte AMD da besser sein mit ihrer 6800XT kann ein kleiner Rückstand in synthetischen Benchmarks trotzdem ein Plus in Spielen bedeuten (sofern dieser "leak" überhaupt zutrifft, Chancen stehen aber nicht schlecht so kurz vor Release).
Will sagen ein synthetischer Benchmark macht halt für uns Gamer nicht so viel Sinn, außer sich an der theoretischen Leistung zu erfreuen :D
Wer am Ende besser ist kann nur durch ein wohl abgestimmtes Bild von Benchmarks aus unterschiedlichen Spielen bestimmt werden, mit Sicherheit sehr ausführlich hier auf PCGH ;)
 
Zitat: "Typischerweise soll die Geforce RTX 3800 dort 8.900 bis 9.000 Punkte erzielen."

Eine völlig neue Nvidia-Karte mischt den Markt auf! :lol:

Hinweis: Finde den Fehler!
 
Zurück