Radeon RX 6500 XT: Ungeliebt, aber verfügbar - Nur etwa 30 % über UVP

BigBoymann

Software-Overclocker(in)
Und selbst in 1440p ist die 6600 schneller, als die 3050 in 1080p.
Und trotzdem sind beide Karten eigentlich unbrauchbar in der Auflösung! Zumindest wenn nativ gerechnet werden soll. Die 3050 kannst aber letztlich auf FullHD rechnen lassen und dann mittels DLSS auf 1440p skalieren! Leistung satt, während die 6600 am Ende ist! Das ist für mich ein Vorteil!

Da hab ich aufgehört zu lesen! FSR ist unbrauchbar!
Im PCGH Test waren sie beide etwa auf Augenhöhe, wenn die GTX 1060 6GB ihren VRAM ausspielen kann, dann zieht sie davon. Außerdem hat sie kein Problem, mit dem PCIe Interfache. Insgesamt ist die GTX 1060 die deutlich bessere Karte.
Quatsch und nicht verstanden!

Die 1060 ist die deutlich langsamere Karte, sie profitiert erst wenn der 6500XT der Speicher ausgeht. Im Test "Low Quality" wird sie durchgehend und teils extrem deutlich geschlagen (+30/40%), bedeutet de facto, dass die 6500XT den massiv schnelleren Chip hat und erst ab dem Zeitpunkt wo VRAM ausgeht geschlagen wird. In 1080 und MaxDetails, sind aber beide Karten zu langsam um Spaß zu machen, die eine wegen zu wenig Speicher, die andere wegen zu wenig Leistung. Was bringen mit 26fps? Nix, wenn die 6500XT 3fps hat, wirkt sich das massiv auf den Index aus, was bleibt aber dem Gamer übrig? Richtig, beide Karten können das Spiel mit den Details nicht!

Will sagen, der Speicher ist begrenzbar und wie der LowQuality Test zeigt, ist die 6500XT in allen Titel mit den für sie richtigen Details schneller unterwegs als die 1060, deswegen die bessere Karte.
Danke, war scheinbar zu blöd für Google

Bei diesen Karten finde ich den regulären Test mit Ultrasettings aber wenig sinnvoll, denn für diese Settings sind beide Karten schlicht nicht gemacht.
Danke Julian, endlich einer der sich Gedanken macht auch abseits der Balken und Prozente!

DLSS wird leider an der gleichen Krankheit sterben.
Ich glaube zwar auch daran, allerdings muss erst eine sinnvolle Alternative her. Denn anders als PhysX und G-Sync, wo es schnell oder zeitgleich Alternativen gab, die in ihrer Funktion nicht hinten an standen, hat DLSS einen signifikanten Vorteil. Eine Karte von NV kann dank DLSS eigentlich immer mind. eine Klasse weiter oben als AMD anklopfen. Aber DLSS wird sterben, fraglich nur ob das zeitnah passiert, AMDs Alternative ist keine Alternative und Intels Lösung muss auch erstmal was können. DLSS 1.0 bspw. war für mich ein Rohrkrepierer, allerdings ist DLSS2 mitterlweile mehr als nur eine Alternative und gerade bei den derzeitigen Preisen, würde ich eine 3050 einer 6600 vorziehen, eben weil die 3050 quasi ohne sichtbaren Qualiverlust in 1440p die gleichen FPS liefern kann wie in Full HD und damit dann plötzlich meilenweit vor der 6600 liegt.
Also ehrlich welches Scenario soll das sein wo man eine 6500XT einer 1060 vor zieht ?
In der Welt in der eben Full HD und Medium Details genutzt werden, siehe Low Settings Test der PCGH! In einer anderen Welt, erbringen weder die 1060 noch die 6500XT spielbare FPS und sind daher beide nutzlos. Also muss man solange runterskalieren bis was nutzbares rauskommt und dann liegt die 6500XT teileweise meilenweit vor der 1060! Die aktuellen Testszenarien sind in meinen Augen komplett ungeeignet um solche Karten zu testen, Ultra Details ist nunmal kein Anwendungsgebiet für diese Karten und wenn aber genau dann hier die Karte in den VRAM läuft, machen die ganzen Balken keinen Sinn mehr! Benchmarks muss man eben auch lesen, verstehen und interpretieren und genau deshalb war es so wichtig, dass PCGH den Nachtest gemacht hat.
ci5 12400f 180
so1200 kühler mounting kit enthalten 35€
b660m 120€
16gb ddr4 3600 60€
netzteil 90€ seasonic focus
dose 50€
samsung 980 1tb 100€
rx6500xt 269€
Wobei ich vorsichtig gesprochen den 12400f als vollständig overpowerd empfinden würde, einen 10400f würde ich hier aktuell fast als geeigneter empfinden, dazu würde in meinen Augen gar ein H410/510 Board reichen (sollte PCIe 4 haben, wenn ich mich nicht täusche), würde das System in Games nicht negativ beeinflussen und 100 EUR billiger sein, dafür natürlich wenig Zukunftssicher, da wäre man mit dem 12400 deutlich besser unterwegs.
 
Zuletzt bearbeitet:

Khabarak

BIOS-Overclocker(in)
Die rx6500xt ist auf level der gtx1060 bei 1,9ghz
Das habe ich erwartet
Als spielaufklösung ist hier klar 1080p angesagt
Den mit meiner alten gtx1060 kam ich bei game s von 2016-2020 auf etwa 74fps
Und wegen der 6g vram auch nur teilweise die texturen reduzieren musste
Die rx6500xt wird wohl kommende spiele nur noch mit low texturen problemlos auf nen aktuelles system laufen.
Und genau da sollt die gpu auch hin zu einstiegs systemen für etwa 1000€
bsp konfig wär dies
ci5 12400f 180
so1200 kühler mounting kit enthalten 35€
b660m 120€
16gb ddr4 3600 60€
netzteil 90€ seasonic focus
dose 50€
samsung 980 1tb 100€
rx6500xt 269€
949€
das ist deutlich besser als vor paar wochen wo man brauchbare systeme nicht unter 1300€ bekam.

Nur der kleine nachteil das man kein dedizierten encoder hat schmerzt was
Bei den Preisen für ein B660 Board wird einem ja richtig schlecht...
Da kann man doch eher ein B550 Board für €70 und einen 5600X für €266 nehmen.
Für beide Konfigurationen dann nen EKL Ben Nevis Kühler für nur €24
Für Intel würden dann €938 an der Kasse stehen, beim AMD System halt €974 - dafür halt mit 2 Kernen und 4 Threads mehr (Beide CPUs haben keine iGPU).
 

Khabarak

BIOS-Overclocker(in)
Und trotzdem sind beide Karten eigentlich unbrauchbar in der Auflösung! Zumindest wenn nativ gerechnet werden soll. Die 3050 kannst aber letztlich auf FullHD rechnen lassen und dann mittels DLSS auf 1440p skalieren! Leistung satt, während die 6600 am Ende ist! Das ist für mich ein Vorteil!

Ja, ja... wäre echt toll, wenn du auch mal die reviews lesen würdest, bevor du dich über sowas auslässt...
die 6600 non-XT ist in 1440p nur 10% hinter einer 3060:

Während eine 3050 nochmal 23% hinter einer 6600 liegt:

Da braucht man mit der 3050 schon DLSS , nur um mit der 6600 gleichzuziehen.
 

Gurdi

Kokü-Junkie (m/w)
Das beschneiden auf die 4GB hat zumindest diesen einen Effekt, die Karte geht nicht völlig absurd mit dem Preis durch die Decke.

Das ist dann aber auch wirklich das einzigst positive an dieser Karte.
 

Bluebird

Software-Overclocker(in)
Und trotzdem sind beide Karten eigentlich unbrauchbar in der Auflösung! Zumindest wenn nativ gerechnet werden soll. Die 3050 kannst aber letztlich auf FullHD rechnen lassen und dann mittels DLSS auf 1440p skalieren! Leistung satt, während die 6600 am Ende ist! Das ist für mich ein Vorteil!


Da hab ich aufgehört zu lesen! FSR ist unbrauchbar!

Quatsch und nicht verstanden!

Die 1060 ist die deutlich langsamere Karte, sie profitiert erst wenn der 6500XT der Speicher ausgeht. Im Test "Low Quality" wird sie durchgehend und teils extrem deutlich geschlagen (+30/40%), bedeutet de facto, dass die 6500XT den massiv schnelleren Chip hat und erst ab dem Zeitpunkt wo VRAM ausgeht geschlagen wird. In 1080 und MaxDetails, sind aber beide Karten zu langsam um Spaß zu machen, die eine wegen zu wenig Speicher, die andere wegen zu wenig Leistung. Was bringen mit 26fps? Nix, wenn die 6500XT 3fps hat, wirkt sich das massiv auf den Index aus, was bleibt aber dem Gamer übrig? Richtig, beide Karten können das Spiel mit den Details nicht!

Will sagen, der Speicher ist begrenzbar und wie der LowQuality Test zeigt, ist die 6500XT in allen Titel mit den für sie richtigen Details schneller unterwegs als die 1060, deswegen die bessere Karte.

Danke, war scheinbar zu blöd für Google


Danke Julian, endlich einer der sich Gedanken macht auch abseits der Balken und Prozente!


Ich glaube zwar auch daran, allerdings muss erst eine sinnvolle Alternative her. Denn anders als PhysX und G-Sync, wo es schnell oder zeitgleich Alternativen gab, die in ihrer Funktion nicht hinten an standen, hat DLSS einen signifikanten Vorteil. Eine Karte von NV kann dank DLSS eigentlich immer mind. eine Klasse weiter oben als AMD anklopfen. Aber DLSS wird sterben, fraglich nur ob das zeitnah passiert, AMDs Alternative ist keine Alternative und Intels Lösung muss auch erstmal was können. DLSS 1.0 bspw. war für mich ein Rohrkrepierer, allerdings ist DLSS2 mitterlweile mehr als nur eine Alternative und gerade bei den derzeitigen Preisen, würde ich eine 3050 einer 6600 vorziehen, eben weil die 3050 quasi ohne sichtbaren Qualiverlust in 1440p die gleichen FPS liefern kann wie in Full HD und damit dann plötzlich meilenweit vor der 6600 liegt.

In der Welt in der eben Full HD und Medium Details genutzt werden, siehe Low Settings Test der PCGH! In einer anderen Welt, erbringen weder die 1060 noch die 6500XT spielbare FPS und sind daher beide nutzlos. Also muss man solange runterskalieren bis was nutzbares rauskommt und dann liegt die 6500XT teileweise meilenweit vor der 1060! Die aktuellen Testszenarien sind in meinen Augen komplett ungeeignet um solche Karten zu testen, Ultra Details ist nunmal kein Anwendungsgebiet für diese Karten und wenn aber genau dann hier die Karte in den VRAM läuft, machen die ganzen Balken keinen Sinn mehr! Benchmarks muss man eben auch lesen, verstehen und interpretieren und genau deshalb war es so wichtig, dass PCGH den Nachtest gemacht hat.

Wobei ich vorsichtig gesprochen den 12400f als vollständig overpowerd empfinden würde, einen 10400f würde ich hier aktuell fast als geeigneter empfinden, dazu würde in meinen Augen gar ein H410/510 Board reichen (sollte PCIe 4 haben, wenn ich mich nicht täusche), würde das System in Games nicht negativ beeinflussen und 100 EUR billiger sein, dafür natürlich wenig Zukunftssicher, da wäre man mit dem 12400 deutlich besser unterwegs.
Bullshit , Texturen brauchen keine Rechenleistung und machen Spiele um soviel schöner !
Du willst hier was Erzählen von Low Details und irgendwelchen Phantasie Einstellungen wo die 6500 besser sein soll, aber verstehst nicht das gute Grafik oftmals allein durch Textur Qualität steht oder fällt ...
Von denn wenigen Titeln die mit 4mb Vram zum Teil derbe Grafikfehler verursachen rede ich da schon gar nicht .
Also selbst ich als AMD Fanboy würde die 1060 jeder Zeit einer 6500XT vorziehen , bevor ich für sowas Geld ausgebe kann ich ja gleich meine alte R9 380 ausgraben ;)
 

shaboo

Software-Overclocker(in)
Also geht es nur um den Namen? Wohl eher nicht. Es geht um die Leistung in Verbindung mit dem Preis. Und da hinkte der Vergleich zwischen diesen Karten von Anfang an.
Ja genau, du Blitzmerker. Und Preis und Leistung hätte man gar nicht erst miteinander verglichen, wenn die 6500XT als 6400XT auf den Markt gekommen wäre. Ist jetzt nicht soo schwer zu verstehen, oder?
 

xlOrDsNaKex

Freizeitschrauber(in)
Das ihr alle davon ausgeht das DLSS aussterben wird. Erstaunlich. Eure Glaskugel hätte ich gerne....

Ich hoffe darauf das DLSS nicht ausstirbt. Bevor das passieren sollte legt Nvidia den Sourcecode offen.
 

Khabarak

BIOS-Overclocker(in)
Das ihr alle davon ausgeht das DLSS aussterben wird. Erstaunlich. Eure Glaskugel hätte ich gerne....

Ich hoffe darauf das DLSS nicht ausstirbt. Bevor das passieren sollte legt Nvidia den Sourcecode offen.
Hieran wird DLSS sterben:
Edit:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
/Edit
Edit2:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
/Edit2

Und an äquivalenten Technologien, die später für andere Engines kommen.
Das ist aber schon klar, seit die kleine Entwicklerschmiede an der Unlimited Detail Engine arbeitet
2011 kam deren großes Ankündigungsvideo und dann erst mal nicht viel...
2016 Kam neue Werbung für einen VR Park, der die Engine benutzt - inklusive Animationen.
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Epic hat deutlich mehr Ressourcen, als die kleine Firma Euclideon und kann da deutlich mehr rausholen.
Vor allem haben sie Tim Sweeney als CEO, der seine ganze Karriere über an Grafikengines gearbeitet und die UE vorangetrieben hat.
Da ist es kein Wunder, dass er sein Team auf Edir 3: eine ähnliche /Edit3 Technologie angesetzt hat und jetzt Nanite in UE5 implementiert.


Edit3:
Im Endeffekt arbeiten beide Engines unterschiedlich, aber mit dem gleichen Effekt:
Man kann unendlich skalieren - bis einem das RAM ausgeht.
Bei Nanite basiert alles auf sehr hoch aufgelösten Modellen, die dynamisch und sehr fein LOD Stufen bekommen, indem Polygone nach und nach zusammengefasst werden.
Die Unlimited Detail Engine arbeitet mit Voxeln und zerlegt die Modelle in selbige - wobei auch hier dynamisch und sehr fein LOD Stufen generiert werden.

Mit beiden Herangehensweisen gibt es eigentlich keinen Bedarf mehr für DLSS und FSR - allerdings wird es noch ein paar Jahre dauern, bis sich die Techniken auf breiter Front durchsetzen.
Mir persönlich gefällt die Idee mit den Voxeln besser, aber das Ergebnis stimmt bei beiden Ansätzen. /Edit3
 
Zuletzt bearbeitet:

Lichtspieler2000

Freizeitschrauber(in)
Das war doch die Absicht von AMD, dass man mit nur 4GB vielleicht nicht alle aktuellen Spiele mit hohem Speicherbedarf gut in FullHD zocken kann, aber dafür eine bessere Verfügbarkeit erzeugt, weil die nicht zum Mining verwendet wird.
Es reicht ein mittelmäßig hoher Speicherbedarf um die Karte werlos zu machen.
Eine Karte benötigt für Full HD heutzutage zwingend 5 bis 6GB damit man damit etwas anfangen kann.
4GB sind aus dem Stand schon zu wenig für quasi alles.

Natürlich spielt die 3050 eine Klassenklasse höher...
50 bis 60% sind nicht nur eine Klasse höher.

Besser etwas als gar nichts lautet die Devise.
Lieber eine halb-defekte RX570 8G als die 6500XT.
 

plusminus

BIOS-Overclocker(in)
Das beschneiden auf die 4GB hat zumindest diesen einen Effekt, die Karte geht nicht völlig absurd mit dem Preis durch die Decke.

Das ist dann aber auch wirklich das einzigst positive an dieser Karte.


Falsch !

Für das gebotene ist der Preis der AMD 6500XT völlig Absurd !

Es wurden schließlich auch der Decoder , der Encoder und 4 PCI Lanes weggeschnippelt !

Wird immer gerne vergessen oder ?

Die AMD Karte ist in ihrem Erscheinungsjahr 2022 schon nicht mehr Zeitgemäss :schief:
 

openSUSE

Software-Overclocker(in)
Noch 17 Stunden(!) aber die Karte wird bald sicher ständig für den Preis zu haben sein.
Alternate
AtN_rx65xt_an.png
 
Oben Unten