AMD gegen Nvidia: Radeons nur noch mit 17 Prozent Marktanteil

Also ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS !!!
Ok und in welchem RT-Titel packt alles ab RTX3080 aufwärts nur 30-50FPS auf 4K? Zumal grundsätzlich fast immer DLSS an Board ist? Also ich bekomme bei 4K in Cyberpunk mit maximalem RT und Details ca 60 FPS auf DLSS-Quality. :lol:
4K und RT on hab ich geschrieben ! Die paar Titel jene DLSS unterstützen Außen vor. Um genau das geht´s mir !

Ja, 4K und RayTracing.
RTX3080, RTX3080Ti und RTX3090 packen die 4K/60FPS da mit DLSS-Quality regelmäßig. Wie kommst du darauf, man dürfte DLSS nicht aktivieren, wenn es verfügbar ist und müsste mit 30 FPS rumkrebsen?

Liste von RT-Titeln:
1630313522800.png

Liste von Titeln mit DLSS:
1630313539100.png

Es fällt auf, dass fast alle Titel, die oben auf der Liste mit RayTracing stehen, auch auf der unteren Liste stehen.

Wo ist dein Problem? Jetzt mal ohne Scheiß.

Dieses Gelaber von "die Grafikkarten schaffen mit RayTracing nur 30 FPS...mimimi" ist sowas von 2018. Wir haben die Upscaling-Verfahren, die RayTracing auf hoher Auflösung bei normalen Bildraten ermöglichen. Also mach' dich nicht lächerlich.
 
Ja, 4K und RayTracing.
RTX3080, RTX3080Ti und RTX3090 packen die 4K/60FPS da mit DLSS-Quality regelmäßig. Wie kommst du darauf, man dürfte DLSS nicht aktivieren, wenn es verfügbar ist und müsste mit 30 FPS rumkrebsen?
Weil eben NICHT alle Games DLSS unterstützen !!
Hab ich aber auch genau so geschrieben ! Wo liegt darin DEIN Problem ?
DLSS ist ne tolle Sache (hab ich auch schon des Öfteren geschrieben),
nur bin ICH eben der Meinung, dass dies erst mit den kommenden Generationen für den Mainstream was ist,
und NICHT nur für jene die bereit sind 1500 € + auszugeben.
Und wie gut DLSS implementiert ist und ob einem die FPS Einbrüche wert sind, darf jeder für sich entscheiden.
Nur weil ein Titel DLSS/RT unterstützt, bin ich doch nicht verpflichtet es zu aktivieren ?

That´s it.
Viel Spaß damit (ehrlich gemeint) ! :nicken:

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Nur weil ein Titel DLSS/RT unterstützt, bin ich doch nicht verpflichtet es zu aktivieren ?
Du bist zu nichts verpflichtet, aber ich meine es ist halt falsch zu pauschalisieren, dass RayTracing im Jahr 2021 bedeutet, dass man mit 30-50FPS rumeiern muss. Das stimmt einfach nicht (mehr). Schau doch mal unbefangen auf die Sache. Wer eine RTX-Karte hat und RayTracing nutzen will, der schaltet DLSS ein und zockt es dann eben so - mit RT und DLSS auf seiner Auflösung und es gibt keine Probleme und es sieht geil aus.

Mir fällt aktuell echt kein Spiel ein, welches RT unterstützt und, sofern die Bildraten ein Problem sein würden, kein DLSS, oder eine andere ausgleichende Technologie, an Board hat. Fällt mir echt nichts ein. In der Regel machen sich die Entwickler darüber ja Gedanken und packen im Hinblick auf RT auch direkt DLSS (und neuerdings FSR) mit rein.

Daher erübrigt sich die Argumentation von selbst.

Und einen Punkt hast du noch genannt:
ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS
Wenn ein Titel auf hohe Bildraten angewiesen ist, weil er zB ein kompetetiver Multiplayer-Titel ist oder weil die Reaktionszeiten ein wichtiger Teil der Spielmechanik sind, dann optimieren die Entwickler diesen Titel sowieso darauf und schränken die Grafikeinstellungen ein bzw lassen Effekte weg. In Titeln, wo es ausreicht, dass das Bild flüssig ist, da packen die Entwickler alles an Effekten rein was geht und was es gibt.

Es wird daher auch logischerweise auf absehbare Zeit kein Counter-Strike mit RayTracing geben. Es macht keinen Sinn und bringt auch keinen besonderen Mehrwert, da es in diesem Spiel nur um's Gewinnen geht.

Es gibt aber andere Titel, wo man gut mit 60FPS klarkommt und sich dann auch über besonders gute Effekte freut. Das hängt eben immer davon ab, was so ein Spiel und sein Entwickler bezwecken will. Man kann hier nicht pauschalisieren, dass RT doof ist, weil es zu viel Leistung kostet. Manchmal ist es angebracht und manchmal nicht.
 
Gekauft wurde seit Release so gut wie jede Karte und ich würde fast behaupten, der Marktanteil wäre auch dann da wo er jetzt ist, wenn die RDNA2-Karten nur die Hälfte in der UVP kosten würden.
Wenn das so ist, dann muss die Produktionsmenge von AMD Karten extrem klein sein, wenn nicht mal eine 3 Jahre alte High End Karte mit allen verfügbaren RDNA 2 Karten überholt wird.
Ich denke viel mehr es ist eine Mischung aus beidem. Wenig Produkte und kaum einer will sie.
Aufgrund des schwachen Featureangebots und der schwachen RT Performance ist das auch kein Wunder.

Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
Sind die nicht. Unter Rasterization sind es rund 10% und inkl. RT fällt die Effizienz hinter die Nvidia Pendants, teilweise deutlich. (20 bis 30%).
Lügen haben kurze Beine.
 
Ja gut, wenn man die RT-Effizienz miteinbezieht, dann sieht AMD kein Land und wenn man DLSS miteinbezieht, dann ist es extrem, weil DLSS die Leistungsaufnahme, bei steigender Performance, sogar senkt. Aber das meint man ja üblicherweise nicht. Unter Rasterisierungs-Bedingungen ist AMD schon besser als ne Stock-Ampere. Es wird jedoch besser, wenn man die Ampere untervoltet.
 
Ohne mich da informiert zu haben und ohne das ganze in letzter Zeit verfolgt zu haben:

Schlichtweg weniger Einheiten produziert?
AMD bleibt ja nichts anderes übrig, als die gebuchten Fertigungskapazitäten irgendwie sinvoll aufzuteilen.
Neben den GPU´s / CPU´s und APU´s für Desktop/Mobile hat AMD ja auch noch die APU´s für PS5 / Series X bzw. S.
hmmm, ja, vermutlich wird das der Hauptgrund sein, warum es so eklatant auseinander klafft. Schade.
 
Na ja, wenn man es genau betrachtet, sind die AMD Karten schon längst kein Schnäppchen mehr und das ist mitunter das Hauptproblem.
Vor nicht all zu langer Zeit konnte man eine 5700xt durchaus als günstigere Alternative zu den Nvidias auch für WHQD empfehlen.
Und jetzt steht da 1.099 € zu 1.199 € und die AMD kann kein RT.
Was liegt näher für den eher uninformierten Mainstream (Fertig-PC) Käufer, bei dem vermeidlich besseren Produkt zuzuschlagen.
Die Verkaufsargumentation "RT" zieht, das Marketing und der öffentliche Auftritt ist da bei Nvidia einfach präsenter.
Läge eine 6800xt bei UVP Preis von ca. 650 €, bräuchte man an dieser Stelle nicht über Marktanteilschwund palavern.
Tut sie aber nicht, gleich teuer wie vergleichbare NVidias und dann siehste eben nur noch das Heck vom abfahrenden Zug...
 
Ich finde auch, die AMD-Karten müssten viel günstiger sein, dann wäre die Nachfrage und der Absatz auch höher. Mit annähernd gleichen Preisen wird das zu recht nichts.
 
ICH eben der Meinung, dass dies erst mit den kommenden Generationen für den Mainstream was ist,
und NICHT nur für jene die bereit sind 1500 € + auszugeben.

In diesem hat die 3090 lediglich 22 FPS und 3080 knapp 16 FPS in 4 K und RT on.
Raytracing benötigt für spielbare Einstellungen zwingend DLSS oder FSR. Die derzeit wichtigen Spiele mit Raytracing unterstützen meist nur DLSS. Ich meine damit Titel wie Metro, Control oder auch Cyberpunk.
Was ich damit sagen will:
Ohne FSR/DLSS ist Raytracing nahezu nutzlos. Ruckel-Orgien nützen mir weder im Singleplayer noch bleibe ich lange genug stehen um 30 fps zu ertragen.

Im Umkehrschluss reicht allerdings eine RTX 3060 mit DLSS für erste Erfahrungen mit Raytracing in 1080p bis 1440p schon gut aus und es gibt mittlerweile doch einige Titel.

Ich war alles andere als ein Freund von DLSS und Raytracing, aber bei den aktuellen Preisen für gebrauchte und neue Hardware kann man im Vergleich zur 6600 XT auch gleich 50 bis 100€ für eine RTX 3060 drauflegen. PCIe 3.0 8x und weniger VRAM waren dann die letzten Punkte gegen die RX 6600 XT. Die ist zwar out-of-the-box effizienter, allerdings verschenkt Nvidia bei der RTX 3060 enorm viel Potenzial.

Unter Last liegen 1,063 bis 1,081 V an, ähnlich wie bei einer GTX 1070, was man locker auf 0,88 V senken kann. Selbst die schlimmsten GPUs sollten mit 0,95 bis 1 Volt laufen, da hat es Nvidia wohl zu gut mit dem OC-Potenzial gemeint.

Die (ungefähr stimmende) Board-Power sinkt bei erreichen der Standard-Taktraten auf ca. 120 W, wobei AMD hier nur die Chip-Power angibt. Die liegt bei mir dann bei knapp 90 W bei ca. 1800 MHz.
Bild

Ich bin positiv überrascht wie gut Raytracing mit DLSS läuft, quasi setzt man ein solches Verfahren aber durch den hohen Rechenaufwand fast voraus. Die Bildqualität der nativen Auflösung gibt man aber auch mit der aktuellen Version von DLSS ein Stück weit für Raytracing auf...

Fazit:
Wenn wir um die 600€ als aus der Luft gegriffene Preisgrenze annehmen, dann sollte man entweder mit viel Glück eine RX 6700 XT oder RX 6800 im AMD-Shop ergattern, wenn man kaum Wert auf RT legt oder nach einer möglichst "günstigen" 3060 / Ti Ausschau halten.
Also ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS !!!
Bei der aktuellen Klimadiskussion bzw. Stromverbrauch, den steigenden Energiepreisen, Hardwarekosten und natürlich auch in Zukunft weiter steigenden Anforderungen unserer Games bin ich mit spielbaren 45 bis 60 fps in WQHD schon zu frieden. Für Gaming oberhalb 100 fps wird dann selbst im Bestfall meine CPU der Flaschenhals, außerhalb reichen mir im Multiplayer 80 bis 120 fps tatsächlich.
Ich finde auch, die AMD-Karten müssten viel günstiger sein, dann wäre die Nachfrage und der Absatz auch höher. Mit annähernd gleichen Preisen wird das zu recht nichts.
Das liegt wohl an der allgemeinen Knappheit, den begrenzten Kapazitäten bei TSMC und deren Teilung mit Konsolen-SoCs und CPUs.
Die RX 6600 XT müsste entweder dauerhaft günstiger sein oder zu den Preisen ein 192 Bit breites Speicherinterface bzw. mehr Infinity Cache bieten.
 
Zuletzt bearbeitet:
Ich war alles andere als ein Freund von DLSS und Raytracing, aber bei den aktuellen Preisen für gebrauchte und neue Hardware kann man im Vergleich zur 6600 XT auch gleich 50 bis 100€ für eine RTX 3060 drauflegen. PCIe 3.0 8x und weniger VRAM waren dann die letzten Punkte gegen die RX 6600 XT. Die ist zwar out-of-the-box effizienter, allerdings verschenkt Nvidia bei der RTX 3060 enorm viel Potenzial.
Dass PCIe 3.0 vs. 4.0 der "Unterschied" bei ca. 1 %(!) liegt wurde ja schon getestet/gemessen.
Und die 8 GB RAM in dieser Klasse mehr als ausreichend sind hat nVidia mit ihren (Rechtfertigungs -)Benches der 3070 mit 8 GB gezeigt, da die "6´er" Klasse für FullHD angedacht ist.
Und da liegt die 6600XT nun mal bis zu 10 % (ja nach Website) vor der 3060 (siehe Test von IGOR) bei ein paar €uronen günstiger.
Bis Raytracing in diesen Klassen (spielbaren) Einzug erhält vergehen mMn noch mind. zwei GraKa Generationen.
Aber jeder wie er will/kann/darf ... :P

https://www.igorslab.de/sapphire-rx-6600xt-pulse-8gb-im-test-sparsamer-kann-auch-sinnvoller-sein/4/

MfG Föhn.
 

Anhänge

  • Bench 6600XT.jpg
    Bench 6600XT.jpg
    370,4 KB · Aufrufe: 5
  • Fazit 6600XT.jpg
    Fazit 6600XT.jpg
    463,5 KB · Aufrufe: 9
@onkel-foehn
Der Unterschied der RX 6600 XT bei PCIe 3.0 8x variiert je nach Titel stark. Meist ist der Unterschied minimal, aber bei Metro und Hitman 3 sieht man das "worst case" Szenario und wie gesagt: Die 3060 bietet erstmal immerhin 12 GB und die Raytracing-Leistung reicht für mittlere Einstellungen.

Letzten Endes ist die 6600 XT natürlich eine gute Karte, aber es hängt auch von den Preisen und Prioritäten des Käufers ab.
 
Dass PCIe 3.0 vs. 4.0 der "Unterschied" bei ca. 1 %(!) liegt wurde ja schon getestet/gemessen.
Und die 8 GB RAM in dieser Klasse mehr als ausreichend sind hat nVidia mit ihren (Rechtfertigungs -)Benches der 3070 mit 8 GB gezeigt, da die "6´er" Klasse für FullHD angedacht ist.
Und da liegt die 6600XT nun mal bis zu 10 % (ja nach Website) vor der 3060 (siehe Test von IGOR) bei ein paar €uronen günstiger.
Bis Raytracing in diesen Klassen (spielbaren) Einzug erhält vergehen mMn noch mind. zwei GraKa Generationen.
Aber jeder wie er will/kann/darf ... :P

https://www.igorslab.de/sapphire-rx-6600xt-pulse-8gb-im-test-sparsamer-kann-auch-sinnvoller-sein/4/

MfG Föhn.

Also im PCGH Heft sind es mehr wie 1% Unterschied. Sicherlich kann man die Differenz ignorieren aber 8 Lanes für 380€ UVP ist schon hart.

Die Karte hat auch genug Power für 1440p Gaming daher finde ich es schade, das man die Karte auf 1080p beschnitten hat (Cache Größe).

Für mich persönlich wäre die 6600XT mit 16 Lanes, 12GB Ram (192 Bit) und 48-64MB Cache bei 380€ der Sweetspot gewesen.

RT mal außen vor, das wird man noch 2-3 Jahre in aktuellen Games ignorieren können ohne das man Gamer zweiter Klasse wird.

Ich habe ja auch persönlich zur RTX3060 gegriffen. RT war da aber weniger der Grund sondern DLSS und die 12GB Ram.
 
Die Designentscheidung mit den 8 Lanes kann ich auch nicht nachvollziehen. Eine 6600 taugt aber im Grunde genauso gut für 1440p wie eine 5700XT, 2070S oder 3060. Da sehe ich jetzt grundsätzlich kein Problem.

Die 12GB der 60er sind natürlich ein klarer Bonus, mehr Vram ist immer sinnvoll.
Natürlich sind 12 GB "besser" wie 8 GB ! Ganz nach dem Motto : Besser haben, als brauchen =)
Nur die 6600XT ist für FullHD konzipiert und da ist die Entscheidung (wenn auch in der Tat mehr als "Fragwürdig")
diese lediglich über 8 Lanes PCIe 3.0 anzubinden dennoch völlig ausreichen für ihren gedachten Einsatzzweck.
Bin der Meinung, dass 12 GB RAM der "normalen" 3080 bzw. der 3070 Ti besser zu Gesicht gestanden hätte,
da dies dem Zweck "4K + RT + DLSS" mehr entspricht ...

MfG Föhn.
535€ für ne RX6600XT? :ugly:

Bitter.
480 € für ne 6600XT Bitter ! :ugly:
700 € für ne 3060 doppelt Bitter !! :ugly::ugly:

MfG Föhn.
 

Anhänge

  • Preis 6600XT.jpg
    Preis 6600XT.jpg
    521,8 KB · Aufrufe: 9
  • Preis 3060.jpg
    Preis 3060.jpg
    515,3 KB · Aufrufe: 8
  • Bench 6600XT.jpg
    Bench 6600XT.jpg
    370,4 KB · Aufrufe: 19
Zuletzt bearbeitet von einem Moderator:
480 € für ne 6600XT Bitter ! :ugly:
700 € für ne 3060 doppelt Bitter !! :ugly::ugly:
Die 535€ nahm ich aus Igors Beitrag.
Und ja, das ist alles bitter.

Ca 500-600€ für die Lowest-Bugdet-Karten.
Was ist das, wenn nicht bitter? Das ist LÄCHERLICH.

2017 habe ich mir für 496€ ne GTX1080 gekauft und das war damals die zweitschnellste Consumer-Karte, nachdem kurz zuvor die GTX1080Ti kam. :ugly:

EDIT:

Was erzählst du eigentlich schon wieder?
Du bist ja schlimmer als Gurdi.
Postest Screenshots, die man eine Minute später schon nicht mehr verifizieren kann.

1630418185100.png
 
Zurück