• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD gegen Nvidia: Radeons nur noch mit 17 Prozent Marktanteil

deady1000

Volt-Modder(in)
Also ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS !!!
Ok und in welchem RT-Titel packt alles ab RTX3080 aufwärts nur 30-50FPS auf 4K? Zumal grundsätzlich fast immer DLSS an Board ist? Also ich bekomme bei 4K in Cyberpunk mit maximalem RT und Details ca 60 FPS auf DLSS-Quality. :lol:
4K und RT on hab ich geschrieben ! Die paar Titel jene DLSS unterstützen Außen vor. Um genau das geht´s mir !

Ja, 4K und RayTracing.
RTX3080, RTX3080Ti und RTX3090 packen die 4K/60FPS da mit DLSS-Quality regelmäßig. Wie kommst du darauf, man dürfte DLSS nicht aktivieren, wenn es verfügbar ist und müsste mit 30 FPS rumkrebsen?

Liste von RT-Titeln:
1630313522800.png

Liste von Titeln mit DLSS:
1630313539100.png

Es fällt auf, dass fast alle Titel, die oben auf der Liste mit RayTracing stehen, auch auf der unteren Liste stehen.

Wo ist dein Problem? Jetzt mal ohne Scheiß.

Dieses Gelaber von "die Grafikkarten schaffen mit RayTracing nur 30 FPS...mimimi" ist sowas von 2018. Wir haben die Upscaling-Verfahren, die RayTracing auf hoher Auflösung bei normalen Bildraten ermöglichen. Also mach' dich nicht lächerlich.
 

onkel-foehn

Software-Overclocker(in)
Ja, 4K und RayTracing.
RTX3080, RTX3080Ti und RTX3090 packen die 4K/60FPS da mit DLSS-Quality regelmäßig. Wie kommst du darauf, man dürfte DLSS nicht aktivieren, wenn es verfügbar ist und müsste mit 30 FPS rumkrebsen?
Weil eben NICHT alle Games DLSS unterstützen !!
Hab ich aber auch genau so geschrieben ! Wo liegt darin DEIN Problem ?
DLSS ist ne tolle Sache (hab ich auch schon des Öfteren geschrieben),
nur bin ICH eben der Meinung, dass dies erst mit den kommenden Generationen für den Mainstream was ist,
und NICHT nur für jene die bereit sind 1500 € + auszugeben.
Und wie gut DLSS implementiert ist und ob einem die FPS Einbrüche wert sind, darf jeder für sich entscheiden.
Nur weil ein Titel DLSS/RT unterstützt, bin ich doch nicht verpflichtet es zu aktivieren ?

That´s it.
Viel Spaß damit (ehrlich gemeint) ! :nicken:

MfG Föhn.
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
Nur weil ein Titel DLSS/RT unterstützt, bin ich doch nicht verpflichtet es zu aktivieren ?
Du bist zu nichts verpflichtet, aber ich meine es ist halt falsch zu pauschalisieren, dass RayTracing im Jahr 2021 bedeutet, dass man mit 30-50FPS rumeiern muss. Das stimmt einfach nicht (mehr). Schau doch mal unbefangen auf die Sache. Wer eine RTX-Karte hat und RayTracing nutzen will, der schaltet DLSS ein und zockt es dann eben so - mit RT und DLSS auf seiner Auflösung und es gibt keine Probleme und es sieht geil aus.

Mir fällt aktuell echt kein Spiel ein, welches RT unterstützt und, sofern die Bildraten ein Problem sein würden, kein DLSS, oder eine andere ausgleichende Technologie, an Board hat. Fällt mir echt nichts ein. In der Regel machen sich die Entwickler darüber ja Gedanken und packen im Hinblick auf RT auch direkt DLSS (und neuerdings FSR) mit rein.

Daher erübrigt sich die Argumentation von selbst.

Und einen Punkt hast du noch genannt:
ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS
Wenn ein Titel auf hohe Bildraten angewiesen ist, weil er zB ein kompetetiver Multiplayer-Titel ist oder weil die Reaktionszeiten ein wichtiger Teil der Spielmechanik sind, dann optimieren die Entwickler diesen Titel sowieso darauf und schränken die Grafikeinstellungen ein bzw lassen Effekte weg. In Titeln, wo es ausreicht, dass das Bild flüssig ist, da packen die Entwickler alles an Effekten rein was geht und was es gibt.

Es wird daher auch logischerweise auf absehbare Zeit kein Counter-Strike mit RayTracing geben. Es macht keinen Sinn und bringt auch keinen besonderen Mehrwert, da es in diesem Spiel nur um's Gewinnen geht.

Es gibt aber andere Titel, wo man gut mit 60FPS klarkommt und sich dann auch über besonders gute Effekte freut. Das hängt eben immer davon ab, was so ein Spiel und sein Entwickler bezwecken will. Man kann hier nicht pauschalisieren, dass RT doof ist, weil es zu viel Leistung kostet. Manchmal ist es angebracht und manchmal nicht.
 

Lichtspieler2000

Freizeitschrauber(in)
Gekauft wurde seit Release so gut wie jede Karte und ich würde fast behaupten, der Marktanteil wäre auch dann da wo er jetzt ist, wenn die RDNA2-Karten nur die Hälfte in der UVP kosten würden.
Wenn das so ist, dann muss die Produktionsmenge von AMD Karten extrem klein sein, wenn nicht mal eine 3 Jahre alte High End Karte mit allen verfügbaren RDNA 2 Karten überholt wird.
Ich denke viel mehr es ist eine Mischung aus beidem. Wenig Produkte und kaum einer will sie.
Aufgrund des schwachen Featureangebots und der schwachen RT Performance ist das auch kein Wunder.

Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
Sind die nicht. Unter Rasterization sind es rund 10% und inkl. RT fällt die Effizienz hinter die Nvidia Pendants, teilweise deutlich. (20 bis 30%).
Lügen haben kurze Beine.
 

deady1000

Volt-Modder(in)
Ja gut, wenn man die RT-Effizienz miteinbezieht, dann sieht AMD kein Land und wenn man DLSS miteinbezieht, dann ist es extrem, weil DLSS die Leistungsaufnahme, bei steigender Performance, sogar senkt. Aber das meint man ja üblicherweise nicht. Unter Rasterisierungs-Bedingungen ist AMD schon besser als ne Stock-Ampere. Es wird jedoch besser, wenn man die Ampere untervoltet.
 

tunexor

PC-Selbstbauer(in)
Ohne mich da informiert zu haben und ohne das ganze in letzter Zeit verfolgt zu haben:

Schlichtweg weniger Einheiten produziert?
AMD bleibt ja nichts anderes übrig, als die gebuchten Fertigungskapazitäten irgendwie sinvoll aufzuteilen.
Neben den GPU´s / CPU´s und APU´s für Desktop/Mobile hat AMD ja auch noch die APU´s für PS5 / Series X bzw. S.
hmmm, ja, vermutlich wird das der Hauptgrund sein, warum es so eklatant auseinander klafft. Schade.
 

compisucher

BIOS-Overclocker(in)
Na ja, wenn man es genau betrachtet, sind die AMD Karten schon längst kein Schnäppchen mehr und das ist mitunter das Hauptproblem.
Vor nicht all zu langer Zeit konnte man eine 5700xt durchaus als günstigere Alternative zu den Nvidias auch für WHQD empfehlen.
Und jetzt steht da 1.099 € zu 1.199 € und die AMD kann kein RT.
Was liegt näher für den eher uninformierten Mainstream (Fertig-PC) Käufer, bei dem vermeidlich besseren Produkt zuzuschlagen.
Die Verkaufsargumentation "RT" zieht, das Marketing und der öffentliche Auftritt ist da bei Nvidia einfach präsenter.
Läge eine 6800xt bei UVP Preis von ca. 650 €, bräuchte man an dieser Stelle nicht über Marktanteilschwund palavern.
Tut sie aber nicht, gleich teuer wie vergleichbare NVidias und dann siehste eben nur noch das Heck vom abfahrenden Zug...
 

deady1000

Volt-Modder(in)
Ich finde auch, die AMD-Karten müssten viel günstiger sein, dann wäre die Nachfrage und der Absatz auch höher. Mit annähernd gleichen Preisen wird das zu recht nichts.
 

belle

PCGH-Community-Veteran(in)
ICH eben der Meinung, dass dies erst mit den kommenden Generationen für den Mainstream was ist,
und NICHT nur für jene die bereit sind 1500 € + auszugeben.

In diesem hat die 3090 lediglich 22 FPS und 3080 knapp 16 FPS in 4 K und RT on.
Raytracing benötigt für spielbare Einstellungen zwingend DLSS oder FSR. Die derzeit wichtigen Spiele mit Raytracing unterstützen meist nur DLSS. Ich meine damit Titel wie Metro, Control oder auch Cyberpunk.
Was ich damit sagen will:
Ohne FSR/DLSS ist Raytracing nahezu nutzlos. Ruckel-Orgien nützen mir weder im Singleplayer noch bleibe ich lange genug stehen um 30 fps zu ertragen.

Im Umkehrschluss reicht allerdings eine RTX 3060 mit DLSS für erste Erfahrungen mit Raytracing in 1080p bis 1440p schon gut aus und es gibt mittlerweile doch einige Titel.

Ich war alles andere als ein Freund von DLSS und Raytracing, aber bei den aktuellen Preisen für gebrauchte und neue Hardware kann man im Vergleich zur 6600 XT auch gleich 50 bis 100€ für eine RTX 3060 drauflegen. PCIe 3.0 8x und weniger VRAM waren dann die letzten Punkte gegen die RX 6600 XT. Die ist zwar out-of-the-box effizienter, allerdings verschenkt Nvidia bei der RTX 3060 enorm viel Potenzial.

Unter Last liegen 1,063 bis 1,081 V an, ähnlich wie bei einer GTX 1070, was man locker auf 0,88 V senken kann. Selbst die schlimmsten GPUs sollten mit 0,95 bis 1 Volt laufen, da hat es Nvidia wohl zu gut mit dem OC-Potenzial gemeint.

Die (ungefähr stimmende) Board-Power sinkt bei erreichen der Standard-Taktraten auf ca. 120 W, wobei AMD hier nur die Chip-Power angibt. Die liegt bei mir dann bei knapp 90 W bei ca. 1800 MHz.
Bild

Ich bin positiv überrascht wie gut Raytracing mit DLSS läuft, quasi setzt man ein solches Verfahren aber durch den hohen Rechenaufwand fast voraus. Die Bildqualität der nativen Auflösung gibt man aber auch mit der aktuellen Version von DLSS ein Stück weit für Raytracing auf...

Fazit:
Wenn wir um die 600€ als aus der Luft gegriffene Preisgrenze annehmen, dann sollte man entweder mit viel Glück eine RX 6700 XT oder RX 6800 im AMD-Shop ergattern, wenn man kaum Wert auf RT legt oder nach einer möglichst "günstigen" 3060 / Ti Ausschau halten.
Also ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS !!!
Bei der aktuellen Klimadiskussion bzw. Stromverbrauch, den steigenden Energiepreisen, Hardwarekosten und natürlich auch in Zukunft weiter steigenden Anforderungen unserer Games bin ich mit spielbaren 45 bis 60 fps in WQHD schon zu frieden. Für Gaming oberhalb 100 fps wird dann selbst im Bestfall meine CPU der Flaschenhals, außerhalb reichen mir im Multiplayer 80 bis 120 fps tatsächlich.
Ich finde auch, die AMD-Karten müssten viel günstiger sein, dann wäre die Nachfrage und der Absatz auch höher. Mit annähernd gleichen Preisen wird das zu recht nichts.
Das liegt wohl an der allgemeinen Knappheit, den begrenzten Kapazitäten bei TSMC und deren Teilung mit Konsolen-SoCs und CPUs.
Die RX 6600 XT müsste entweder dauerhaft günstiger sein oder zu den Preisen ein 192 Bit breites Speicherinterface bzw. mehr Infinity Cache bieten.
 
Zuletzt bearbeitet:

onkel-foehn

Software-Overclocker(in)
Ich war alles andere als ein Freund von DLSS und Raytracing, aber bei den aktuellen Preisen für gebrauchte und neue Hardware kann man im Vergleich zur 6600 XT auch gleich 50 bis 100€ für eine RTX 3060 drauflegen. PCIe 3.0 8x und weniger VRAM waren dann die letzten Punkte gegen die RX 6600 XT. Die ist zwar out-of-the-box effizienter, allerdings verschenkt Nvidia bei der RTX 3060 enorm viel Potenzial.
Dass PCIe 3.0 vs. 4.0 der "Unterschied" bei ca. 1 %(!) liegt wurde ja schon getestet/gemessen.
Und die 8 GB RAM in dieser Klasse mehr als ausreichend sind hat nVidia mit ihren (Rechtfertigungs -)Benches der 3070 mit 8 GB gezeigt, da die "6´er" Klasse für FullHD angedacht ist.
Und da liegt die 6600XT nun mal bis zu 10 % (ja nach Website) vor der 3060 (siehe Test von IGOR) bei ein paar €uronen günstiger.
Bis Raytracing in diesen Klassen (spielbaren) Einzug erhält vergehen mMn noch mind. zwei GraKa Generationen.
Aber jeder wie er will/kann/darf ... :P

https://www.igorslab.de/sapphire-rx-6600xt-pulse-8gb-im-test-sparsamer-kann-auch-sinnvoller-sein/4/

MfG Föhn.
 

Anhänge

  • Bench 6600XT.jpg
    Bench 6600XT.jpg
    370,4 KB · Aufrufe: 5
  • Fazit 6600XT.jpg
    Fazit 6600XT.jpg
    463,5 KB · Aufrufe: 9

belle

PCGH-Community-Veteran(in)
@onkel-foehn
Der Unterschied der RX 6600 XT bei PCIe 3.0 8x variiert je nach Titel stark. Meist ist der Unterschied minimal, aber bei Metro und Hitman 3 sieht man das "worst case" Szenario und wie gesagt: Die 3060 bietet erstmal immerhin 12 GB und die Raytracing-Leistung reicht für mittlere Einstellungen.

Letzten Endes ist die 6600 XT natürlich eine gute Karte, aber es hängt auch von den Preisen und Prioritäten des Käufers ab.
 

Blackout27

Volt-Modder(in)
Dass PCIe 3.0 vs. 4.0 der "Unterschied" bei ca. 1 %(!) liegt wurde ja schon getestet/gemessen.
Und die 8 GB RAM in dieser Klasse mehr als ausreichend sind hat nVidia mit ihren (Rechtfertigungs -)Benches der 3070 mit 8 GB gezeigt, da die "6´er" Klasse für FullHD angedacht ist.
Und da liegt die 6600XT nun mal bis zu 10 % (ja nach Website) vor der 3060 (siehe Test von IGOR) bei ein paar €uronen günstiger.
Bis Raytracing in diesen Klassen (spielbaren) Einzug erhält vergehen mMn noch mind. zwei GraKa Generationen.
Aber jeder wie er will/kann/darf ... :P

https://www.igorslab.de/sapphire-rx-6600xt-pulse-8gb-im-test-sparsamer-kann-auch-sinnvoller-sein/4/

MfG Föhn.

Also im PCGH Heft sind es mehr wie 1% Unterschied. Sicherlich kann man die Differenz ignorieren aber 8 Lanes für 380€ UVP ist schon hart.

Die Karte hat auch genug Power für 1440p Gaming daher finde ich es schade, das man die Karte auf 1080p beschnitten hat (Cache Größe).

Für mich persönlich wäre die 6600XT mit 16 Lanes, 12GB Ram (192 Bit) und 48-64MB Cache bei 380€ der Sweetspot gewesen.

RT mal außen vor, das wird man noch 2-3 Jahre in aktuellen Games ignorieren können ohne das man Gamer zweiter Klasse wird.

Ich habe ja auch persönlich zur RTX3060 gegriffen. RT war da aber weniger der Grund sondern DLSS und die 12GB Ram.
 

onkel-foehn

Software-Overclocker(in)
Die Designentscheidung mit den 8 Lanes kann ich auch nicht nachvollziehen. Eine 6600 taugt aber im Grunde genauso gut für 1440p wie eine 5700XT, 2070S oder 3060. Da sehe ich jetzt grundsätzlich kein Problem.

Die 12GB der 60er sind natürlich ein klarer Bonus, mehr Vram ist immer sinnvoll.
Natürlich sind 12 GB "besser" wie 8 GB ! Ganz nach dem Motto : Besser haben, als brauchen =)
Nur die 6600XT ist für FullHD konzipiert und da ist die Entscheidung (wenn auch in der Tat mehr als "Fragwürdig")
diese lediglich über 8 Lanes PCIe 3.0 anzubinden dennoch völlig ausreichen für ihren gedachten Einsatzzweck.
Bin der Meinung, dass 12 GB RAM der "normalen" 3080 bzw. der 3070 Ti besser zu Gesicht gestanden hätte,
da dies dem Zweck "4K + RT + DLSS" mehr entspricht ...

MfG Föhn.
535€ für ne RX6600XT? :ugly:

Bitter.
480 € für ne 6600XT Bitter ! :ugly:
700 € für ne 3060 doppelt Bitter !! :ugly::ugly:

MfG Föhn.
 

Anhänge

  • Preis 6600XT.jpg
    Preis 6600XT.jpg
    521,8 KB · Aufrufe: 9
  • Preis 3060.jpg
    Preis 3060.jpg
    515,3 KB · Aufrufe: 8
  • Bench 6600XT.jpg
    Bench 6600XT.jpg
    370,4 KB · Aufrufe: 18
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
480 € für ne 6600XT Bitter ! :ugly:
700 € für ne 3060 doppelt Bitter !! :ugly::ugly:
Die 535€ nahm ich aus Igors Beitrag.
Und ja, das ist alles bitter.

Ca 500-600€ für die Lowest-Bugdet-Karten.
Was ist das, wenn nicht bitter? Das ist LÄCHERLICH.

2017 habe ich mir für 496€ ne GTX1080 gekauft und das war damals die zweitschnellste Consumer-Karte, nachdem kurz zuvor die GTX1080Ti kam. :ugly:

EDIT:

Was erzählst du eigentlich schon wieder?
Du bist ja schlimmer als Gurdi.
Postest Screenshots, die man eine Minute später schon nicht mehr verifizieren kann.

1630418185100.png
 

onkel-foehn

Software-Overclocker(in)
Der Unterschied der RX 6600 XT bei PCIe 3.0 8x variiert je nach Titel stark. Meist ist der Unterschied minimal, aber bei Metro und Hitman 3 sieht man das "worst case" Szenario
Also nur mal so am Rande : bei 4 von 17 Games sind es mehr wie 2 % beim Rest gleich auf oder in der Messtoleranz.
Klick Dich einfach mal durch die verschiedenen Games durch.
Für MICH wäre dies jetzt KEIN "Kriegsentscheidendes" Kaufargument ... :schief:


MfG Föhn.
 

Anhänge

  • 3.0 vs. 4.0.jpg
    3.0 vs. 4.0.jpg
    426,6 KB · Aufrufe: 21

RavionHD

PCGH-Community-Veteran(in)
Ich sehe 0 Argumente für eine RX 6600 XT.

Sie ist teurer, beide sind etwa gleich schnell, 3060 ist deutlich schneller mit RT, und mit DLSS 2.0 ist RT auch problemlos nutzbar (natürlich nicht in Ultra).

Dem PCGH Test nach haushaltet Nvidia btw auch deutlich besser mit Vram.

Das wird genauso eine Katastrophe wie die RX 6700XT, wo laut Steam Hardware Survey auf eine RX 6700XT 13 RTX 3070 kommen.
 

deady1000

Volt-Modder(in)
Mit einer RX6600XT für 349-399€ hätte man den Markt mal so richtig umkrempeln können, aber 600-700€? OMG nein! :D Sehe ich das gerade richtig, dass die UVP der Karte bei 379€ liegt? Das wäre ein gutes und angemessenes Angebot gewesen. Aber wenn die etwa genau so viel kostet, wie eine RTX3060 aktuell, dann sollte klar sein, was man lieber nimmt, zumal die RTX3060 12GB VRAM hat und die RX6600XT nur 8GB.

Sehe ebenfalls genau NULL Argumente für diese Karte. :ugly:
Zumindest solange sie mehr als die UVP kostet.
 

Gurdi

Kokü-Junkie (m/w)
Sie ist teurer, beide sind etwa gleich schnell, 3060 ist deutlich schneller mit RT, und mit DLSS 2.0 ist RT auch problemlos nutzbar
Die 6600XT ist deutlich günstiger als die 3060 im Schnitt und dadurch ist die Karte auch grundsätzlich attraktiv derzeit. Wer von einer AMD Karte kommt muss sich sowieso keine Sorgen machen, eine 580 ist 300-350 wert, eine V56 bringt 550-650€ und eine 5700XT 700-850€
 

Blackout27

Volt-Modder(in)
Die 6600XT ist deutlich günstiger als die 3060 im Schnitt und dadurch ist die Karte auch grundsätzlich attraktiv derzeit. Wer von einer AMD Karte kommt muss sich sowieso keine Sorgen machen, eine 580 ist 300-350 wert, eine V56 bringt 550-650€ und eine 5700XT 700-850€

Was zur Hölle 😱
Dachte jetzt "700-850€ für eine 5700XT? Kann nicht sein".
2min auf Ebay Auktionen geschaut und fast einen Herzinfarkt bekommen!

Warum sind die so teuer im Verkauf? Dachte meine 500€ für die 1080ti sind schon abnormal aber bei den AMD Karten ist die Lage ja noch krasser!

Bei den Verkaufspreisen kann man sich auch eine 6700XT oder mehr für 700-1200€ gönnen.
 

Gurdi

Kokü-Junkie (m/w)
Was zur Hölle 😱
Dachte jetzt "700-850€ für eine 5700XT? Kann nicht sein".
2min auf Ebay Auktionen geschaut und fast einen Herzinfarkt bekommen!

Warum sind die so teuer im Verkauf? Dachte meine 500€ für die 1080ti sind schon abnormal aber bei den AMD Karten ist die Lage ja noch krasser!

Bei den Verkaufspreisen kann man sich auch eine 6700XT oder mehr für 700-1200€ gönnen.
Ich mach nichts anderes als den Leuten das ewig runter zu beten, wer eine AMD Karte im Rechner hat kriegt einen derart absurden VK das er sich ohne Probleme die Wucherpreise leisten kann.

Meine 6600XT Hellhound hab ich nen guten Bekannten abgegeben, seine Vega (mein alter Schlumpf) hat 600 gebrachracht. Er hat also sogar Gewinn! gemacht beim wechseln und eine neue Karte mit voller Garantie.
 

onkel-foehn

Software-Overclocker(in)
Und jetzt steht da 1.099 € zu 1.199 € und die AMD kann kein RT.
Was liegt näher für den eher uninformierten Mainstream (Fertig-PC) Käufer, bei dem vermeidlich besseren Produkt zuzuschlagen.
Die Verkaufsargumentation "RT" zieht, das Marketing und der öffentliche Auftritt ist da bei Nvidia einfach präsenter.
Ja genau, das "vermeidlich" bessere Produkt für den uninformierten Käufer.
Der "Normalo" schaut dann aber doch eher auf das FPS/€/Watt Verhältnis und weiß auch dass AMD RT kann !
Bei 1200 € für beide Karten (3080 und 6800XT), gleichen FPS (RT off), relativ gleichem Verbrauch (320 vs. 300 W)
ist da halt noch der RAM (10 vs. 16 GB). Für NV Fans ganz wichtig, da die 3060 ggü der 6600XT 12 anstatt nur 8 GB hat (obwohl in der für FullHD Klasse völlig ausreichend).
Und wer wirklich RT will/braucht ist mit einer 3090 (ab 2200 €) in 4K (beworben als 8K Karte) mit RT/DLSS on bei unter 60 FPS schon unterdimensioniert. Aber für jene kommt ja in Bälde die 3090 SUPER ... :wall:

MfG Föhn.
Was erzählst du eigentlich schon wieder?
Du bist ja schlimmer als Gurdi.
Postest Screenshots, die man eine Minute später schon nicht mehr verifizieren kann.
Du übertreibst (mal wieder) maßlos !
Es waren 5 (!) Minuten (Screenshot von 15:38, gepostet 15:43 Uhr).
Keine Ahnung !?! Soll ich für Dich auch noch erörtern ob der Lagerist dort Vorort auch seine Mittagspause (laut Gewerkschaft) eingehalten hat ?
Dann versuch´s mal mit einem anderen Link ...




MfG Föhn.
 

Anhänge

  • 6600XT 489€.jpg
    6600XT 489€.jpg
    819,4 KB · Aufrufe: 7
  • Geizhals.jpg
    Geizhals.jpg
    897,8 KB · Aufrufe: 9
Zuletzt bearbeitet:

compisucher

BIOS-Overclocker(in)
Ja genau, das "vermeidlich" bessere Produkt für den uninformierten Käufer.
Der "Normalo" schaut dann aber doch eher auf das FPS/€/Watt Verhältnis und weiß auch dass AMD RT kann !
Bei 1200 € für beide Karten (3080 und 6800XT), gleichen FPS (RT off), relativ gleichem Verbrauch (320 vs. 300 W)
ist da halt noch der RAM (10 vs. 16 GB). Für NV Fans ganz wichtig, da die 3060 ggü der 6600XT 12 anstatt nur 8 GB hat (obwohl in der für FullHD Klasse völlig ausreichend).
Und wer wirklich RT will/braucht ist mit einer 3090 (ab 2200 €) in 4K (beworben als 8K Karte) mit RT/DLSS on bei unter 60 FPS schon unterdimensioniert. Aber für jene kommt ja in Bälde die 3090 SUPER ... :wall:
Bin da vollkommen bei Dir.
Aber zeig mir jenen einen sabbbernden Jüngling im Mediamarkt mit lockerem Geldbeutel, das DAS weiss.
Der eher von RGB und Namen überzeugt wird und leider nicht durch eigenes oder gar Fachwissen des Fachverkäufers.
 

onkel-foehn

Software-Overclocker(in)
Ok und in welchem RT-Titel packt alles ab RTX3080 aufwärts nur 30-50FPS auf 4K? Zumal grundsätzlich fast immer DLSS an Board ist? Also ich bekomme bei 4K in Cyberpunk mit maximalem RT und Details ca 60 FPS auf DLSS-Quality. :lol:

Die 30 FPS kennt man nur mit einer AMD-Karte. Jeder Turing/Ampere-Nutzer weiß nicht wovon du sprichst. Dass Raytracing Leistung kostet ist zwar richtig, aber dank DLSS kein großes Thema mehr.
Und lieber auf FHD spielen?? Ok… :ugly:
Hast Dir die Anforderungen schon mal zu Gemüte geführt ? :ugly:


MfG Föhn.
 

deady1000

Volt-Modder(in)
Hast Dir die Anforderungen schon mal zu Gemüte geführt ? :ugly:
1630654932638.jpg

Wo ist das Problem?

RT + WQHD + 60 FPS = ab RTX3070

RT + 4K + 60 FPS = ab RTX3080

Ist doch einwandfrei.
Das Problem ist halt, dass FC6 ein Marketing-AMD-FSR-Titel ist und DLSS wohl nicht kommen wird. Das sorgt künstlich dafür, dass Nvidia seine Stärken nicht voll ausspielen kann. Es wird aber trotzdem mit RT besser auf Ampere laufen, als auf BigNavi. Und die Anforderungen finde ich noch okay. Eine RTX3070 reicht offenbar für WQHD aus. Siehe oben.
 

onkel-foehn

Software-Overclocker(in)
Anhang anzeigen 1373541

Wo ist das Problem?

RT + WQHD + 60 FPS = ab RTX3070

RT + 4K + 60 FPS = ab RTX3080
Dachte eher an diesen Absatz (mal genau lesen) ...

"Wer in Ultra HD mit 30 Bildern pro Sekunde Far Cry 6 spielen möchte und dann auch noch Raytracing aktivieren will, benötigt mindestens einen AMD Ryzen 7 5800X oder Intel Core i7-10700k mit einer AMD Radeon RX 6800 mit 16 GB oder Nvidia GeForce RTX 3080 mit 10 GB. Die Bildwiederholrate von 60 FPS scheinen auch die schnellsten Grafikkarten von AMD und Nvidia, die Radeon RX 6900 XT und die GeForce RTX 3090, jedoch nicht zu erreichen, denn Ubisoft nennt keine höhere Einstellung als UHD mit 30 FPS."

MfG Föhn.
 

deady1000

Volt-Modder(in)
Oh sehe erst jetzt, dass da 4K/30FPS steht.
Naja, wenn für WQHD/60FPS eine RTX3070 ausreicht, bin ich aber zuversichtlich.

Und ganz ehrlich, dieses Problem könnten die easy lösen, wenn man sich aus marketingtechnischen Gründen nicht gegen DLSS wehren würde. Das ist ja der Knackpunkt. Mit DLSS wäre das alles überhaupt kein Problem, aber FC6 ist eben ein von AMD gesponserter Titel und bekommt maximal FSR.

Selbst schuld, dann läuft es halt kacke.
 

deady1000

Volt-Modder(in)
FSR ist aus. Steht unten im Bild.

DFB47A62-2B3F-4CAE-A171-99763A2AAB16.jpeg


Fällt hier eigentlich noch jemandem auf, dass die Grafikanforderungen bei Nvida zu 4K/30FPS steigen, während sie bei AMD angeblich sinken? :ugly:

Das passt doch hinten und vorne nicht bei der AMD-Empfehlung. Wahrscheinlich will man suggerieren, dass der RTX3070 der VRAM bei 4K ausgeht, während bei AMD die Auslastung bei 4K/30FPS sogar im Vergleich zu WQHD/60FPS sinkt? Sehr fishy das ganze.

Mit FSR und DLSS wäre es wohl nicht so, wegen sinkendem VRAM-Bedarf.

Wir brauchen hier unabhängige Benchmarks.
Der Marketing-Quatsch riecht bis zum Himmel.

50CFEFDF-3A4C-4DEA-91F0-DA3067B69D02.jpeg
 
Zuletzt bearbeitet:

blautemple

Lötkolbengott/-göttin
FSR ist aus. Steht unten im Bild.

Anhang anzeigen 1373559

Fällt hier eigentlich noch jemandem auf, dass die Grafikanforderungen bei Nvida zu 4K/30FPS steigen, während sie bei AMD angeblich sinken? :ugly:

Das passt doch hinten und vorne nicht bei der AMD-Empfehlung. Wahrscheinlich will man suggerieren, dass der RTX3070 der VRAM bei 4K ausgeht, während bei AMD die Auslastung bei 4K/30FPS sogar im Vergleich zu WQHD/60FPS sinkt? Sehr fishy das ganze.

Mit FSR und DLSS wäre es wohl nicht so, wegen sinkendem VRAM-Bedarf.

Wir brauchen hier unabhängige Benchmarks.
Der Marketing-Quatsch riecht bis zum Himmel.
Es gab doch bisher nicht einen AMD Sponsored Titel der auch nur im Ansatz vernünftiges Raytracing mitgebracht hatte. Das beschränkt sich immer auf Schatten/AO oder so einen Quark wie bei Resident Evil VIII.
Da sind mir Nvidia Implementierungen deutlich lieber. Falls einem die Performance wichtiger ist macht man RT einfach aus und ansonsten kriegt man feinstes Eyecandy und ja in SP Titeln habe ich sowas durch aus gerne.
 

RavionHD

PCGH-Community-Veteran(in)
Es gab doch bisher nicht einen AMD Sponsored Titel der auch nur im Ansatz vernünftiges Raytracing mitgebracht hatte. Das beschränkt sich immer auf Schatten/AO oder so einen Quark wie bei Resident Evil VIII.
Da sind mir Nvidia Implementierungen deutlich lieber. Falls einem die Performance wichtiger ist macht man RT einfach aus und ansonsten kriegt man feinstes Eyecandy und ja in SP Titeln habe ich sowas durch aus gerne.
Zudem fehlt in AMD sponsored Titeln DLSS, und FRS ist qualitativ Klassen darunter.
 
Oben Unten