• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD gegen Nvidia: Radeons nur noch mit 17 Prozent Marktanteil

Lamaan

Freizeitschrauber(in)
In einem Shooter ist das halt sinnlos, weil du häufiger verlierst wenn du zu langsam bist.
Deswegen ist es wohl auch nicht mehr in BF
 

ShiZon

PC-Selbstbauer(in)
Mir persönlich ist es egal ob es AMD oder Nvidia ist, was die Sache interessant macht ist das P/L. Hatte ewig lange immer nur Mid-Range Grakas, habe als Ersatz immer noch eine R9 380X 4GB, die ich auf jeden Fall schätze. Als es denn soweit war und die Zeit reif wahr für ein Graka Update, dachte ich mir ach scheiß drauf und nimm mal nichts aus dem Mid-Range Portfolio sondern lang einfach mal ein Regal höher zu. Die Entscheidung wahr goldrichtig, kurz darauf ging der Mining-Boom los.

Selbst wenn die GTX 1070 abrauchen sollte, habe ich immer noch die R9 380X, die mir in FullHD völlig ausreicht.
 

Lamaan

Freizeitschrauber(in)
Im Gamingbereich ist RDNA2 ohnehin quasi non-existent, laut Steamhardware Survey kommt selbst die RTX 3090 auf 0,4% Marktanteil während RDNA2 nirgendwo zu finden ist.

Auch wenn es hier im Forum gerne kleingeredet wird, aber Features wie die deutlich höhere RT Leistung, DLSS 2.0 oder auch (für mich sehr wichtig) Nvidia Freestyle sind für viele eben sehr entscheidend.
Ist ja schön,
mir sind andere Dinge wichtiger.
Neben Leistung, Verbrauch und Kompatibilität zu Netzteilen auch
wie sich eine Firma verhält. Z.B. ob schon viele krumme Dinger passiert sind, ob Sie versucht den Markt zu ersticken usw.
ohne AMD müsstet ihr für eure dolle Nvidiakarte locker 5000 Euro zahlen.
Freut euch doch das es Menschen gibt die AMD den Vorzug geben.
Ich kann zugeben das Nvidia mehr leistet in RT und dlss hat und das geht mir am hintern vorbei.
Mit meiner Graka bin ich total zufrieden und wenn sich AMD nicht einen totalen Flopp leistet bleibe ich immer da.
Ich schaue im TV immer nur Champions League und EM und WM.
das spiegelt Dein Setup aber leider gar nicht wieder.
Mit Nvidia bist Du ganz knapp (in 4k) Champions League wenn du 3090 für weit über 2000 Euro gekauft hast, oder du bist halt 2.Liga hinter AMD
 
Zuletzt bearbeitet:

Lichtspieler2000

Freizeitschrauber(in)
das spiegelt Dein Setup aber leider gar nicht wieder.
RT und DLSS lassen sich auch prima in Auflösungen unterhalb von 4K benutzen.
Die Verknüpfung deines Companion sollte lediglich suggerieren, dass DLSS und RT an 4K gebunden sind.
Mit Nvidia bist Du ganz knapp (in 4k) Champions League wenn du 3090 für weit über 2000 Euro gekauft hast, oder du bist halt 2.Liga hinter AMD
Das Setup in der Signatur ist alt. Mittlerweile bin ich mit 3070 und Ryzen ausgestattet.
 

Lamaan

Freizeitschrauber(in)
Nagut, immerhin von Intel befreit.
Für Intel ist es ja auch schade, dass Powerpiont-Folien nicht rechnen können, dann wären sie wirklich die schnellsten.... :D
Den hab ich gestern iwo gelesen ;)


BTW ich habe für meine brandneue 6900xt 1160 Euro gezahlt.
Das sollte man vlt. auch mal in Relation setzten.
Die Preise der 3070 und 6900XT waron oft gleich.
Da spricht nun wirlich gar nichts mehr für Nvidia, auch kein Raytracing und FSR kann man schon in den meisten Games mit Vulkan einschalten
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

HyperBeast

Freizeitschrauber(in)
Wer Spiele mit RTX wollte, hatte doch eh keine Wahl.
Und von wegen: ich brauch kein RTX... gerade wenn viele die Karte oft paar Jahre haben - Raytracing bleibt keine Nische und man schießt sich ins Bein mit zukünftigen Titeln. Was auch den Wiederverkaufswert später senkt.
DLSS / Streaming Features und und und...

Beim gleichen Preis und der Wahl, meiner Meinung nach, nicht die beste Entscheidung - wobei bei 4K interessant wird ob die 10GB reichen oder AMD die 3080 schon nächstes Jahr manchmal überholt, sogar mit aktiviertem Raytracing
... bei keiner anderen Möglichkeit, definitiv besser als nichts und mit FSR nun viel besser.

Naja wenn das so bei Doom Eternal kommt? 50fps weniger für keinen sichtbaren Unterschied, verzichtet man einfach drauf.

UE5 hat DLSS und RTX bereits integriert ohne Markenbindung.

Wenn es aber keine AMD Karten gibt, dann kann man keine Marktanteile erobern. Logisch oder ?
 

gerX7a

BIOS-Overclocker(in)
[Steam] ... während RDNA2 nirgendwo zu finden ist.
Hier kann man in der DX12-Tabelle nachschauen (oben, mitte, dann in die Seitenmitte scrollen zu "DirectX12"). In der allgemeinen GPU-Tabelle (Übersichtsseite oben, links) werden Kartenmodelle mit weniger als 0,15 % Anteil nicht mehr angezeigt und nur zusammenfassend in die Gruppe "Other" miteingerechnet, entsprechend wird hier auch kein RDNA2 ausgewiesen.

Die DX12-Tabelle weist bezogen auf den PC-Desktop aus: RDNA2 ~ 0,5 % Anteil, Ampere ~ 5,4 % Anteil. Auf eine RDNA2-Desktop-GPU kommen hier also 11 Ampere-Desktop-GPUs gemäß der aktuellen Zahlen.

Zur Adaptionsrate von Raytracing: RT-fähige GPUs machen auf dem PC-Desktop in der Juli-Statistik (DX12-Tabelle) ~22,7 % aller GPUs aus, d. h. bereits > 1/5 aller GPUs verfügt auf dem Desktop über HW-RT-Funktionalität. AMD hält daran aber nur einen verschwindend geringen Anteil mit aktuell ~ 0,5 %. Der Rest ist auf Turing und Ampere zurückzuführen.
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
Ja RT, es interessiert mich wenig, auch was den Wiederverkaufswert angeht. Da alle Karten mit Rt im Verhältnis zur Rasterisierung zu langsam sind um damit länger zu spielen. Sobald die karte etwas älter ist kann man dieses Feature komplett vergessen. Das ist schon in aktuellen Games oft grenzwertig langsam und es haut mich auch nicht vom Hocker. Wenn mal gut läuft oder umgesetzt ist wäre das sicher anders. Im Moment sehe ich das als eine gute Möglichkeit die Karten schneller altern zu lassen, neben der VRam Versorgung bei Nvidia. 8 GB kommen doch schon jetzt oft an die Grenze.
Aber bitte soll jeder Spaß haben mit seiner Karte
 

RavionHD

PCGH-Community-Veteran(in)
Hier kann man in der DX12-Tabelle nachschauen (oben, mitte, dann in die Seitenmitte scrollen zu "DirectX12"). In der allgemeinen GPU-Tabelle (Übersichtsseite oben, links) werden Kartenmodelle mit weniger als 0,15 % Anteil nicht mehr angezeigt und nur zusammenfassend in die Gruppe "Other" miteingerechnet, entsprechend wird hier auch kein RDNA2 ausgewiesen.

Die DX12-Tabelle weist bezogen auf den PC-Desktop aus: RDNA2 ~ 0,5 % Anteil, Ampere ~ 5,4 % Anteil. Auf eine RDNA2-Desktop-GPU kommen hier also 11 Ampere-Desktop-GPUs gemäß der aktuellen Zahlen.

Zur Adaptionsrate von Raytracing: RT-fähige GPUs machen auf dem PC-Desktop in der Juli-Statistik (DX12-Tabelle) ~22,7 % aller GPUs aus, d. h. bereits > 1/5 aller GPUs verfügt auf dem Desktop über HW-RT-Funktionalität. AMD hält daran aber nur einen verschwindend geringen Anteil mit aktuell ~ 0,5 %. Der Rest ist auf Turing und Ampere zurückzuführen.
Ich denke das ist objektiv gesehen ein völliges Versagen von AMD, man stelle sich vor auf eine Xbox würden 11 Playstation kommen, da wäre aber was los bei Microsoft.

Ich habe bereits zu Release gesagt dass AMD's UVP im Vergleich zu Nvidia's UVP völlig überzogen ist angesichts der im Vergleich zu schlechten RT Leistung und fehlendes Features wie z.Bsp. DLSS 2.0).
Erst fast 7 Monate nach Release bringt man mit FSR etwas dass sich qualitativ von herkömmlichen TAA Lösungen kaum unterscheidet, selbst Intel scheint mit XeSS sie bessere Lösung auf den Markt zu bringen und die haben bis jetzt gar keine dedizierte GPU's auf den Markt gebracht.:ugly:
 

Cohen

Freizeitschrauber(in)
OK, kann man machen, ist auch erstmal das ausschlaggebende für den Umsatz, aber relativ nichtssagend ob und wo die Karten denn nun gelandet sind und was sich daraus ggf. ableiten ließe.... und wohin sich der für uns interessante Gamingmarkt entwickeln wird unter Berücksichtigung properiräterer Features... oder eben freier Standards... :ka:

Absolute Zustimmung, treffend analysiert.

Schwer interessieren würde mich tatsächlich die Verteilung und Entwicklung im Gamingsektor.
Bitteschön (aktuellste Steam-Umfrage, in ein paar Tagen folgen die Augustzahlen):

steam-survey-juli2021.png
 

RavionHD

PCGH-Community-Veteran(in)
Das ist doch peinlich für AMD, es gibt doppelt so viele 2080ti Nutzer (das war eine 1200 Euro GPU) als es überhaupt RDNA2 GPU's unter Gamern gibt.
Und mehr auch mehr RTX 3090 User als RDNA2 Nutzer unter Gamern.

Entweder sie müssen ihre UVP's radikal anpassen (z.Bsp. 6800XT für 449 Euro UVP) oder ebenbürtig bzw besser sein als Nvidia, sonst wird ihr Marktanteil nie wachsen und Nvidia heimst alles ein.

Gerade bei der 6700XT habe ich die katastrophale P/L angeprangert, und siehe hier, das Verhältnis zwischen RTX 3070 und 6700XT liegt bei 1 zu 13!
 

Cohen

Freizeitschrauber(in)
Nimmt man die Konsolen dazu, hat NV keine 10% Anteil.
Selbst wenn man die Konsolen ohne PCs betrachtet, verkauft sich dort Nvidia derzeit deutlich besser als AMD.

Switch + Switch Lite in den letzten 15 Monaten: ca. 33 Mio. Konsolen
PS4 + PS4 Pro + PS5 + Xbox One S + Xbox One X + Xbox Series S + Xbox Series X: ca. 23 Mio. Konsolen

konsolen-juni2021.png
 

Dulindor

Komplett-PC-Aufrüster(in)
Das ist doch peinlich für AMD, es gibt doppelt so viele 2080ti Nutzer (das war eine 1200 Euro GPU) als es überhaupt RDNA2 GPU's unter Gamern gibt.
Und mehr auch mehr RTX 3090 User als RDNA2 Nutzer unter Gamern.

Entweder sie müssen ihre UVP's radikal anpassen (z.Bsp. 6800XT für 449 Euro UVP) oder ebenbürtig bzw besser sein als Nvidia, sonst wird ihr Marktanteil nie wachsen und Nvidia heimst alles ein.

Gerade bei der 6700XT habe ich die katastrophale P/L angeprangert, und siehe hier, das Verhältnis zwischen RTX 3070 und 6700XT liegt bei 1 zu 13!
Daran liegt es nur nicht. Über deine Punkte kann man herzlich streiten (was ich jetzt hier nicht vor habe, insgesamt finde ich die UVP's von AMD aber auch ein Müh zu hoch angesetzt im Vergleich zu Nvidia), aber es ist ja nicht so, als würden die Händler auf RDNA2 sitzen bleiben. AMD produziert einfach kaum was, die einzige Karte die bisher ein nennenswertes Volumen zu haben scheint ist die 6600XT (auch wenn das hohe Startvolumen jetzt wohl aufgebraucht ist), welche in den Steamstatistiken allerdings noch fehlt.
Gekauft wurde seit Release so gut wie jede Karte und ich würde fast behaupten, der Marktanteil wäre auch dann da wo er jetzt ist, wenn die RDNA2-Karten nur die Hälfte in der UVP kosten würden.

Ryzen 5000 wird ja auch gekauft und hat anscheinend für AMD die höheren Margen, mit den Infos ist es dann letztlich auch nicht mehr so schwer sich zu erklären, welches Produkt (beim gleichen, ausgelasteten TSMC-Node...) bevorzugt wird.
 

TausendWatt

PC-Selbstbauer(in)
Also ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS !!!
Und in WQHD sind sie gleich auf (FPS) bei weniger Verbrauch und geringeren Anschaffungskosten auf Seiten AMD´s .
Soll ein jeder einfach das kaufen was ihm liegt und auf was er Bock hat ... :nicken:

MfG Föhn.
20-30 Watt weniger. Wenn man sie ausfährt verbrauchen se fast genauso viel. Und von den Anschaffung kommst genau auf das selbe. Warum werden immer die NV Strassenpreise mit der UVP von AMD verglichen? Fakt ist, sie verbrauchen nahezu das selbe und bringen nahezu die selbe Performance (Raster). Wer aktuell bei 300 Watt vs. 320/340 noch das Verbrauchsargument vorschiebt, greift nur vergeblich nach Fanboi Strohhalmen für einen Grabenkrieg, der völlig unnötig isPreislich muss man genauso tief in die Tasche greifen. Die 6700xt beispielsweise liegt seit Monaten bei 700-900 Euro wie ihr Gegenstück, die 3070, obwohl sie durchgehend verfügbar ist.
Das einzige Differzierungsmerkmal ist die Vram Bestückung und das Featureset. Nur das ist aktuell ein Kaufgrund für die ein oder andere Karte, darüberhinaus gibt es kein Merkmal, dass die Karten in irgend einer Weise besser oder schlechter macht, weil sie eben so nah beinander sind!

Geniesst einfach mal die Hardware eures Vertrauens und hört auf den anderen diese madig reden zu wollen.
 

Anhänge

  • F7A8CFFB-3406-4694-B1C7-B62053FDCFB6.png
    F7A8CFFB-3406-4694-B1C7-B62053FDCFB6.png
    613,3 KB · Aufrufe: 17
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Daran liegt es nur nicht. Über deine Punkte kann man herzlich streiten (was ich jetzt hier nicht vor habe, insgesamt finde ich die UVP's von AMD aber auch ein Müh zu hoch angesetzt im Vergleich zu Nvidia), aber es ist ja nicht so, als würden die Händler auf RDNA2 sitzen bleiben. AMD produziert einfach kaum was, die einzige Karte die bisher ein nennenswertes Volumen zu haben scheint ist die 6600XT (auch wenn das hohe Startvolumen jetzt wohl aufgebraucht ist), welche in den Steamstatistiken allerdings noch fehlt.
Gekauft wurde seit Release so gut wie jede Karte und ich würde fast behaupten, der Marktanteil wäre auch dann da wo er jetzt ist, wenn die RDNA2-Karten nur die Hälfte in der UVP kosten würden.

Ryzen 5000 wird ja auch gekauft und hat anscheinend für AMD die höheren Margen, mit den Infos ist es dann letztlich auch nicht mehr so schwer sich zu erklären, welches Produkt (beim gleichen, ausgelasteten TSMC-Node...) bevorzugt wird.
Sehe ich auch so, das hat alles wenig mit der Aufnahme des Marktes zu tun der Produkte sondern ist eigentlich rein eine Sache der Lieferbarkeit. Gekauft wurde und wird eigentlich alles.

Vor allem die eigentlich attraktivsten Modelle, die 6800 und XT sind einfach nicht im Markt präsent gewesen.
Wer aktuell bei 300 Watt vs. 320/340 noch das Verbrauchsargument vorschiebt, greift nur vergeblich nach Fanboi Strohhalmen. Preislich muss man genauso tief in die Tasche greifen
Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
 

RavionHD

PCGH-Community-Veteran(in)
[COLOR=var(--textColor)]Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.[/COLOR]
Nicht wirklich, laut PCGH RT Index ist eine 6800XT um 31% langsamer als eine RTX 3080, die 3080 verbraucht dabei nur 7% mehr Strom (300 vs 320 Watt).
In Non RT ist eine 3080 laut PCGH Index um 4% schneller, bei wie erwähnt 7% Mehrverbrauch, aber der Non RT Wert wird mit der Zeit immer irrelevanter.
 

TausendWatt

PC-Selbstbauer(in)
Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
Inwiefern Effizienter, das ist zu allgemein, Watt pro FPS (Chip), Watt pro FPS (Total Board Power)? Oder möchtest du noch den Takt miteinfließen lassen oder den Idle Verbrauch, RT Leistung usw. gleich mit einbeziehen? Relative Kennzahlen können das Bild auch verfälschen wenn diese nicht richtig verstanden und interpretiert werden. Wenn man nur auf den Chip ohne andere Board Komponenten schaut, sieht es nämlich wieder anders aus. Das macht es überhaupt so schwer das richtig zu vergleichen, denn der VRam der NV Karten zieht eindeutig mehr Watt, als der der RX Karten. Ja sie Verbrauchen (gesamt) etwas weniger bei gleicher Leistung. Aber wir sprechen hier von vernachlässigbaren Zahlen, weil man eben auch den z.B. höheren Idle Verbrauch/Verbrauch beim sufen (youtube) usw. theoretisch gegenrechnen könnte.
Unterm Strich gibts da nix gut zu reden. Die Karten verbrauchen viel, kosten in etwa gleich viel, bringen in etwa gleich viel FPS auf den Schirm.. Punkt.

1630261178886.png
 

Gurdi

Kokü-Junkie (m/w)
Watt pro FPS (Total Board Power)
Das ist der allgemeine Standard und die effizenstens Karten sind derzeit die 6800(mit weitem Abstand), 6600XT, 6700XT, 3070 und 3060ti, in der Reihenfolge. Bei der Betrachtung fehlt dann eigentlich auch noch dass die NV Karten den Prozessor in der Regel deutlich mehr belasten wegen dem Treiber was beim Gesamtsystem nochmal zu einem Aufschlag führt.

Das Thema UV und OC mal außen vorgelassen.
 

blautemple

Lötkolbengott/-göttin

onkel-foehn

Software-Overclocker(in)
20-30 Watt weniger. Wenn man sie ausfährt verbrauchen se fast genauso viel. Und von den Anschaffung kommst genau auf das selbe. Warum werden immer die NV Strassenpreise mit der UVP von AMD verglichen? Fakt ist, sie verbrauchen nahezu das selbe und bringen nahezu die selbe Performance (Raster). Wer aktuell bei 300 Watt vs. 320/340 noch das Verbrauchsargument vorschiebt, greift nur vergeblich nach Fanboi Strohhalmen für einen Grabenkrieg, der völlig unnötig isPreislich muss man genauso tief in die Tasche greifen. Nur das ist aktuell ein Kaufgrund für die ein oder andere Karte, darüberhinaus gibt es kein Merkmal, dass die Karten in irgend einer Weise besser oder schlechter macht, weil sie eben so nah beinander sind!
Also grad der Vergleich zwischen der 3090 und der 6900XT passt mal so was von überhaupt NICHT mit Deinen Worten !!
In Rasterazion Games ist die AMD Karte schneller, kostet 800 € weniger (1400 statt 2200 €), was früher mal ne GraKa im High End gekostet hat und verbraucht ca. 20 % weniger Strom (330 statt über 400 Watt).
Wer RT braucht, auf Geld und Verbrauch "pfeift" dann Bitteschön ...

MfG Föhn.
 

Anhänge

  • 3090 Preise.jpg
    3090 Preise.jpg
    948 KB · Aufrufe: 8
  • 6900XT Preise.jpg
    6900XT Preise.jpg
    878 KB · Aufrufe: 9
  • Resident Evil Bench.jpg
    Resident Evil Bench.jpg
    212,7 KB · Aufrufe: 12
  • 6900XT 330 Watt.jpg
    6900XT 330 Watt.jpg
    185,3 KB · Aufrufe: 12
  • 3090 ü 400 Watt.jpg
    3090 ü 400 Watt.jpg
    262,9 KB · Aufrufe: 18

Lamaan

Freizeitschrauber(in)
Davon ist hier aber wenig zu sehen. Vergleich mal die Ergebnisse von Dave und mir:

Bei sehr starken Prozessoren trifft das definitiv nicht zu.
War bestimmt nicht deine Absicht, ist aber trotzdem schön in einem von der PCGH Community optimierten Benchmark die 6900XT vorne zu sehen.
Wenn mein Wasserkühler und meine neue CPU da ist, mache ich da auch mal mit....
 

blautemple

Lötkolbengott/-göttin
Also grad der Vergleich zwischen der 3090 und der 6900XT passt mal so was von überhaupt NICHT mit Deinen Worten !!
In Rasterazion Games ist die AMD Karte schneller, kostet 800 € weniger (1400 statt 2200 €), was früher mal ne GraKa im High End gekostet hat und verbraucht ca. 20 % weniger Strom (330 statt über 400 Watt).
Wer RT braucht, auf Geld und Verbrauch "pfeift" dann Bitteschön ...

MfG Föhn.
Auf die restlichen Vergleiche gehe ich mal gar nicht weiter ein, aber bei den Resident Evil Screenshots unterschlägst du den Fakt das bei den AMD Werten noch ca 50W dazu gerechnet werden muss ;)
 

Lamaan

Freizeitschrauber(in)
Es hat leider keinen Sinn da etwas zu erklären, Onkel-Foehn.

Ich finde gut das jmd. noch objektive Argumente einbringt,
das kommt nur leider nicht an, wenn Leute es nicht wahrhaben WOLLEN.

Ich spare mir heute weitere Beiträge, jeder der möchte kann sich informieren und die anderen können ja Nvidia kaufen oder auch informiert kaufen, aber ich glaube, dass sind dann weniger.
Ausgehend von meinem Menschenbild muss das so sein ;)
 
Zuletzt bearbeitet:

TausendWatt

PC-Selbstbauer(in)
Also grad der Vergleich zwischen der 3090 und der 6900XT passt mal so was von überhaupt NICHT mit Deinen Worten !!
In Rasterazion Games ist die AMD Karte schneller, kostet 800 € weniger (1400 statt 2200 €), was früher mal ne GraKa im High End gekostet hat und verbraucht ca. 20 % weniger Strom (330 statt über 400 Watt).
Wer RT braucht, auf Geld und Verbrauch "pfeift" dann Bitteschön ...

MfG Föhn.
Ok, die 3090 ist da nochmal ein Stück weiter weg preislich, gebe ich zu. Nehmen wir einfach die 3080ti, die passt in die Leistungsklasse und ist näher an der 6900xt... Preisbereich 1500-1800€ , ebenso die 6900xt. Leistung ist ein hauch mehr, kommt aber natürlich wieder auf die Engine an und/oder Auflösung. Letztendlich bleiben die läppischen 30-50 Watt mehr Leistungsaufnahme, dafür besseres Featureset, mit etwas weniger Vram. Wo man hier eine Überlegenheit irgend eines Herstellers ableitet, bleibt schlicht und ergreifend die große Frage. Man muss wirklich verblendet sein, wenn man hier keine Patt Situation erkennt. Ich finds gut, soll sich der Rest ihr E-Gemach künstlich aufblasen, am Ende gewinnt keiner!

Und die Nebelkerze mit 400 Watt kannst du dir sparen, Werksbiose von moderaten AMD Referenz/Midrange Custom Karten mit OC Bios iwelcher OC Modelle wie der Strixx kann man nicht vergleichen. Ich hatte hier eine Ventus 3090, die mit 350 Watt auskam und nicht mit 400 und mehr, die FE braucht nur 370...
 

Anhänge

  • 1630266306261.png
    1630266306261.png
    74,7 KB · Aufrufe: 16

tunexor

PC-Selbstbauer(in)
Ich verstehe die Marktdurchdringung bei Gamern zugunsten NVIDIA trotzdem nicht.

Die 6800XT soll im Schnitt 5% langsamer sein als die 3080, okay. Meine 6800XT läuft mit -19% Spannung stabil. Säuft ~80 Watt (ca., hab die genaue Zahl gerade nicht vor mir) weniger und bleibt dabei erheblich leiser und ist schneller, da ein höherer Turbo gehalten werden kann. Das ganze als „OC-Laie“ mit 2-3 Mausklicks über die Radeonsoftware.

Ich habe keine 3080 zur Hand, möchte aber Wetten, dass meine 6800XT leiser, schneller und sparsamer läuft als das Otto Normal das mit seiner 3080 hinbekommt. Warum also hat NVIDIA so viel mehr Marktdurchdringung? Oder übersehe ich hier etwas?

Edit: Leistung natürlich ohne RT gemeint. Ich sehe RT noch lange nicht als Massentauglichen Mehrwert an, eher als nettes „mal testen Gimmick“, oder ist das am Ende der Grund, dass die Leute sich davon blenden lassen?
 

TausendWatt

PC-Selbstbauer(in)
Ich verstehe die Marktdurchdringung bei Gamern zugunsten NVIDIA trotzdem nicht.

Die 6800XT soll im Schnitt 5% langsamer sein als die 3080, okay. Meine 6800XT läuft mit -19% Spannung stabil. Säuft ~80 Watt (ca., hab die genaue Zahl gerade nicht vor mir) weniger und bleibt dabei erheblich leiser und ist schneller, da ein höherer Turbo gehalten werden kann. Das ganze als „OC-Laie“ mit 2-3 Mausklicks über die Radeonsoftware.

Ich habe keine 3080 zur Hand, möchte aber Wetten, dass meine 6800XT leiser, schneller und sparsamer läuft als das Otto Normal das mit seiner 3080 hinbekommt. Warum also hat NVIDIA so viel mehr Marktdurchdringung? Oder übersehe ich hier etwas?

Edit: Leistung natürlich ohne RT gemeint. Ich sehe RT noch lange nicht als Massentauglichen Mehrwert an, eher als nettes „mal testen Gimmick“, oder ist das am Ende der Grund, dass die Leute sich davon blenden lassen?
Vielleicht weil es keine 6800xt zu relativ humanen Preisen zu kaufen gibt? Bis vor ein paar Wochen war die gar nicht lieferbar... Hab mich nur für die 3080 entschieden, weil ich die jetzt bekommen habe zum guten Kurs (1100), wollte eigentlich ne 6800xt, aber die gibts wenn überhaupt nur zum höheren Kurs als der von mir veranschlagte, da schlug ich halt bei NV zu. RT, DLSS und so weiter erübrigen die Entscheidung. Der Otto Normal Verbraucher kann auch keine AMD "tunen", daher eigentlich völlig Wurst was speziell deine 6800xt kann! Für 900 wäre es defintiv die 6800xt geworden, bei gleichem Preis greif ich zum reiferen Featurset. Die Asus läuft trotz 340 Watt mit 63-67 Grad, bei 1600 RPM... völlig easy. Mit UV wird die wohl nochmal ein Stück geiler…

1630268884422.png

[COLOR=var(--textColor)]Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.[/COLOR]
Wo siehst du ne Milchmädchenrechnung?
 
Zuletzt bearbeitet:

RavionHD

PCGH-Community-Veteran(in)
Leistung natürlich ohne RT gemeint. Ich sehe RT noch lange nicht als Massentauglichen Mehrwert an, eher als nettes „mal testen Gimmick“, oder ist das am Ende der Grund, dass die Leute sich davon blenden lassen?[/COLOR]
RT und DLSS 2.0 sind für viele einfach sehr relevant.
AMD bietet mit FSR keine wirklich konkurrenzfähige Alternative an, und die RT Leistung ist im Vergleich sehr schwach (6800 XT entspricht da etwa einer 2080ti/3070).

Früher oder später wird es ohnehin nur mehr RT Leistung geben weil viele Spiele nur mehr darauf setzen (z.Bsp. Metro Exodus EE).
Eine 3080 kann man btw auch tunen.
 

deady1000

Volt-Modder(in)
Also ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS !!!
Ok und in welchem RT-Titel packt alles ab RTX3080 aufwärts nur 30-50FPS auf 4K? Zumal grundsätzlich fast immer DLSS an Board ist? Also ich bekomme bei 4K in Cyberpunk mit maximalem RT und Details ca 60 FPS auf DLSS-Quality. :lol:

Die 30 FPS kennt man nur mit einer AMD-Karte. Jeder Turing/Ampere-Nutzer weiß nicht wovon du sprichst. Dass Raytracing Leistung kostet ist zwar richtig, aber dank DLSS kein großes Thema mehr.

Und lieber auf FHD spielen?? Ok… :ugly:
 

onkel-foehn

Software-Overclocker(in)
Man muss wirklich verblendet sein, wenn man hier keine Patt Situation erkennt. Ich finds gut, soll sich der Rest ihr E-Gemach künstlich aufblasen, am Ende gewinnt keiner!
So isses ...
Ok und in welchem RT-Titel packt alles ab RTX3080 aufwärts nur 30-50FPS auf 4K?
4K und RT on hab ich geschrieben ! Die paar Titel jene DLSS unterstützen Außen vor. Um genau das geht´s mir !


Hab ich schon mehrere Beispiele gesehen.
In diesem hat die 3090 lediglich 22 FPS und 3080 knapp 16 FPS in 4 K und RT on.

Da wären/ist MIR 1440p OHNE RT mit max. Details und 100 FPS + halt "lieber" !
Aber wie bereits schon erwähnt, ein jeder wie er will ...

MfG Föhn.
 

Anhänge

  • 3080Ti Test.jpg
    3080Ti Test.jpg
    698,6 KB · Aufrufe: 17
Zuletzt bearbeitet:

Darknesss

Komplett-PC-Aufrüster(in)
Ich verstehe die Marktdurchdringung bei Gamern zugunsten NVIDIA trotzdem nicht.
Ohne mich da informiert zu haben und ohne das ganze in letzter Zeit verfolgt zu haben:

Schlichtweg weniger Einheiten produziert?
AMD bleibt ja nichts anderes übrig, als die gebuchten Fertigungskapazitäten irgendwie sinvoll aufzuteilen.
Neben den GPU´s / CPU´s und APU´s für Desktop/Mobile hat AMD ja auch noch die APU´s für PS5 / Series X bzw. S.

Da dürften v.a. die Konsolen einen ziemlich hohen Stellenwert haben, denn immerhin sorgen die auch in schlechteren Zeiten für einen sicheren Umsatz. Das hat AMD in der Vergangenheit schon mal am Leben erhalten.
( Wenn man bedenkt, dass man AMD zu Bulldozer Zeiten quasi fast schon für tot erklärt hat.)
 

Gurdi

Kokü-Junkie (m/w)
Davon ist hier aber wenig zu sehen. Vergleich mal die Ergebnisse von Dave und mir:

Bei sehr starken Prozessoren trifft das definitiv nicht zu.
Meine Aussage bezog sich auf die Leistungsaufnahme des Gesamtsystems. Igor hat das bereits einige male gemessen, aber auch bei anderen wie HWU sieht man das ganz gut.

Bei meinen Messungen konnte ich das auch feststellen, zu beispielsweise 50Watt Mehrverbrauch kommen dann schon mal gerne nochmal 20 vom Gesamtsystem dazu. Mich stört da weniger der Kostenfaktor, als das Thema Abwärme.
 

big-maec

Freizeitschrauber(in)
Was sind schon Zahlen, die man nicht selber geschrieben hat. Wenn ich mir so die Forums Hardware Datenbank anschaue scheinen wir hier anders zu ticken. Nur so am Rande.:D

Marktanteil GPU PCGH 07/2021
gpuMonth_07-2021_ChartImage.png

gpuYear_07-2021_ChartImage.png
 
Zuletzt bearbeitet:

Inras

Freizeitschrauber(in)
schon irgendwie komisch... haben doch alle Leute in dem Forum gesagt, dass keiner die VRAM schwachen Nvidia Karten möchte! weil 10/12 GB einer 3080(ti) ja zuwenig sind... Scheint dann so, dass das den Leuten doch zimlich egal ist. Bei AMD gibts 16GB fürs gleiche Geld.

Oder aber die Statisiken sind massiv verzerrt, weil doch einen grossen Anteil von Karten an die Miner gingen. da war Nvidia ja stehts etwas höher in der Hash rate (for dem LHR Ding).
Das war doch klar, dass das nicht passieren wird. Der Großteil der Leute kauft Nvidia weil da Nvidia drauf steht, sowie die Marke einen eine größere Bekanntheit und besseren Ruf hat. Zumal diese bevorzugt in Fertig-PCs verbaut werden auf die man dann "GAMING" schreibt.
Hier im Forum mag das anders sein weil sich die Leute mit der Thematik befassen und wissen was sie da kaufen oder eine genaue Vorstellung davon haben was sie wollen. Dazu kommt dann noch, dass die Stückzahlen von Nvidia am Markt einfach höher sind.

Ich behaupte mal, dass der Großteil der Verkäufer einem Kunden der nach einem Gaming-PC fragt als erstes eine Nvidia empfehlen und AMD höchstens beiläufig erwähnen. Wenn überhaupt. Ob berechtigt oder nicht.
 
Zuletzt bearbeitet:
Oben Unten