AMD gegen Nvidia: Radeons nur noch mit 17 Prozent Marktanteil

Daran liegt es nur nicht. Über deine Punkte kann man herzlich streiten (was ich jetzt hier nicht vor habe, insgesamt finde ich die UVP's von AMD aber auch ein Müh zu hoch angesetzt im Vergleich zu Nvidia), aber es ist ja nicht so, als würden die Händler auf RDNA2 sitzen bleiben. AMD produziert einfach kaum was, die einzige Karte die bisher ein nennenswertes Volumen zu haben scheint ist die 6600XT (auch wenn das hohe Startvolumen jetzt wohl aufgebraucht ist), welche in den Steamstatistiken allerdings noch fehlt.
Gekauft wurde seit Release so gut wie jede Karte und ich würde fast behaupten, der Marktanteil wäre auch dann da wo er jetzt ist, wenn die RDNA2-Karten nur die Hälfte in der UVP kosten würden.

Ryzen 5000 wird ja auch gekauft und hat anscheinend für AMD die höheren Margen, mit den Infos ist es dann letztlich auch nicht mehr so schwer sich zu erklären, welches Produkt (beim gleichen, ausgelasteten TSMC-Node...) bevorzugt wird.
Sehe ich auch so, das hat alles wenig mit der Aufnahme des Marktes zu tun der Produkte sondern ist eigentlich rein eine Sache der Lieferbarkeit. Gekauft wurde und wird eigentlich alles.

Vor allem die eigentlich attraktivsten Modelle, die 6800 und XT sind einfach nicht im Markt präsent gewesen.
Wer aktuell bei 300 Watt vs. 320/340 noch das Verbrauchsargument vorschiebt, greift nur vergeblich nach Fanboi Strohhalmen. Preislich muss man genauso tief in die Tasche greifen
Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
 
Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
Nicht wirklich, laut PCGH RT Index ist eine 6800XT um 31% langsamer als eine RTX 3080, die 3080 verbraucht dabei nur 7% mehr Strom (300 vs 320 Watt).
In Non RT ist eine 3080 laut PCGH Index um 4% schneller, bei wie erwähnt 7% Mehrverbrauch, aber der Non RT Wert wird mit der Zeit immer irrelevanter.
 
Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
Inwiefern Effizienter, das ist zu allgemein, Watt pro FPS (Chip), Watt pro FPS (Total Board Power)? Oder möchtest du noch den Takt miteinfließen lassen oder den Idle Verbrauch, RT Leistung usw. gleich mit einbeziehen? Relative Kennzahlen können das Bild auch verfälschen wenn diese nicht richtig verstanden und interpretiert werden. Wenn man nur auf den Chip ohne andere Board Komponenten schaut, sieht es nämlich wieder anders aus. Das macht es überhaupt so schwer das richtig zu vergleichen, denn der VRam der NV Karten zieht eindeutig mehr Watt, als der der RX Karten. Ja sie Verbrauchen (gesamt) etwas weniger bei gleicher Leistung. Aber wir sprechen hier von vernachlässigbaren Zahlen, weil man eben auch den z.B. höheren Idle Verbrauch/Verbrauch beim sufen (youtube) usw. theoretisch gegenrechnen könnte.
Unterm Strich gibts da nix gut zu reden. Die Karten verbrauchen viel, kosten in etwa gleich viel, bringen in etwa gleich viel FPS auf den Schirm.. Punkt.

1630261178886.png
 
Watt pro FPS (Total Board Power)
Das ist der allgemeine Standard und die effizenstens Karten sind derzeit die 6800(mit weitem Abstand), 6600XT, 6700XT, 3070 und 3060ti, in der Reihenfolge. Bei der Betrachtung fehlt dann eigentlich auch noch dass die NV Karten den Prozessor in der Regel deutlich mehr belasten wegen dem Treiber was beim Gesamtsystem nochmal zu einem Aufschlag führt.

Das Thema UV und OC mal außen vorgelassen.
 
20-30 Watt weniger. Wenn man sie ausfährt verbrauchen se fast genauso viel. Und von den Anschaffung kommst genau auf das selbe. Warum werden immer die NV Strassenpreise mit der UVP von AMD verglichen? Fakt ist, sie verbrauchen nahezu das selbe und bringen nahezu die selbe Performance (Raster). Wer aktuell bei 300 Watt vs. 320/340 noch das Verbrauchsargument vorschiebt, greift nur vergeblich nach Fanboi Strohhalmen für einen Grabenkrieg, der völlig unnötig isPreislich muss man genauso tief in die Tasche greifen. Nur das ist aktuell ein Kaufgrund für die ein oder andere Karte, darüberhinaus gibt es kein Merkmal, dass die Karten in irgend einer Weise besser oder schlechter macht, weil sie eben so nah beinander sind!
Also grad der Vergleich zwischen der 3090 und der 6900XT passt mal so was von überhaupt NICHT mit Deinen Worten !!
In Rasterazion Games ist die AMD Karte schneller, kostet 800 € weniger (1400 statt 2200 €), was früher mal ne GraKa im High End gekostet hat und verbraucht ca. 20 % weniger Strom (330 statt über 400 Watt).
Wer RT braucht, auf Geld und Verbrauch "pfeift" dann Bitteschön ...

MfG Föhn.
 

Anhänge

  • 3090 Preise.jpg
    3090 Preise.jpg
    948 KB · Aufrufe: 8
  • 6900XT Preise.jpg
    6900XT Preise.jpg
    878 KB · Aufrufe: 9
  • Resident Evil Bench.jpg
    Resident Evil Bench.jpg
    212,7 KB · Aufrufe: 12
  • 6900XT 330 Watt.jpg
    6900XT 330 Watt.jpg
    185,3 KB · Aufrufe: 12
  • 3090 ü 400 Watt.jpg
    3090 ü 400 Watt.jpg
    262,9 KB · Aufrufe: 18
Davon ist hier aber wenig zu sehen. Vergleich mal die Ergebnisse von Dave und mir:

Bei sehr starken Prozessoren trifft das definitiv nicht zu.
War bestimmt nicht deine Absicht, ist aber trotzdem schön in einem von der PCGH Community optimierten Benchmark die 6900XT vorne zu sehen.
Wenn mein Wasserkühler und meine neue CPU da ist, mache ich da auch mal mit....
 
Also grad der Vergleich zwischen der 3090 und der 6900XT passt mal so was von überhaupt NICHT mit Deinen Worten !!
In Rasterazion Games ist die AMD Karte schneller, kostet 800 € weniger (1400 statt 2200 €), was früher mal ne GraKa im High End gekostet hat und verbraucht ca. 20 % weniger Strom (330 statt über 400 Watt).
Wer RT braucht, auf Geld und Verbrauch "pfeift" dann Bitteschön ...

MfG Föhn.
Auf die restlichen Vergleiche gehe ich mal gar nicht weiter ein, aber bei den Resident Evil Screenshots unterschlägst du den Fakt das bei den AMD Werten noch ca 50W dazu gerechnet werden muss ;)
 
Es hat leider keinen Sinn da etwas zu erklären, Onkel-Foehn.

Ich finde gut das jmd. noch objektive Argumente einbringt,
das kommt nur leider nicht an, wenn Leute es nicht wahrhaben WOLLEN.

Ich spare mir heute weitere Beiträge, jeder der möchte kann sich informieren und die anderen können ja Nvidia kaufen oder auch informiert kaufen, aber ich glaube, dass sind dann weniger.
Ausgehend von meinem Menschenbild muss das so sein ;)
 
Zuletzt bearbeitet:
Also grad der Vergleich zwischen der 3090 und der 6900XT passt mal so was von überhaupt NICHT mit Deinen Worten !!
In Rasterazion Games ist die AMD Karte schneller, kostet 800 € weniger (1400 statt 2200 €), was früher mal ne GraKa im High End gekostet hat und verbraucht ca. 20 % weniger Strom (330 statt über 400 Watt).
Wer RT braucht, auf Geld und Verbrauch "pfeift" dann Bitteschön ...

MfG Föhn.
Ok, die 3090 ist da nochmal ein Stück weiter weg preislich, gebe ich zu. Nehmen wir einfach die 3080ti, die passt in die Leistungsklasse und ist näher an der 6900xt... Preisbereich 1500-1800€ , ebenso die 6900xt. Leistung ist ein hauch mehr, kommt aber natürlich wieder auf die Engine an und/oder Auflösung. Letztendlich bleiben die läppischen 30-50 Watt mehr Leistungsaufnahme, dafür besseres Featureset, mit etwas weniger Vram. Wo man hier eine Überlegenheit irgend eines Herstellers ableitet, bleibt schlicht und ergreifend die große Frage. Man muss wirklich verblendet sein, wenn man hier keine Patt Situation erkennt. Ich finds gut, soll sich der Rest ihr E-Gemach künstlich aufblasen, am Ende gewinnt keiner!

Und die Nebelkerze mit 400 Watt kannst du dir sparen, Werksbiose von moderaten AMD Referenz/Midrange Custom Karten mit OC Bios iwelcher OC Modelle wie der Strixx kann man nicht vergleichen. Ich hatte hier eine Ventus 3090, die mit 350 Watt auskam und nicht mit 400 und mehr, die FE braucht nur 370...
 

Anhänge

  • 1630266306261.png
    1630266306261.png
    74,7 KB · Aufrufe: 16
Ich verstehe die Marktdurchdringung bei Gamern zugunsten NVIDIA trotzdem nicht.

Die 6800XT soll im Schnitt 5% langsamer sein als die 3080, okay. Meine 6800XT läuft mit -19% Spannung stabil. Säuft ~80 Watt (ca., hab die genaue Zahl gerade nicht vor mir) weniger und bleibt dabei erheblich leiser und ist schneller, da ein höherer Turbo gehalten werden kann. Das ganze als „OC-Laie“ mit 2-3 Mausklicks über die Radeonsoftware.

Ich habe keine 3080 zur Hand, möchte aber Wetten, dass meine 6800XT leiser, schneller und sparsamer läuft als das Otto Normal das mit seiner 3080 hinbekommt. Warum also hat NVIDIA so viel mehr Marktdurchdringung? Oder übersehe ich hier etwas?

Edit: Leistung natürlich ohne RT gemeint. Ich sehe RT noch lange nicht als Massentauglichen Mehrwert an, eher als nettes „mal testen Gimmick“, oder ist das am Ende der Grund, dass die Leute sich davon blenden lassen?
 
Ich verstehe die Marktdurchdringung bei Gamern zugunsten NVIDIA trotzdem nicht.

Die 6800XT soll im Schnitt 5% langsamer sein als die 3080, okay. Meine 6800XT läuft mit -19% Spannung stabil. Säuft ~80 Watt (ca., hab die genaue Zahl gerade nicht vor mir) weniger und bleibt dabei erheblich leiser und ist schneller, da ein höherer Turbo gehalten werden kann. Das ganze als „OC-Laie“ mit 2-3 Mausklicks über die Radeonsoftware.

Ich habe keine 3080 zur Hand, möchte aber Wetten, dass meine 6800XT leiser, schneller und sparsamer läuft als das Otto Normal das mit seiner 3080 hinbekommt. Warum also hat NVIDIA so viel mehr Marktdurchdringung? Oder übersehe ich hier etwas?

Edit: Leistung natürlich ohne RT gemeint. Ich sehe RT noch lange nicht als Massentauglichen Mehrwert an, eher als nettes „mal testen Gimmick“, oder ist das am Ende der Grund, dass die Leute sich davon blenden lassen?
Vielleicht weil es keine 6800xt zu relativ humanen Preisen zu kaufen gibt? Bis vor ein paar Wochen war die gar nicht lieferbar... Hab mich nur für die 3080 entschieden, weil ich die jetzt bekommen habe zum guten Kurs (1100), wollte eigentlich ne 6800xt, aber die gibts wenn überhaupt nur zum höheren Kurs als der von mir veranschlagte, da schlug ich halt bei NV zu. RT, DLSS und so weiter erübrigen die Entscheidung. Der Otto Normal Verbraucher kann auch keine AMD "tunen", daher eigentlich völlig Wurst was speziell deine 6800xt kann! Für 900 wäre es defintiv die 6800xt geworden, bei gleichem Preis greif ich zum reiferen Featurset. Die Asus läuft trotz 340 Watt mit 63-67 Grad, bei 1600 RPM... völlig easy. Mit UV wird die wohl nochmal ein Stück geiler…

1630268884422.png

Die AMD Karten sind schon ein gutes Stück effizenter, mit Milchmädchenrechnungen lässt sich das auch nicht negieren.
Wo siehst du ne Milchmädchenrechnung?
 
Zuletzt bearbeitet:
Leistung natürlich ohne RT gemeint. Ich sehe RT noch lange nicht als Massentauglichen Mehrwert an, eher als nettes „mal testen Gimmick“, oder ist das am Ende der Grund, dass die Leute sich davon blenden lassen?
RT und DLSS 2.0 sind für viele einfach sehr relevant.
AMD bietet mit FSR keine wirklich konkurrenzfähige Alternative an, und die RT Leistung ist im Vergleich sehr schwach (6800 XT entspricht da etwa einer 2080ti/3070).

Früher oder später wird es ohnehin nur mehr RT Leistung geben weil viele Spiele nur mehr darauf setzen (z.Bsp. Metro Exodus EE).
Eine 3080 kann man btw auch tunen.
 
Also ich zumindest spiele lieber in 1080/1440p in max. Details/Ultra mit 144/165 Hz als in 4K mit den paar RT Titeln in 30 - 50 FPS !!!
Ok und in welchem RT-Titel packt alles ab RTX3080 aufwärts nur 30-50FPS auf 4K? Zumal grundsätzlich fast immer DLSS an Board ist? Also ich bekomme bei 4K in Cyberpunk mit maximalem RT und Details ca 60 FPS auf DLSS-Quality. :lol:

Die 30 FPS kennt man nur mit einer AMD-Karte. Jeder Turing/Ampere-Nutzer weiß nicht wovon du sprichst. Dass Raytracing Leistung kostet ist zwar richtig, aber dank DLSS kein großes Thema mehr.

Und lieber auf FHD spielen?? Ok… :ugly:
 
Man muss wirklich verblendet sein, wenn man hier keine Patt Situation erkennt. Ich finds gut, soll sich der Rest ihr E-Gemach künstlich aufblasen, am Ende gewinnt keiner!
So isses ...
Ok und in welchem RT-Titel packt alles ab RTX3080 aufwärts nur 30-50FPS auf 4K?
4K und RT on hab ich geschrieben ! Die paar Titel jene DLSS unterstützen Außen vor. Um genau das geht´s mir !


Hab ich schon mehrere Beispiele gesehen.
In diesem hat die 3090 lediglich 22 FPS und 3080 knapp 16 FPS in 4 K und RT on.

Da wären/ist MIR 1440p OHNE RT mit max. Details und 100 FPS + halt "lieber" !
Aber wie bereits schon erwähnt, ein jeder wie er will ...

MfG Föhn.
 

Anhänge

  • 3080Ti Test.jpg
    3080Ti Test.jpg
    698,6 KB · Aufrufe: 17
Zuletzt bearbeitet von einem Moderator:
Ich verstehe die Marktdurchdringung bei Gamern zugunsten NVIDIA trotzdem nicht.
Ohne mich da informiert zu haben und ohne das ganze in letzter Zeit verfolgt zu haben:

Schlichtweg weniger Einheiten produziert?
AMD bleibt ja nichts anderes übrig, als die gebuchten Fertigungskapazitäten irgendwie sinvoll aufzuteilen.
Neben den GPU´s / CPU´s und APU´s für Desktop/Mobile hat AMD ja auch noch die APU´s für PS5 / Series X bzw. S.

Da dürften v.a. die Konsolen einen ziemlich hohen Stellenwert haben, denn immerhin sorgen die auch in schlechteren Zeiten für einen sicheren Umsatz. Das hat AMD in der Vergangenheit schon mal am Leben erhalten.
( Wenn man bedenkt, dass man AMD zu Bulldozer Zeiten quasi fast schon für tot erklärt hat.)
 
Davon ist hier aber wenig zu sehen. Vergleich mal die Ergebnisse von Dave und mir:

Bei sehr starken Prozessoren trifft das definitiv nicht zu.
Meine Aussage bezog sich auf die Leistungsaufnahme des Gesamtsystems. Igor hat das bereits einige male gemessen, aber auch bei anderen wie HWU sieht man das ganz gut.

Bei meinen Messungen konnte ich das auch feststellen, zu beispielsweise 50Watt Mehrverbrauch kommen dann schon mal gerne nochmal 20 vom Gesamtsystem dazu. Mich stört da weniger der Kostenfaktor, als das Thema Abwärme.
 
Was sind schon Zahlen, die man nicht selber geschrieben hat. Wenn ich mir so die Forums Hardware Datenbank anschaue scheinen wir hier anders zu ticken. Nur so am Rande.:D

Marktanteil GPU PCGH 07/2021
gpuMonth_07-2021_ChartImage.png

gpuYear_07-2021_ChartImage.png
 
Zuletzt bearbeitet von einem Moderator:
schon irgendwie komisch... haben doch alle Leute in dem Forum gesagt, dass keiner die VRAM schwachen Nvidia Karten möchte! weil 10/12 GB einer 3080(ti) ja zuwenig sind... Scheint dann so, dass das den Leuten doch zimlich egal ist. Bei AMD gibts 16GB fürs gleiche Geld.

Oder aber die Statisiken sind massiv verzerrt, weil doch einen grossen Anteil von Karten an die Miner gingen. da war Nvidia ja stehts etwas höher in der Hash rate (for dem LHR Ding).
Das war doch klar, dass das nicht passieren wird. Der Großteil der Leute kauft Nvidia weil da Nvidia drauf steht, sowie die Marke einen eine größere Bekanntheit und besseren Ruf hat. Zumal diese bevorzugt in Fertig-PCs verbaut werden auf die man dann "GAMING" schreibt.
Hier im Forum mag das anders sein weil sich die Leute mit der Thematik befassen und wissen was sie da kaufen oder eine genaue Vorstellung davon haben was sie wollen. Dazu kommt dann noch, dass die Stückzahlen von Nvidia am Markt einfach höher sind.

Ich behaupte mal, dass der Großteil der Verkäufer einem Kunden der nach einem Gaming-PC fragt als erstes eine Nvidia empfehlen und AMD höchstens beiläufig erwähnen. Wenn überhaupt. Ob berechtigt oder nicht.
 
Zuletzt bearbeitet:
Zurück