News Grafikkartenmarkt in Deutschland: AMD bleibt Marktführer mit Radeons

(...)



Der ausgezeichnete Preis spiegelt nicht unbedingt alle Leistungen wider, welche bei Erwerb möglicherweise anfallen können (z.B. Retourenhandling bei Defekten, etc.). P/L hat nicht nur mit "was ist letzte Preis" zu tun. Bei Supermarktangeboten mag dies die einzig auschlaggebende Komponente sein.
Ja schon klar, das Preis Leistungsverhältnis spiegelt nicht nur den Preis wieder sondern setzt ihn, welch Erkenntnis, ins Verhältnis zur erhaltenen Leistung.
Aber du hast doch vom besseren P/L gesprochen...
Im Gegenteil, die Ergebnisse und Hersteller sind mir hier völlig egal. Von mir aus könnte da 100:0 bei rauskommen.
Aufgrund dieser Daten derartige Schlüsse abzuleiten, stand als Kritik von meiner Seite im Raum. Ich habe es sogar im Eingangspost erwähnt, das es nicht um Nvidia/AMD geht, sondern um die Schlussfolgerung.
Die Worte hör ich wohl nur der Glauben fehlt.
Siehe oben, Statista oder EHI Retail.
Also sind die Zahlen doch nicht unbekannt.
Könnte ja auch nur eins von beidem stimmen.
Nein, sicher nicht. Aber zwei Spuren kleiner hätte auch gereicht. Außerdem sind die Daten konträr zum globalen Markt, da erwarte bisschen ein mehr Futter für eine deutschlandweite Begründung. Warum nicht "DIY Sektor setzt diese Woche wieder auf AMD GPUs" ?
Warum? Welch schröckliche Konsequenzen hat es denn?
Ich bin ebenfalls ein Konsument, daher habe ich es erwähnt. Und ich bin genauso wenig repräsentativ wie diese Zahlen.
Da liegst du halt falsch. Von dir kann man nicht aufs Kaufverhalten von Menschen schließen, die Stichprobe ist zu klein.
Egal wie "schlecht" die Daten von MF sind, man kann daraus immernoch weit mehr ableiten als von deinen Kaufentscheidungen.
Siehe oben, wenn für Dich MF der einzige Taktgeber in D ist, nur weil es sich um die erste Adresse im Forum handelt, ist es maximal Balsam zur Bestätigung der persönlichen Meinung, mehr aber auch nicht.
Für mich? Für mich ist das ganze Thema fehl am Platz. Will ich KPIs von profitorientierten Geiern lesen, geh ich zur Wirtschaftswoche.
Im Übrigen will ich das aber nicht, mich interessieren die Umsätze und Marktanteile nicht, ich sehe nicht welche Relevanz die für mich haben sollten.
 
Ja schon klar, das Preis Leistungsverhältnis spiegelt nicht nur den Preis wieder sondern setzt ihn, welch Erkenntnis, ins Verhältnis zur erhaltenen Leistung.
Welches nach Kundengruppen anders ausfällt.
Aber du hast doch vom besseren P/L gesprochen...
Ja, das habe ich. Ich bin vom kleinsten, gemeinsamen Nenner ausgegangen. Ich habe den Preis zur reinen Produktleistung (ohne Aftersales) ins Verhältnis gestellt, ohne weitere Kriterien.

Die Worte hör ich wohl nur der Glauben fehlt.
Ich kann AMD nicht schlechtreden, wenn ich persönlich die Zahlen nicht für aussagekräftig halte. Ich habe daher keine Grundlage und mir steht auch nicht der Sinn danach.

Also sind die Zahlen doch nicht unbekannt.
Könnte ja auch nur eins von beidem stimmen.

Warum? Welch schröckliche Konsequenzen hat es denn?
Wie im Eingangspost schon gesagt, es steht einem etablierten Fachmagazin mit entsprechender Reputation nicht gut zu Gesicht, wenn man einerseits Perzentile genauestens aufzeigt und jede Nachkommastelle beim Wattvergleich berücksichtigt, auf der anderen Seite Schlagzeilen aufgrund von haltlosen Zahlen ohne Bezug raushaut, welche jedem Junior-Business-Analysten im ersten Audit um die Ohren fliegen würden, da diese schlichtweg eine Behauptung ohne korrektive Substanz darstellen. Das kratzt auf Dauer ein wenig an der wahrgenommenen Seriosität und am Wahrheitsgehalt des inhaltlich Geschriebenen, da dieser (beabsichtigte) Klamauk jede Woche erscheint.

Da liegst du halt falsch. Von dir kann man nicht aufs Kaufverhalten von Menschen schließen, die Stichprobe ist zu klein.
Egal wie "schlecht" die Daten von MF sind, man kann daraus immernoch weit mehr ableiten als von deinen Kaufentscheidungen.

Richtig. Ändert aber nichts daran, das MF nicht D widerspiegelt.

Für mich? Für mich ist das ganze Thema fehl am Platz. Will ich KPIs von profitorientierten Geiern lesen, geh ich zur Wirtschaftswoche.
Eben. Deswegen sollte sich auch die WW validen Absatzzahlen und Umsätzen widmen. Die können das besser.
Im Übrigen will ich das aber nicht, mich interessieren die Umsätze und Marktanteile nicht, ich sehe nicht welche Relevanz die für mich haben sollten.
Kann ich verstehen.
 
Die beiden Hersteller stellen eine einfache Wahl. Willst du Rasterleistung und VRAM (AMD), oder Raytracing mit weniger VRAM (Nvidia).

Raytracing als Renderoption hat jetzt auch schon wieder 5 Jahre auf dem Buckel, darf man nicht vergessen. Trotzdem ist Raytracing alles andere als eine Einstellung die jedes Spiel haben muss und ohne die jedes Spiel unspielbar schlecht aussieht. Das gibt AMD die Chance nicht die besten sein zu müssen, sondern einfach nur gut genug. Speziell wenn man bedenkt, dass der Hype um manche RTX Titel in Verbindung mit dem Hype nach 120fps und mehr ohnehin nicht zu bewerkstelligen ist im 500€-600€ Bereich; also nicht mit RT on.

Gleiches gilt für DLSS oder FSR. Warum bei einer 600€ Karte über 20% mehr Leistung jubeln, da hätte man auch die Ti oder 7900XT kaufen können, wenn man 20% mehr Leistung haben will.

In Kombination gibt das AMD schon aktuell einen Vorteil, aber ich glaube nicht, dass Nvidia deswegen die Preise ändert. Die lassen das jetzige Weihnachtsgeschäft einfach so weiterlaufen und mit dem Refresh werden sie dann überlegen wie die Preise aussehen. Ob die Super-Serie einfach etwas mehr Leistung für die aktuellen Preise bieten muss, oder ob man wirklich nachbessert. So richtig wird man von einer 7800XT für 550€ auch nicht unter Druck gesetzt. Gemessen daran, dass es eine 6800XT ist, müsste der Preis eine Generation später bei 450€ liegen.
 
Die beiden Hersteller stellen eine einfache Wahl. Willst du Rasterleistung und VRAM (AMD), oder Raytracing mit weniger VRAM (Nvidia).
Oder natürlich man zahlt seinen Strom selber und gleicht einfach mal den Verbrauch an. Dann macht der märchenhafte "Rastervorsprung" von AMD nämlich ganz schnell *puff*. Und wenn man dann noch bedenkt, dass Nvidias Speicherverwaltung effektiver arbeitet, dann sieht es plötzlich sehr, sehr, sehr, sehr düster aus für AMD.

Und das kommt von jemandem, der Nvidias Kundenver*rsche und Abzocke auch abstoßend findet. Aber deswegen saufe ich mir die Welt (oder AMD) nicht gleich schön.
 
Die 070 waren mal interessant, aber jetzt ist der abstand zur RTX4080 einfach zu riesig.
Für mich eine 350.- GPU, mehr ist die nicht Wert und erst recht nicht wenn man sich anschaut wieviel die aktuellen Games fressen.
UE5 hat zudem enormen hunger und wird immer häufiger eingesetzt.

Die engine für alle, praktisch alle kommenden games aber eigentlich nur für eine Karte so richtig geeignet und zwar RTX4090

Diese ganzen Next-Gen titel brauchen enorm viel Leistung, alles unterhalb einer RTX4080 wird enorme probleme haben. Ich muss jetzt schon mit den details runter da ich oftmals keine stabilen 60FPS erreiche und meine 6800xt ist gerade mal zwei jahre alt.

Zum k...., Alan Wake 2 kann man vergessen, schwankt wie verrückt die Framerate, sogar in FullHD.

Die Grafik ist wahnsinn, best of the best.

Schade das RTX4090 so teuer ist, eigentlich ist das eine 1080Ti aber aus "fehlern" hat NV bedauerlicherweise gelernt.

Das war die letzte geile, sehr langlebige GPU zum einen sehr fairen Preis.

grafikkartenmarkt@
Das ist ein Online-Shop von tausenden, wen interessiert das ? Wie sehen weltweit die Marktanteile eigentlich aus, konnte AMD aufholen ?
 
Zuletzt bearbeitet:
Oder natürlich man zahlt seinen Strom selber und gleicht einfach mal den Verbrauch an. Dann macht der märchenhafte "Rastervorsprung" von AMD nämlich ganz schnell *puff*. Und wenn man dann noch bedenkt, dass Nvidias Speicherverwaltung effektiver arbeitet, dann sieht es plötzlich sehr, sehr, sehr, sehr düster aus für AMD.

Und das kommt von jemandem, der Nvidias Kundenver*rsche und Abzocke auch abstoßend findet. Aber deswegen saufe ich mir die Welt (oder AMD) nicht gleich schön.
Welcher märchenhafte Vorsprung, der gleich puff macht? Ja, die Nvidia Karten sind sparsamer, aber seh hier keinen Anlass, den künstlich verklemmten Stromknauserer zu spielen. Also ob das in Intel CPU Regionen wäre...bisschen die Kirche im Dorf lassen, besonders bei der aktuell wieder entspannteren Strompreislage.
 
Oder natürlich man zahlt seinen Strom selber und gleicht einfach mal den Verbrauch an.

meine GPU läuft ca. 15h die Woche unter Last. Geben wir der AMD 50W mehr, dann sind das im Jahr 780h multipliziert mit 50W, macht 39kwh, zu 42Cent, sind das 16,38€ Mehrkosten bei AMD im Jahr. Da verbraucht meine Waschmaschine mehr Strom, als die AMD zusätzlich verbraucht und wegen den Stromkosten würde ich jetzt nicht anfangen meine Wäsche im Fluss zu waschen.
 
Das ist ehrlich gesagt kein Wunder aktuell tendiere ich zu ner rx7700xt trotz 230w tbp wird das immer wahrscheinlicher
Amd bietet genügend vram für den preis und Leistung
Das wäre aktuell nur die rx6800 rx7700xt und rx6750xt das problem die saufen ordentlich
Einmal 270w einmal 230w und einmal 220w
ich hatte bisher gpu bis 170w und mehr kommt bei mir nicht ins Gehäuse
Die ideale gpu wäre ein ad106 chip mit 36sm 16gb gddr6x 22,5gbps und maximal 2,6ghz Takt was in etwa 175w tbp resultiert (16tf 360gb/s)
Dann eher unwahrscheinlich da kaum so defekte chips gibt davon, ad104 mit 38sm von 72sm 18gbps 12gb und eine tbp von 180w. (17tf 432gb/s)
Der name wird sicherlich rtx4060super heißen aber darum geht es nicht Sicher ist nur eins
Die rtx4060ti 16gb ist zu teuer dafür was diese leistet (15tf 288gb/s 480€) interessant wird diese erst bei 379€ nur wird das nicht passieren
Die einzige sku von nvidia für die nächsten 3 Jahre ist die rtx4070 ab 590€ und die ist nur 10% schneller als die rx7700xt
Gpu über 500€ verkaufen sich nur bei Enthusiasten und Profi Spielern der normale Kunde sieht sich zwischen 200-500€ um.
Da sind 8gb sku nur als entry für multimedia zu sehen
Langsam aber sicher wird die standard Empfehlung rtx3060 12gb zu langsam für 1080p was nebenbei die Hauptauflösung vieler Spieler ist, aus nachvollziehbaren Gründen
Zwar sehe ich Pathtracing nicht als Muss an aber zumindest sollte man hier die 30fps marke erreichen
Das Wie ist hier die frage zumindest sollte dies keine optischen Nachteile bieten, dxr ist Pflicht Pathtracing eher nicht.

2024 werden einige ue5 spiele und andere engines ebenso dxr als Bedingung haben und die rtx4070 bzw rx7700xt werden min Anforderung werden für 1080p nativ
Von fsr dlss halte ich nur bei dxr für sinnvoll und das auch nur bei ultra quality oder quality.
nur wird das nicht funktrionieren unterhalb dieser empfhelung da reden wir über 1080p mit ultra perf was in matsch resultiert eventuell mit dynamischer auflösung für das endgültige verwaschene optik. Spart zumindest animiertes motion blur ein.
Diese Jahr gab es schon 5 Titel wo die Einstiegs gpu ab 200€ die Leistung nicht mehr reicht für spielbaren fps.

rtx3060 12gb neu ab 280€ 8,8-9,4tf 360gb/s entspricht einer rx6600 (8,6tf) neu ab 210€ bis rx6600xt (9,8tf) neu ab 240€
alan wake 2 (9fps pathrtraced , 26fps dxr+dlss q , 30fps raster)
immortals of aveum (36 fps)
starfield (27fps nativ 1080p was man auch so einstellen muss)
lords of the fallen (45fps dxr+dlss q)
forza motorsports (31fps dxr)

alle diese müssen dlss oder fsr aktiv haben um über die 60fps zu kommen bzw erst überhaupt über 30fps zu kommen.
Das wird nicht besser werden und lässt sch auch nicht durch Optimierungen fixen da dies essentiell an den rop und alu selber liegt die können nicht mehr.

Von diesen Standpunkt aus muss min eine rx7700xt sein bzw ältere rx6800 oder eben ne rtx4070

man kauft ne gpu für die Zukunft was herauskommt an spielen auf seine Monitorauflösung
Derzeit empfehle ich nur ab diesen gpu für 1080p . Die preise müssen runter.

Eine rtx4060 super wird also min kommen müssen und die amd rx7700xt muss auf 429€ fallen
ne rx7700 mit 48cu und 389€ wäre auch ne idee mit 10gb vram
aber alles Spekulation sicher weiß ich nur das eine 38sm ad104 im Gespräch war seitens nvidia. Amd kommt nix bis n43 (rdna4) erscheint q2 2024.

Der Markt wird sich ab q2 2024 komplett ändern da amd rdna4 endlich die Architektur gefixt hat und nvidia reagieren muss, was bis dahin geschieht ist unklar ich gehe von nen stillstand aus mit Anpassungen preislich nach oben ab der rtx4070 super (56sm) 729€ bis rtx4080 super (80sm) 1379€
 
Ich prognostiziere einen Rückgang der Radeon Grafikkarten. Bei den jetzt erscheinenden Titeln (z.B. Alan Wake2) zeigt sich, dass die Features der Nvidia Grafikkarten nicht mehr wegzudenken sind.

AMD liegt eine Generation zurück (2 Jahre). Da wirkt der VRAM Vorteil nicht mehr überzeugend.
 
Ich prognostiziere einen Rückgang der Radeon Grafikkarten. Bei den jetzt erscheinenden Titeln (z.B. Alan Wake2) zeigt sich, dass die Features der Nvidia Grafikkarten nicht mehr wegzudenken sind.

AMD liegt eine Generation zurück (2 Jahre). Da wirkt der VRAM Vorteil nicht mehr überzeugend.

Sehe ich auch so, ist schon krass wie die AMD Karten einbrechen, wenn neue Technologien wie Raytracing und Pathtracing zum Einsatz kommen. Was nützt es einem wenn man mehr VRAM für die Zukunft hat, wenn die Karten bei neuen Spielen jetzt schon in die Knie gehen. Macht nur Sinn wenn man auch in Zukunft darauf verzichten will.

Eigentlich eine Frechheit, man muss sich das mal geben, da gibt man einen Haufen Geld für eine neue Highend Grafikkarte aus, und muss froh sein, wenn man 60 FPS in Full HD bei neuen Tileln schafft. Und damit meine ich die Spieleentwickler, die lieber upscaling zur Pflicht machen, als ihre Spiele ordentlich zu optimieren (z.b Starfield etc.)
 
Zuletzt bearbeitet:
"AMD bleibt Marktführer mit Radeons"
>75% der Karten auf Steam sind Nvidia

AMD: 1041475, 46.15%
Nvidia: 1211469, 53.68%
Nvidia nimmt mehr ein...

ich hatte bisher gpu bis 170w und mehr kommt bei mir nicht ins Gehäuse
Kauf dir ne 4070 und undervolt die, dann trinkt die unter 170W...
Besser noch, warte auf die 4070Super, da könnten die Preise vielleicht ein wenig runter gehen...

Meine 4090 hat Stock 450W, aber die läuft undervoltet in CP2077 mit 4k, PT, DLSS3.5 und allem mit ~240W bei 100FPS und 100% Last. Genauso unterhalb von 250W in Starfield oder 180W bei 4k 120FPS in Baldurs Gate 3 mit DLSSQ.
DLSS Upscaling bei 1440p oder 4k (je nach Modell) mit moderaten FPS-Limit + Undervolting lässt die RTX 4000 sparsam laufen.
Bei AMD sollte das auch gehen, habe da aber keine Erfahrung.

Der Markt wird sich ab q2 2024 komplett ändern
Pack nochmal 6-9 Monate drauf für Konsumer wie uns...
Eine GPU Gen dauert rund 24-28 Monate. Die erste RX7000 kam Dezember 22 raus.
Die letzten Gerüchte waren auch, das AMD keine High-End Karten rausbringen will in der nächsten Gen.
Die arbeiten vermutlich noch länger an den großen Chiplet-GPUs und bringen nur kleine monolithische GPUs next Gen raus.

Eigentlich eine Frechheit, man muss sich das mal geben, da gibt man einen Haufen Geld für eine neue Highend Grafikkarte aus, und dann muss froh sein, wenn man nativ 60 FPS in Full HD bei neuen Tileln schafft. Und damit meine ich beide Lager und natürlich die Spieleentwickler, die lieber upscaling zur Pflicht machen, als ihr Spiele ordentlich zu optimieren (z.b Starfield etc.)
UE5 und die neuen Engines sind NEXT Gen nicht current (jetzige) Gen.
Crysis lief mit der damals aktuellen GPU, einer 700€ teuren Geforce 8800 Ultra, auch nur mit 15FPS in FullHD.
Was meint ihr woher das Meme: "But can it run Crysis" herkommt?

Dafür das aber die neuen Spiele next Gen sind, laufen die eigentlich ganz gut.

Ich prognostiziere einen Rückgang der Radeon Grafikkarten. Bei den jetzt erscheinenden Titeln (z.B. Alan Wake2) zeigt sich, dass die Features der Nvidia Grafikkarten nicht mehr wegzudenken sind.
AMD hätte nachziehen können, aber sie hatten noch keine Priorität auf RT oder KI bei der Entwicklung von RX7000.
Erst wegen dem ChatGPT KI-Boom änderte AMD nach dem Release von RX7000 den Kurs richtung KI.
 
Zurück