G-Sync vs Freesync: Reddit-Beitrag eskaliert

Guten Tag,

da ich mich auch mal eine Zeit lang mit dem Thema G-Sync und Freesync auseinandergesetzt habe, möchte ich hier auch einmal meine Gedanken zum Thema einbringen.

Im Grunde finde ich, dass Freesync eine tolle Technologie ist, da sie öffentlich verfügbar ist und im Grunde jeder Grafikkarten-Hersteller darauf setzen könnte. Da Nvidia jedoch auf seine eigene Technologie setzt, ist man mit beiden Technologien am Ende entweder auf AMD oder Nvidia angewiesen. Mit beiden Technologien schränkt man sich eigentlich somit beim Kauf einer neuen Karte ein. Bei Nvidia willentlich, bei AMD gezwungenermaßen, da der GPU-Markt momentan eben ein Duopol ist. Für den Verbraucher ist es im Endeffekt natürlich der größte Nachteil, da man nur auf einer Linie, entweder von Nvidia oder AMD bleiben kann, wenn man das Feature in Zukunft mit einer neuen GPU weiterhin nutzen möchte.
Nun möchte ich jedoch auf die Vor- und Nachteile beider Technologien zu sprechen kommen. Wie der Artikel bereits erwähnt, so kann Freesync sich preislich gegenüber G-Sync hervorheben. Dies liegt natürlich daran, dass G-Sync-Monitore ein Hardware-Modul benötigen, welches von Nvidia bereit gestellt werden muss und somit den Preis für einen Monitor nach oben drückt. Allerdings gibt es auch in der Leistung häufig Unterschiede. Beide Technologien funktionieren schließlich nicht in jedem fps-Bereich. Während man bei G-Sync eigentlich immer davon ausgehen kann, dass die Technologie zwischen 30-144Hz funktioniert, so kann man dies bei Freesync nicht so pauschalisieren. Es gibt Monitore, bei denen Freesync einen sinnvollen Bereich abdeckt, aber auch welche, bei denen Freesync einen weniger sinnvollen Bereich abdeckt. Dies wirkt sich bei den Freesync-Monitoren meiner Meinung nach auch sehr auf den Preis aus. Als ich mich damals nach Monitoren umgesehen habe, musste ich feststellen, dass Freesync-Monitore, welche einen sinnvollen fps-Bereich für diese Technologie hatten nicht mehr viel günstiger als so mancher G-Sync-Monitor waren. Deshalb stimme ich dem Preis-Argument auch nie zu 100% zu.

Bei mir wurde es damals ein Monitor, welcher G-Sync unterstützt, da ich zum damaligen Zeitpunkt des Kaufes wusste, dass ich mich wohl für eine Geforce entscheiden werden. Welche Technologie nun zu bevorzugen ist, das hängt meiner Meinung nach stark von den persönlichen Präferenzen ab. Dass man jedoch bei der Wahl der Grafikkarte durch die Technologie auf einen Hersteller limitiert ist, das stört mich jedoch auch. Denn schließlich entscheide ich mich am Ende für das für mich bessere und sinnvollere Produkt und achte dabei weniger auf den Hersteller. Zwar bin ich mit G-Sync total zufrieden und alles funktioniert auch einwandfrei, jedoch würde ich mir dennoch auch einen einheitlichen Standard wünschen, einfach weil es am Ende für uns Endverbraucher sinnvoller ist, da man nicht mehr auf einen bestimmten Hersteller limitiert ist. Allerdings glaube ich, dass Nvidia das relativ egal sein dürfte. Denn aus der Sicht des Unternehmens lassen sich durch diese herstellergebundenen Technologien schließlich auch Kunden binden. Wenn ich jedoch eine AMD-Karte besäße und einen Freesync-Monitor, dann wäre ich gezwungenermaßen aufgrund von Nvidia auch an AMD gebunden. Es ist halt wie mit vielem - Fluch und Segen zugleich.

MfG Maggi
 
jedoch würde ich mir dennoch auch einen einheitlichen Standard wünschen, einfach weil es am Ende für uns Endverbraucher sinnvoller ist, da man nicht mehr auf einen bestimmten Hersteller limitiert ist.

Das wäre schön. :daumen: Ich glaub, da könnten wir uns alle drauf einigen. :)

Ich muss auch nicht unbedingt 200€ extra zahlen, nur weil g-sync drauf steht.
Mit der 1080Ti kann ich aber kein freesync nutzen.

Ein einheitlicher Standard wäre toll !
 
Hab grad nochmal in Wildlands mit 60 FPS Limit an nach Tearing gesucht, nichts nada. Stabile 13 ms frame time hilft sicher auch. Ich lege jegliches Sync für mich somit ad acta. Für mich ist der 144 Hz Monitor der entscheidende Faktor.
 
Guten Tag,

da ich mich auch mal eine Zeit lang mit dem Thema G-Sync und Freesync auseinandergesetzt habe, möchte ich hier auch einmal meine Gedanken zum Thema einbringen.

Im Grunde finde ich, dass Freesync eine tolle Technologie ist, da sie öffentlich verfügbar ist und im Grunde jeder Grafikkarten-Hersteller darauf setzen könnte. Da Nvidia jedoch auf seine eigene Technologie setzt, ist man mit beiden Technologien am Ende entweder auf AMD oder Nvidia angewiesen. Mit beiden Technologien schränkt man sich eigentlich somit beim Kauf einer neuen Karte ein. Bei Nvidia willentlich, bei AMD gezwungenermaßen, da der GPU-Markt momentan eben ein Duopol ist. Für den Verbraucher ist es im Endeffekt natürlich der größte Nachteil, da man nur auf einer Linie, entweder von Nvidia oder AMD bleiben kann, wenn man das Feature in Zukunft mit einer neuen GPU weiterhin nutzen möchte.
Nun möchte ich jedoch auf die Vor- und Nachteile beider Technologien zu sprechen kommen. Wie der Artikel bereits erwähnt, so kann Freesync sich preislich gegenüber G-Sync hervorheben. Dies liegt natürlich daran, dass G-Sync-Monitore ein Hardware-Modul benötigen, welches von Nvidia bereit gestellt werden muss und somit den Preis für einen Monitor nach oben drückt. Allerdings gibt es auch in der Leistung häufig Unterschiede. Beide Technologien funktionieren schließlich nicht in jedem fps-Bereich. Während man bei G-Sync eigentlich immer davon ausgehen kann, dass die Technologie zwischen 30-144Hz funktioniert, so kann man dies bei Freesync nicht so pauschalisieren. Es gibt Monitore, bei denen Freesync einen sinnvollen Bereich abdeckt, aber auch welche, bei denen Freesync einen weniger sinnvollen Bereich abdeckt. Dies wirkt sich bei den Freesync-Monitoren meiner Meinung nach auch sehr auf den Preis aus. Als ich mich damals nach Monitoren umgesehen habe, musste ich feststellen, dass Freesync-Monitore, welche einen sinnvollen fps-Bereich für diese Technologie hatten nicht mehr viel günstiger als so mancher G-Sync-Monitor waren. Deshalb stimme ich dem Preis-Argument auch nie zu 100% zu.

Bei mir wurde es damals ein Monitor, welcher G-Sync unterstützt, da ich zum damaligen Zeitpunkt des Kaufes wusste, dass ich mich wohl für eine Geforce entscheiden werden. Welche Technologie nun zu bevorzugen ist, das hängt meiner Meinung nach stark von den persönlichen Präferenzen ab. Dass man jedoch bei der Wahl der Grafikkarte durch die Technologie auf einen Hersteller limitiert ist, das stört mich jedoch auch. Denn schließlich entscheide ich mich am Ende für das für mich bessere und sinnvollere Produkt und achte dabei weniger auf den Hersteller. Zwar bin ich mit G-Sync total zufrieden und alles funktioniert auch einwandfrei, jedoch würde ich mir dennoch auch einen einheitlichen Standard wünschen, einfach weil es am Ende für uns Endverbraucher sinnvoller ist, da man nicht mehr auf einen bestimmten Hersteller limitiert ist. Allerdings glaube ich, dass Nvidia das relativ egal sein dürfte. Denn aus der Sicht des Unternehmens lassen sich durch diese herstellergebundenen Technologien schließlich auch Kunden binden. Wenn ich jedoch eine AMD-Karte besäße und einen Freesync-Monitor, dann wäre ich gezwungenermaßen aufgrund von Nvidia auch an AMD gebunden. Es ist halt wie mit vielem - Fluch und Segen zugleich.

MfG Maggi

Ich denke G-Sync und Freesync nehmen sich ansich nicht viel. Müsste man den berühmten Blindtest machen...
Preislich müsste man auch mal wirklich vernünftig vergleichen.
Ich hab jetzt nur mal kurz nachgeschaut...je nach Klasse zwischen 80-150€ im Schnitt?

Das mit der Range ist ein wichtiger Punkt...
Was mich da wieder stört, es wird manchmal Freesync draufgeklebt weil es sich toll anhört aber im Endeffekt dem Kunden nichts bringt da Range zu klein.
Meiner hat 48-100Hz und das find ich schon an der unteren Grenze. Aber man bekommt in 3440x1440 mit der Vega eigentlich immer die Bildrate in den Bereich.

Gibt ja bei AMD ne schöne Liste zum Nachschauen was die Range betrifft.
Freesync Monitors | AMD
Netter Service

Aber wie du sehe ich die meiste Problematik in diesem zwei Standards Murks. Das ist nur Fluch und null Segen^^
Ich bin jetzt an AMD gebunden und hoffe das die nächste Generation was taugt. Sieht nicht schlecht aus aber das bleibt ne Wette in die Zukunft.
Mir wärs auch lieber NVIDIA würde zusätzlich Freesync unterstützen. Würde ja auch gehen...für die "Ultras" den High End G-Sync Monitor mit "Full Range" und die "Normalos" den Mittelklasse Freesync Monitor.
So ist man mal wieder als Kunde total gearscht und man merkt ja doch das das mittlerweile für viele zum Problem wird. Mir wäre die freie Wahl auf jedenfall lieber^^

Was man klar sagen muss. Es gibt einen freien Standard den alle Hersteller nutzen könnten.
AMD setzt diesen Standard ein, NVIDIA nicht. Man versucht lieber als Marktführer seinen eigenen Standard durchzusetzen. Gründe sind bekannt.
Man muss auch noch dazu sagen, es wäre für NVIDIA ein leichtes kundenorientiert (auch) Freesync zu implementieren.

Jetzt setzt bei mir das große Kopfschütteln ein. AMD soll schuld sein? Gut muss ich erstmal sacken lassen.
Wir haben hier also den kleinen Fisch AMD und den fetten Brocken NVIDIA.
NVIDIA ist bekannt auch mal gerne in die Trickkiste zu greifen und hat natürlich auch ganz andere Möglichkeiten den "Markt zu gestalten".
Der Kampf an zwei Fronten wurde ja schon zu genüge erwähnt. Auch noch ein Faktor. Aber ne is klar....AMD ist schuld. Da muss ich gerade echt drüber lachen.

Ich hab ehrlich gesagt gerade wirklich Freude daran wie AMD die "Zwei" vor sich hertreibt. Wenns so kommt wie ich denke wird 2019 ein richtig gutes AMD Jahr und vielleicht wenn NVIDIA/AMD auf Augenhöhe sind funktioniert das dann auch mit dem einheitlichen Sync Standard. Wär ja nur gut für alle. So wie jetzt ist auf jedenfall sehr suboptimal ums vorsichtig zu formulieren.
Und was man klar sagen muss, AMD arbeitet wesentlich kundenorientierter als NVIDIA/Intel. Da muss ich wenigstens nicht für ein K noch einen Aufpreis bezahlen (beim Board noch dazu). Bei AMD...B450 und gut ist.
Dasselbe bei G-Sync/Freesync... und es gibt mMn nur die Lösung mit dem freien Standard. Genau wie sich Vulcan mehr durchsetzen müsste. Liegt natürlich auch daran wie das Kaufverhalten so ist...
 
Wobei auch bei Geizhals die Range angegeben wird und es lässt sich auch nach der unteren und oberen Grenze filtern.
 
Das ganze Thema wird noch ganz interessant, wenn Intel seine ersten Consumer Grafikkarten auf dem Markt bringt. Was man so hört, werden auch Intel Grafikkarten FreeSync unterstützen.. . Das würde natürlich für NVIDIA noch einen Schlag ins Gesicht geben.. .

Denke das würde dann zur Folge haben, dass noch weniger Monitorhersteller auf G-Sync bauen und zukünftig nur noch auf FreeSync setzen.
 
In der Diskussion darüber, wie es in Zukunft weitergeht, wird vor allem die Schuld bei AMD gesucht.
...
Ein anderer Grund liegt darin begraben, dass Nvidia eine Art Prestige-Statussymbol für viele Gamer darstellt, ähnlich zu Intel und AMD im CPU-Markt.

Also ich finde diese 2 Sätze stellen das, was aktuell los ist, ganz gut dar.
Ich persönlich bin allerdings der Überzeugung, dass jeder selbst dafür Sorge tragen kann wohin sich der Markt entwickelt. Natürlich ist so etwas ggfs. mit (persönlichen) Nachteilen verflochten.

Dennoch, ich handle nach dem Prinzip "Selbst ist der Mann!":
NVidia ist mir schlicht zu teuer, also kaufe ich nichts von NVidia.
GSync ist mir zu teuer, also kaufe ich keinen GSync-Monitor.
Der neue Intel 8-Kerner ist mir ebenfalls zu teuer; ich werde die CPU nicht kaufen.

Mit dem Finger auf andere zeigen wird den Markt nicht verändern.
Die Hersteller aber auf Ihren überteuerten Produkten sitzen zu lassen, vielleicht schon.

Ich verstehe dieses ganze Verhalten eh nicht. Ich kaufe vom Hersteller A und zeige mit dem Zeigefinger auf Hersteller B? Was genau soll das denn beim Hersteller A ändern? Warum sollte er irgend etwas ändern? Das wird nicht passieren! Ich würde als Hersteller A auch nichts anders machen; warum auch? Mein Kram wird doch gekauft!
 
Als ich mich damals nach Monitoren umgesehen habe, musste ich feststellen, dass Freesync-Monitore, welche einen sinnvollen fps-Bereich für diese Technologie hatten nicht mehr viel günstiger als so mancher G-Sync-Monitor waren. Deshalb stimme ich dem Preis-Argument auch nie zu 100% zu.
Als 60Hz Monitor Besitzer der noch nie 144Hz hatte konntest du gar nicht beurteilen was ein sinnvoller Sync Bereich ist denn wie bereits gesagt will niemand auf einem 144Hz Monitor mit weniger als 60FPS zocken.

Leute mit GTX1060 und G-Sync statt RX580 und FreeSync sind entweder unwissend oder kleine Nvidia Fanboys. Selbst bei GTX1070 hätten RX Vega 56 und FreeSync Monitor ein um Welten besseres P/L Verhältnis.

PS: FreeSync vs. G-Sync = satte 250€ Aufpreis. Das macht erst Sinn wenn man mindestens eine 500€ Grafikkarte im Rechner hat ! Wobei selbst dann eine 750€ Grafikkarte ohne G-Sync Monitor eine Alternative wäre.
 
Leute mit GTX1060 und G-Sync statt RX580 und FreeSync sind entweder unwissend oder kleine Nvidia Fanboys. Selbst bei GTX1070 hätten RX Vega 56 und FreeSync Monitor ein um Welten besseres P/L Verhältnis.
.

Ich frage mich, warum man in solchen Diskussionen immer elitär und beleidigend werden muss.

Gerade so als ob eine ansich schwache Argumentation irgendwie untermauert werden müsse, um sie stärker erscheinen zu lassen. Faktisch disqualifiziert man sich aber, ungeachtet dessen, ob die Argumentation nun falsch oder richtig war.
 
Als 60Hz Monitor Besitzer der noch nie 144Hz hatte konntest du gar nicht beurteilen was ein sinnvoller Sync Bereich ist denn wie bereits gesagt will niemand auf einem 144Hz Monitor mit weniger als 60FPS zocken.

Leute mit GTX1060 und G-Sync statt RX580 und FreeSync sind entweder unwissend oder kleine Nvidia Fanboys. Selbst bei GTX1070 hätten RX Vega 56 und FreeSync Monitor ein um Welten besseres P/L Verhältnis.

PS: FreeSync vs. G-Sync = satte 250€ Aufpreis. Das macht erst Sinn wenn man mindestens eine 500€ Grafikkarte im Rechner hat ! Wobei selbst dann eine 750€ Grafikkarte ohne G-Sync Monitor eine Alternative wäre.
Wo steht denn, dass er keinen 144Hz Monitor hatte?
Der Vergleich geht auch anders herum.
Produktvergleich AOC Agon AG271QG, Eizo Foris FS2735 Geizhals Deutschland
Jeder kann doch das kaufen, was er will und nicht jeder achtet dabei aufs Geld.
 
Selbstverständlich ist der Schwache schuld, wenn er schwach ist :ugly:

Wenn das blinde Fanboy-tum mal ein Ende fände, hätte AMD vielleicht auch das Geld um konkurrenzfähig zu sein. Leider ist der high end Bereich nur selten das Zuhause von AMD aber ich hoffe sehr, es gibt in Zukunft mehr Wettbewerb und das Budget verteilt sich etwas gerechter.
 
Ich denke G-Sync und Freesync nehmen sich ansich nicht viel. Müsste man den berühmten Blindtest machen...
Preislich müsste man auch mal wirklich vernünftig vergleichen.
Ich hab jetzt nur mal kurz nachgeschaut...je nach Klasse zwischen 80-150€ im Schnitt?

Das mit der Range ist ein wichtiger Punkt...
Was mich da wieder stört, es wird manchmal Freesync draufgeklebt weil es sich toll anhört aber im Endeffekt dem Kunden nichts bringt da Range zu klein.
Meiner hat 48-100Hz und das find ich schon an der unteren Grenze. Aber man bekommt in 3440x1440 mit der Vega eigentlich immer die Bildrate in den Bereich.

Gibt ja bei AMD ne schöne Liste zum Nachschauen was die Range betrifft.
Freesync Monitors | AMD
Netter Service

Aber wie du sehe ich die meiste Problematik in diesem zwei Standards Murks. Das ist nur Fluch und null Segen^^
Ich bin jetzt an AMD gebunden und hoffe das die nächste Generation was taugt. Sieht nicht schlecht aus aber das bleibt ne Wette in die Zukunft.
Mir wärs auch lieber NVIDIA würde zusätzlich Freesync unterstützen. Würde ja auch gehen...für die "Ultras" den High End G-Sync Monitor mit "Full Range" und die "Normalos" den Mittelklasse Freesync Monitor.
So ist man mal wieder als Kunde total gearscht und man merkt ja doch das das mittlerweile für viele zum Problem wird. Mir wäre die freie Wahl auf jedenfall lieber^^

Was man klar sagen muss. Es gibt einen freien Standard den alle Hersteller nutzen könnten.
AMD setzt diesen Standard ein, NVIDIA nicht. Man versucht lieber als Marktführer seinen eigenen Standard durchzusetzen. Gründe sind bekannt.
Man muss auch noch dazu sagen, es wäre für NVIDIA ein leichtes kundenorientiert (auch) Freesync zu implementieren.

Jetzt setzt bei mir das große Kopfschütteln ein. AMD soll schuld sein? Gut muss ich erstmal sacken lassen.
Wir haben hier also den kleinen Fisch AMD und den fetten Brocken NVIDIA.
NVIDIA ist bekannt auch mal gerne in die Trickkiste zu greifen und hat natürlich auch ganz andere Möglichkeiten den "Markt zu gestalten".
Der Kampf an zwei Fronten wurde ja schon zu genüge erwähnt. Auch noch ein Faktor. Aber ne is klar....AMD ist schuld. Da muss ich gerade echt drüber lachen.

Ich hab ehrlich gesagt gerade wirklich Freude daran wie AMD die "Zwei" vor sich hertreibt. Wenns so kommt wie ich denke wird 2019 ein richtig gutes AMD Jahr und vielleicht wenn NVIDIA/AMD auf Augenhöhe sind funktioniert das dann auch mit dem einheitlichen Sync Standard. Wär ja nur gut für alle. So wie jetzt ist auf jedenfall sehr suboptimal ums vorsichtig zu formulieren.
Und was man klar sagen muss, AMD arbeitet wesentlich kundenorientierter als NVIDIA/Intel. Da muss ich wenigstens nicht für ein K noch einen Aufpreis bezahlen (beim Board noch dazu). Bei AMD...B450 und gut ist.
Dasselbe bei G-Sync/Freesync... und es gibt mMn nur die Lösung mit dem freien Standard. Genau wie sich Vulcan mehr durchsetzen müsste. Liegt natürlich auch daran wie das Kaufverhalten so ist...

YouTube
Test von Battlenonsense
 
Ich frage mich, warum man in solchen Diskussionen immer elitär und beleidigend werden muss.
Unwissend bedeutet bemitleidenswert und dumm wäre beleidigend. Ich erwarte nicht vom Mainstream, dass er sich auskennt aber bevor man etwas kauft sollte man sich informieren.
Schaue ich mir die Zahlen auf Steam an und vergleiche die prozentualen Werte von GTX1060 und RX580 Grafikkartenbesitzern dann fällt mir nur eine Sache ein: Volksverdummung.
Daran sind auch Zeitschriften oder Hardwareseiten Schuld denn die Aufklärung über den Zusammenhang von Grafikkarten, Monitoren und Bildsynchronisation wurde vernachlässigt.

Rechenbeispiel:

GTX1060 14,00% = 14.000.000 User
RTX480/580 1,25% = 1.250.000 User

Wie viele der GTX Besitzer werden beim Monitor Neukauf auf Sync achten und trotz des Preisschocks G-Sync kaufen ? Sagen wir 10% also 1.400.000 User.
Wie viel verdient Nvidia an so einem G-Sync Modul wenn die Monitore je nach Modell 100-250€ mehr kosten ? Sagen wir mal 50€ also 50x1.400.00 User=?
Das wären 70.000.000€ (70 Millionen Euro) Gewinn für Nvidia nur weil die User aus Unwissenheit eine falsche Grafikkarte gekauft hatten. Das ist absurd !
 
ich besitze den ersten g-sync 4k monitor den es gab, siehe signatur. und dann nenn mir mal eine andere gpu mit der man flüssig in udh spielen kann... nächstes jahr wird die pimax 4k dann auch noch gegen eine pimax 5k+ getauscht. so sehr ichs mir auf wünsche, navi wird leider wieder keine chance gegen turing haben. (btw die gpu hat mich 1400€ gekostet, dafür kann ich nvidia nicht genug hassen -zumal meine gpu jetzt nach zwei wochen schon kaputt ist)
 
Unwissend bedeutet bemitleidenswert und dumm wäre beleidigend. Ich erwarte nicht vom Mainstream, dass er sich auskennt aber bevor man etwas kauft sollte man sich informieren.

Ich bezog mich auf Deine Pauschalisierung. Konkret, dass alle entweder keine Ahnung haben, oder eben "kleine Fanboys" sind. Du bist in dieser Aussage nicht nur extrem arrogant, sondern beleidigst alle, die sich auskennen und trotzdem für nVidia entscheiden, aus welchem Grund auch immer sie das tun. Solche Gründe persönlich nicht nachvollziehen zu können oder schlecht zu finden bedeutet nicht, dass der andere ahnungslos oder ein "Fanboy" ist.

Und mit diesem arroganten, verachtenden Tonfall machst Du direkt weiter:

Schaue ich mir die Zahlen auf Steam an und vergleiche die prozentualen Werte von GTX1060 und RX580 Grafikkartenbesitzern dann fällt mir nur eine Sache ein: Volksverdummung.

Schlag mal den Dunning Kruger Effekt nach. Und denk ne Weile drüber nach. Vielleicht merkst Du was.

Deine komplette Argumentation verkommt zur Farce, weil Du es vorziehst, Deine Gesprächspartner bzw. Andersdenkende zu verspotten, anstatt zu versuchen, eine sachliche und faktenbasierte Diskussion auf Augenhöhe zu führen. Jeder halbwegs erwachsene Mensch nimmt Dich so nicht ernst. Ganz egal, ob Du mit Deinen Behauptungen und Meinungen recht hast, oder nicht.
 
Ich bezog mich auf Deine Pauschalisierung. Konkret, dass alle entweder keine Ahnung haben, oder eben "kleine Fanboys" sind.
Wie kann etwas eine Pauschalisierung sein wenn es an Bedingungen geknüpft ist ? Was du machst ist absichtlich Zusammenhänge zu ignorieren um Jemandem etwas zu unterstellen.
Weißt du welche Menschen auf so einer Grundlage "Argumentieren". Ja genau, Unwissende oder Fanboys. Es wäre viel besser wenn du dazu stehst, statt den Moralapostel zu spielen.
 
Na Logo ist AMD an ihrer Situation im GPU-Markt mitschuldig.

Die Verkrampfung auf GCN - eine Architektur, die im Wesentlichen aus dem Jahre 2012 stammt, über die Zeit nur im Detail verbessert wurde und die mit zunehmender Shaderzahl immer schlechter skaliert. Der Umstieg von 28nm auf 14nm hat auch in erster Linie nur eine Effizienzverbesserung auf das Niveau von Maxwell gebracht, allerdings ohne nennenswerte Leistungssteigerungen (die RX480 ist zwar etwas langsamer wie ne 980, aber verbraucht auch weniger Strom). Blöd nur, dass NVidia nach Jahre mit Maxwell vor dem Polaris-Release noch Pascal gelauncht hat und neben dem 16nm-Shrink und damit einhergehenden Effizienzverbesserungen auch noch die Geschwindigkeit stark steigern konnte.

Effektiv ist AMD auch nur über den Preis konkurrenzfähig, da die Karten von AMD zur jeweiligen Zeit entweder schneller sind oder weniger Strom verbrauchen (und damit einfacher zu kühlen sind...). Speziell der 900er-Launch war für AMD desaströs, da die GTX 970 deutlich billiger, sparsamer und schneller wie eine R9 290X war... (Natürlich sind die 8GB-Hawaiis der 970 mittlerweile deutlich überlegen...)

Lange Zeit waren wegen der bekannten Mining-Krise aber ja die Preise besonders von AMD explodiert, sodass die AMD-Karten nicht mal mehr günstiger wie NVidia-Karten waren. Dann kam noch der verkackte Vega-Launch mit völlig überzogenen Preisen, anfangs auch echt unterirdischer Performance, hohem Stromverbrauch ab Werk speziell von Vega 64, anfangs sehr schlechter Verfügbarkeit und der bis heute anhaltenden geringen Auswahl an Custom-Designs.

Mit dem wenigen Geld und Marktanteil von AMD, bedingt u.A. durch den Bulldozer-Fail und allgemein geringerer Unternehmsgröße, hat versucht man dann noch krampfhaft Technologien durchzusetzen... Die Bulldozer-Modularchitektur, die nur über heftiges Multithreading halbwegs konkurrenzfähig gewesen wäre, sich aber eher durch eine extrem beschissene Performance bei extrem hohen Stromverbrauch ausgezeichnet hat. Der Ansatz war nicht schlecht, kam aber viel zu früh... DX11 war und ist noch vorherrschend, da braucht es halt ein Mindestmaß an Singlecore-Performance. Zudem kamen die CPUs dann doch noch zu Zeiten auf den Markt, wo selbst eine gute Optimierung auf vier Threads noch eine Ausnahme war und selbst bei Anwendungssoftware die Multithread-Optimierung noch nicht so weit fortgeschritten war wie jetzt. Ein langsamer Speichercontroller hat sein übriges getan. AMD kann froh sein dass man mit Ryzen so einen Spitzentreffer gelandet hat, schließlich hat man sich mit den FX-CPUs den Ruf mächtig versaut und Intel jahrelang das Feld kampflos überlassen (nach Vishera kam ja nix mehr, Excavator-FX gab es nicht).

HBM... Ebenfalls viel zu früh gelauncht. Die eigentlich guten Fury-Karten sind die einzigen GPUs von AMD seit GCN, die ähnlich schlecht gealtert sind wie NVidia-GPUs - wegen den lächerlichen 4GB VRAM. Besonders peinlich: Die quasi zeitgleich gelaunchte und langsamere R9 390X hat 8GB VRAM geboten... HBM zeichnet sich noch heute durch einen offenbar im Vergleich zu GDDR extrem hohen Preis aus, der die Margen stark schmälert. Vega ist wohl angeblich u.A. wegen HBM so teuer, dass die Karten im Consumer-Bereich nicht mal wirklich profitabel zu sein seinen. Scheinbar scheint AMD den geringeren Stromverbrauch von HBM nötig zu haben...

Mantle... Ich kann mir nicht vorstellen, dass das entwickeln einer LowLevel-API auf dem Stand heraus wenig Geld verschluckt hat. Am Ende kam Mantle nur in lächerlichen 8 Titeln zum Einsatz, die abseits von BF4 keine so hohe Strahlkraft gehabt hätten, um eine herstellerspezifische API durchzusetzen. Ganz umsonst war Mantle nicht, schließlich ist daraus Vulkan entstanden und auch DX12 wurde forciert. Trotzdem hat man am Ende viel Geld für Andere ausgegeben - und ob ohne Mantle wirklich nie APIs mit besseren Multithreading-Fähigkeiten erschienen wären ist zu bezweifeln.

Dann lässt man seit Hawaii Refresh effektiv auch noch den HighEnd-Bereich sausen. Einen Bereich mit Strahlkraft und zwar geringeren absoluten Kartenverkäufen, aber sehr viel höherer Marge. Weiteres Problem: Mit Ausnahme von Vega und dem völlig missglückten Fury-Experiment tritt man seit Hawaii auf der Stelle. Hawaii kam Oktober 2013 auf den Markt, also vor etwas mehr wie fünf Jahren. Innerhalb von fünf Jahren war die einzige beständige Leistungssteigerung (Fury war zwar eine, verreckt aber wegen den 4GB VRAM genauso...) Vega mit in Form der Vega 64 ca. 60% höherer Performance im Vergleich zur R9 290X. Die RX 480 hat im Vergleich zur 290X und 390X kaum mehr Performance, und seit der RX 480 kamen von AMD nur Refreshes.

Bis zum Release von Vega war man wenn man mehr Leistung wie eine RX 480 gebraucht hat quasi gezwungen, NVidia zu kaufen. Vega war aus Gründen die ich schon weiter oben schrieb auch ewig nicht zu empfehlen - und jetzt, wo Vega aufgrund der guten Preise für Endkunden und den Treibern, die sich leistungsmäßig gut entwickelt haben, durchaus sogar zu empfehlen ist, haben die meisten User schon zu NVidia gegriffen. Von denen immer mehr User aufgrund ihres Leistungsbedarfs die bittere Turing-Pille schlucken.

Bei den APUs baut AMD mit den Treibern scheinbar ja auch wieder Mist. Bei den alten APUs (also Kaveri und davor) liefen die ganz normalen AMD-Treiber... Jetzt hat man mit den Ryzen-APUs erstmals richtig empfehlenswerte APUs, aber die werden jetzt nicht mehr von den regulären Treibern unterstützt? :rollen:

Wieso ich all das schreibe? Das ist - meine - Ansicht bzw. Meinung dazu, wieso AMD im GPU-Bereich bzw. mit deren GPU-Entwicklungen nicht konkurrenzfähig ist und NVidia trotz steigender Preise, diverser Unzulänglichkeiten (GTX 970 3,5GB, GameWorks, derber Aufpreis für G-Sync und keine Unterstützung von Adaptive Sync, GT 1030 DDR4, GTX 1060 3GB/5GB/6GB/6GB 9Gbps/6GB GDDR5X und ein Treibermenü aus der Steinzeit!) den Marktanteil halten bzw. im Schnitt sogar noch ausbauen konnte. Bulldozer habe ich erwähnt, da AMD da eine Menge Geld verbrannt haben dürfte, die im GPU-Bereich gefehlt haben dürfte.

Ich hätte ja sehr gerne nach meiner R9 290X November 17 wieder AMD gekauft. Nur war Vega zu dem Zeitpunkt nicht zu empfehlen (teuer, nicht verfügbar, stromhungrig, miese Treiber), also wurde es ne 1070Ti. Und ausgehend von der 1070Ti gab es von AMD nix mit mehr Leistung... :(
 
Zuletzt bearbeitet:
Zurück