Geforce vs. Radeon: Nvidia gewinnt Marktanteile von AMD

War zwar nur ein günstiger Gebrauchtkauf, aber auch ich hab nun auf eine MSI VEGA64 (vorher hatte ich ein gaming Notebook mit GTX1070 Mobile) umgesattelt, die rennt so, wie sie soll auf meinem nicht HDRigen FHD-Monitor. Betreibe sie mit dem BIOS #2 und softwareseitig im powersave Mode. Also ca. 150W TDP (was ca. 8% Performanceverlust verglichen mit den Defaulteinstellungen kosten soll), habe bislang alle moderneren AAA-Spiele, die ich habe auf max. Settings (FarCry 5, Witcher 3, BF 1) für meinen Geschmack flüssig spielen können. Kann mal bei Gelegenheit schauen, wie viel FPS es wirklich sind.

Jedenfalls halte ich es mit der Karte hoffentlich so lange aus, bis UHD HDR1000 144HZ Monitore im erschwinglichen Preissegment zu verorten sind, für mich ~650 Euro. Ich befürchte aber, dass das noch lange dauern wird.
Und dann gibt's hoffentlich schon eine Karte, die das problemlos befeuern kann. Ob AMD oder Nvidia, is mir persönlich egal. Tendenz aber eher pro AMD, weil ich immer dazu tendiere, die schwächeren aus Prinzip zu unterstützen ;)
 
Ich lese hier immer wieder das AMD hier und dort ein Problem hat.
AMD hat eigentlich nur ein Major Problem, sie verstehen ihre eigenen GPUs nicht!!! :D

Es ist doch so das die AMD Karten zwar mehr Saft ziehen aber auf der anderen Seite im professionellen Bereich ihre Leistung auf die Straße bringen und dort
auch konkurrenzfähig sind, nur bei Spielen hat die RTG niemals einen Weg gefunden die volle GCN-Leistung auf den Bildschirm zu bringen.

Ob sich hieran etwas ändert werden wir nächstes Jahr mit Navi sehen auch wenn dieser nur Midrange sein wird werden wir doch erfahren ob AMD es schafft
die Rohleistung in 3D Umgebungen effektiver nutzbar zu machen.
 
Zuletzt bearbeitet:
Die Gaming-Leistung von Vega war tatsächlich nicht überzeugend. Die RX480/580 Karten waren und sind super, soweit sie jedenfalls zu vernünftigen Preisen erhältlich waren. Sie bieten die gleiche Leistung wie die 1060 (mal ist AMD schneller, mal Nvidia). Dafür bieten die AMD Karten mehr VRAM. Der höhere Stromverbrauch ist marginal, wahrscheinlich keine 10€ im Jahr. Dafür sind die Nvidia Karten im Regelfall teurer, womit sich alles wieder relativiert.

Tatsächlich bin ich über den großen Marktanteil aber verwundert. Hätte ihn tatsächlich nicht so hoch eingeschätzt. AMD hat weniger Mitarbeiter als Nvidia, betreibt aber auch noch die CPU Sparte. Eigentlich recht erstaunlich, was die dafür so leisten.
 
Es ist doch so das die AMD Karten zwar mehr Saft ziehen aber auf der anderen Seite im professionellen Bereich ihre Leistung auf die Straße bringen und dort
auch konkurrenzfähig sind, nur bei Spielen hat die RTG niemals einen Weg gefunden die volle GCN-Leistung auf den Bildschirm zu bringen.

Man braucht nur vergleichen, wie Vegas doppelte FP16-Rechenleistung(Rapid Packed Math) von Spieleentwicklern aufgegriffen wurde, was richtig viel Leistung für wenig Energieverbrauch bringen würde... und wie jetzt ein neuer Anti-Aliasing-Modus und eine möchtegern-Vorausschau auf Raytracing aufgegriffen wird...
Ich denke, die korrekte Analyse ist einfach, dass AMD ein Problem hat mit dem Marktanteil und der Strahlkraft bei Spieleentwicklern. Die Strahlkraft kann man oft nur durch Zeug verschenken und reine Prestigeprojekte verbessern oder indem man den Zockern ins Gehirn prügelt, dass das Spiel dazu gemacht sei, nur mit der eigenen Hardware gespielt zu werden - was sehr teuer ist... Beim Marktanteil dagegen lässt sich mit guten Produkten zu ordentlichen Preisen sehr viel drehen, und deshalb bin ich mir sicher, dass AMD auf einem sehr guten Weg ist, mehr Leute davon zu überzeugen, ihre Features zu nutzen.

Es ist auch klar, dass man jenseits von 500€ nicht anfangen braucht, seine Marktanteile irgendwie zu steigern. Auch Nvidia macht das nicht, sondern ab der GTX 1060 und abwärts. Und da ist AMD, nachdem die Mining-Preise abgeflaut sind, deutlich attraktiver aufgestellt und gewinnt somit eher Marktanteile.
 
Man braucht nur vergleichen, wie Vegas doppelte FP16-Rechenleistung(Rapid Packed Math) von Spieleentwicklern aufgegriffen wurde, was richtig viel Leistung für wenig Energieverbrauch bringen würde... und wie jetzt ein neuer Anti-Aliasing-Modus und eine möchtegern-Vorausschau auf Raytracing aufgegriffen wird...
Ich denke, die korrekte Analyse ist einfach, dass AMD ein Problem hat mit dem Marktanteil und der Strahlkraft bei Spieleentwicklern. Die Strahlkraft kann man oft nur durch Zeug verschenken und reine Prestigeprojekte verbessern oder indem man den Zockern ins Gehirn prügelt, dass das Spiel dazu gemacht sei, nur mit der eigenen Hardware gespielt zu werden - was sehr teuer ist... Beim Marktanteil dagegen lässt sich mit guten Produkten zu ordentlichen Preisen sehr viel drehen, und deshalb bin ich mir sicher, dass AMD auf einem sehr guten Weg ist, mehr Leute davon zu überzeugen, ihre Features zu nutzen.

Es ist auch klar, dass man jenseits von 500€ nicht anfangen braucht, seine Marktanteile irgendwie zu steigern. Auch Nvidia macht das nicht, sondern ab der GTX 1060 und abwärts. Und da ist AMD, nachdem die Mining-Preise abgeflaut sind, deutlich attraktiver aufgestellt und gewinnt somit eher Marktanteile.

Bei der Strahlkraft, wie du es nennst, sehe ich pro AMD ganz klar die Konsolen da diese nunmal ein großes Gewicht bei den Entwicklern in die Waagschale wirft.
Klar hat Nvidia wenn es um das technisch Machbare geht bei den Entwicklern die Nase vorn aber das ist eben auch das Segment der Enthusiasten die bereit sind
entsprechende monetäre Mittel für das Machbare auszugeben und hier sind die umgesetzten Stückzahlen nur ein kleiner Teil des Marktes. Aber die Nase vorn hat
Nvidia sicherlich bei den Spielern, denn hier bringen der Leistungstron und toll klingende Features die größte Strahlkraft.

Entscheidend für AMD wird sein wie die Generation nach Navi aussehen wird. Schafft es AMD ein MCM Design schnell genug, ohne signifikanten Bottleneck anzubinden
wäre für AMD wieder vieles im GPU Segment möglich, insbesondere bei der Marge (siehe auch Ryzen).
 
Bei der Strahlkraft, wie du es nennst, sehe ich pro AMD ganz klar die Konsolen da diese nunmal ein großes Gewicht bei den Entwicklern in die Waagschale wirft.
Klar hat Nvidia wenn es um das technisch Machbare geht bei den Entwicklern die Nase vorn aber das ist eben auch das Segment der Enthusiasten die bereit sind
entsprechende monetäre Mittel für das Machbare auszugeben und hier sind die umgesetzten Stückzahlen nur ein kleiner Teil des Marktes. Aber die Nase vorn hat
Nvidia sicherlich bei den Spielern, denn hier bringen der Leistungstron und toll klingende Features die größte Strahlkraft.

Entscheidend für AMD wird sein wie die Generation nach Navi aussehen wird. Schafft es AMD ein MCM Design schnell genug, ohne signifikanten Bottleneck anzubinden
wäre für AMD wieder vieles im GPU Segment möglich, insbesondere bei der Marge (siehe auch Ryzen).

AMDs "Strahlkraft" durch Konsolen ist egal so lange es so tolle Ports wie FFXV gibt.

Selbst wenn ein für Konsolen-Optimiertes Game GCN liegt wird das beim Porten so hingeschlachtet, dass der Vorteil weg ist. (Ob jetzt mit Absicht oder weil es für den Port nicht anders geht ist übrigens für das Argument völlig egal und nicht Teil der Argumentation. Konsolen GPUs sind GCN und somit könnten die Optimierungen ggf. helfen)
 
Die GF2 MX waren teilweise schneller als die GF4 MX soviel zu den "Verbesserungen" der Nachfolgergenerationen. Die Bildqualität der NV Karten der damaligen Zeit war einfach unterirdisch und hatte gegen die der neuen Radeons KEINE Chance. Das war 2003 der Effekt in 3D, den man in den 90ern auf dem Windows Desktop hatte, wenn man Karte X gegen eine Matrox Karte gestellt hat. NV hat sich durch den Technikwandel auf Digitale Bildschirmanschlußtechnik retten können. Wenn es das nicht gegeben hätte, würde heute niemand mehr von denen sprechen außer vielleicht in der Vergangeheitsform oder im Konjunktiv.

In Sachen Software konnte ich mich bei ATI und AMD eigentlich auch nie groß beschweren. Das einzige, was bei mir haften blieb, ist das man die Treiber von Januar und Februar mal getrost vergessen konnte und das war immer so bei den monatlichen Treiberreleases. Die waren gerne mal verbugt, so wie auch bei dem letzten Treiber für meine derzeitige Karte Ver. 16.2...

Die Software für meine 9800 SE war große Klasse. Da konnte ich durch einen "Omegatreiber" die Anzahl der Rechenpipelines verdoppeln und war damit gleichauf in der Leistung mit dem Spitzenmodell.

Guter Beitrag.

Jedoch darfst du ohne weiteres lüften, dass auf einer GF4MX auch ein GF2 Chip verbaut war.
Eine der ersten riesen Verarschungen an die ich mich erinnern kann!

...übrigens die ATI 8500 und 9500 war zu dieser Zeit das geilste
 
So und jetzt noch zum Jahresende eine VEGA 7nm für Consumer die im OC die Leistung einer RTX2080ti im OC erreicht für 800€ und ich bin zufrieden.
Man wird ja noch träumen dürfen ...
 
Jedoch darfst du ohne weiteres lüften, dass auf einer GF4MX auch ein GF2 Chip verbaut war.

Aber immerhin hatte meine GF4 MX 64MB RAM und meine GF2 MX nur 32. ;)

Naja, habe eh erst danach angefangen, mich zu informieren. Die anderen Karten waren in Komplett-PCs. Der Sprung von der GF4 MX auf die 6600GT war schon sensationell. Und das für nur 200€ (+30€ für einen VF700Cu, der später dazukam).

Rebrandings sind natürlich trotzdem doof.
 
Zurück