Nvidia Geforce RTX 40: Lovelace angeblich früher als erwartet

Komisch... das lese ich oft in Foren vor dem Launch einer neuen AMD Generation. Die wird der Hammer und WOW und ein Paukenschlag und der Wahnsinn und am Ende ist die Generation ganz ok, mehr aber auch nicht.

Na ich bin gespannt ob es so kommt. :-D
Dann schau dir mal die Leistungsbewertungen an am Beispiel GeForce 1070 vs. Radeon Vega 56. Als die Karten herauskamen 2017, lag immer die GTX 1070 immer einen Tucken vorne. Mittlerweile hat sich das Blatt gewendet, Vega 56 ist einen Tucken voraus.

Da wird immer von einem Wundertreiber fabuliert. In Wahrheit passiert das so ca. jedes Vierteljahr, daß AMD noch ein paar Prozente Leistung herauskitzeln kann. Bei NV passiert das in der Regel innerhalb eines Jahres, danach ist meistens Schluß mit den Verbesserungen. AMD optimiert und fixt aber über mehrere Jahre. Nvidias Angebot ist immer auf den Moment ausgerichtet, in dem es veröffentlicht wird. Leute die jedes Jahr ihre Grafikkarte wechseln bemerken das in der Regel nicht und sind der Meinung, DAS überlegene Produkt zu besitzen. Ich bin eben jemand, der seine Grafikkarte so lange behalten will, bis sie kaputt geht oder bis sie zum Spielen nicht mehr meinen Anforderungen gerecht wird. Für mich ist das egal, ob die Karte bei erscheinen einen Tucken langsamer ist oder einen Tucken schneller.

Fakt bleibt weiterhin: was auf der aktuellen Geforce Generation irgendwann nicht mehr läuft, das läuft auf der aktuellen AMD Generation irgendwann auch nicht mehr. Ein paar Prozent mehr oder weniger FPS machen dann keinen entscheidenden Unterschied.
 
Dann schau dir mal die Leistungsbewertungen an am Beispiel GeForce 1070 vs. Radeon Vega 56. Als die Karten herauskamen 2017, lag immer die GTX 1070 immer einen Tucken vorne. Mittlerweile hat sich das Blatt gewendet, Vega 56 ist einen Tucken voraus.

Da wird immer von einem Wundertreiber fabuliert. In Wahrheit passiert das so ca. jedes Vierteljahr, daß AMD noch ein paar Prozente Leistung herauskitzeln kann. Bei NV passiert das in der Regel innerhalb eines Jahres, danach ist meistens Schluß mit den Verbesserungen. AMD optimiert und fixt aber über mehrere Jahre. Nvidias Angebot ist immer auf den Moment ausgerichtet, in dem es veröffentlicht wird. Leute die jedes Jahr ihre Grafikkarte wechseln bemerken das in der Regel nicht und sind der Meinung, DAS überlegene Produkt zu besitzen. Ich bin eben jemand, der seine Grafikkarte so lange behalten will, bis sie kaputt geht oder bis sie zum Spielen nicht mehr meinen Anforderungen gerecht wird. Für mich ist das egal, ob die Karte bei erscheinen einen Tucken langsamer ist oder einen Tucken schneller.

Fakt bleibt weiterhin: was auf der aktuellen Geforce Generation irgendwann nicht mehr läuft, das läuft auf der aktuellen AMD Generation irgendwann auch nicht mehr. Ein paar Prozent mehr oder weniger FPS machen dann keinen entscheidenden Unterschied.
Nein. Nvidia Treiber sind einfach von beginn an besser optimiert, so dass später nicht mehr viel Spielraum nach Oben ist.
Und immerhin sind von 100 diskreten verkauften Grafikkarten, 87 von Nvidia über den Ladentisch gegangen. AMD verkauft also lediglich 17 Stück zu 83 / Nvidia. Hätte Nvidia auch bei TSMC fertigen lassen wäre das wohl nicht so. Die Fertigung bei Samsung war wohl eine sehr gute Entscheidung. AMD verliert im diskreten Grafikkartenmarkt immer weiter an Boden. AMD macht sehr guten Umsatz mit den IGPU`s in den Konsolen und den neuen CPU`s.

Quelle: "https://www.computerbase.de/2021-08...d-verliert-weiter-an-boden-gegenueber-nvidia/"
 
Nein?!

Das mit den Marktanteilen halte ich für reines Marketinggewäsch. Nirgendwo findest du Zahlen darüber, wieviele GPU jetzt wirklich verkauft wurden. Manche Händler bieten das, aber repräsentativ ist das nicht, weil die meisten Anbieter, Hersteller und Händler keine verlässlichen Aussagen dazu abgeben. Bei den Marktanteilen wird so gut wie immer auf die Steam Hardware Survey verwiesen. Das spiegelt aber nur den Anteil der Steam Spieler wieder, die auch an dieser Umfrage teilnehmen. Die Leute, die dort nicht mitmachen oder Steam kaum bist überhaupt nicht nutzen, bleiben dort außen vor, ergo: nicht Repräsentativ für den gesamten Markt.

Selbst wenn es so wäre, warum glauben die Leute immer, das ein Gerät vom Marktführer jetzt den Geräten der Nicht-Marktführer überlegen ist?

Der von dir verlinkte Artikel zeigt es sowieso: dort wird glatt behauptet, Intel dominiert den GPU Markt. Diese Aussage ist absolut lächerlich und komplett NICHT auf Spielegrafikkarten bezogen.
 
Zuletzt bearbeitet:
Das mit den Marktanteilen halte ich für reines Marketinggewäsch.
Lol, Gewächsch ist in dem Falle eher deine Aussage. Martkanalysten verdienen mit derartigen Analysen ihr Geld und die würden sicherlich nicht so lange am Markt bestehen, wenn die nur "heiße Luft" verkaufen würden, insbesondere, da das in diesem Fall gar ihr Kerngeschäft ist.
AMD hat schon länger einen Martkanteil von gerade mal um die 20 % sowohl bei AIBs als auch bei dGPUs allgemein (bzw. gar konkret derzeit leicht darunter), das ist schlicht so und dementsprechend sind seine obig dargelegten Zahlen grob zutreffend. Der Markt kauft überwiegend nVidia-Hardware und das schon seit langem und daran hat RDNA2 auch nichts geändert. *)
Ob man das mag oder nicht, ist dagegen ein vollkommen anderes Thema und das hat rein gar nichts mit der vorherrschenden Sachlage zu tun.

*) Beziehungsweise AMD hat gar in den letzten drei, vier Quarten noch weitere Marktanteile verloren (trotz RDNA2).

Selbst wenn es so wäre, warum glauben die Leute immer, das ein Gerät vom Marktführer jetzt den Geräten der Nicht-Marktführer überlegen ist?
Die Frage stellt sich gar nicht, es ist schlicht so. Abseits dessen stellst du bzgl. dem Konsumverhalten voraussichtlich aber auch eher die falschen Fragen. Alternativ mindestens gleichwertige Fragestellungen wären:
  • Warum sollte man annehmen müssen, dass die Martkführerschaft nicht auch durch Features, Specs oder andere Kriterien begründet ist?
  • Warum sollte man, wenn nichts groß zu Hersteller A oder B ausschlägt, nicht den einfachen Weg gehen und bei Marktführer zugreifen?
  • Warum sollte man, wenn man eine gewisse Präferenz für Raytracing hat, zum Underdog greifen, der hier deutlich schwächer aufgestellt ist?
Consumverhalten ist weitaus komplexer als das in diesem Forum von AMD-Fans gern simplifizierte "Balken X ist deutlich höher als beim Marktführer, also wird der Marktführer mit der Einführung dieser neuen Produktgeneration nun nichts mehr absetzen können und AMD wird zwangsweise der neue Marktführer werden." Derartige Vorstellungen sind schlicht naiv, bzw. diese Erwartrungshaltung ist kategorisch falsch.
Das beste Beispiel ist in diesem Falle gar RDNA2, dass AMD anscheined gar nicht imn relevantem Umfang in die Gamer-Basis zu bekommen scheint, wenn man sich bspw. Steam ansieht, ja, ja, ich weiß, auch die verdienen ihr Geld ja angeblich nur damit, dass sie sich irgendwelche Statistiken mit Zufallsdaten ausdenken. ;-) Und hier fallen die Vergleiche zwischen RDNA2 und Ampere gar noch deutlich schlechter für RDNA2 aus und das obwohl ja so viele immer wieder behaupten/ten, dass Ampere ja größtenteils bei Minern landet und Gamer davon ebenfalls nichts haben.

Der von dir verlinkte Artikel zeigt es sowieso: dort wird glatt behauptet, Intel dominiert den GPU Markt. Diese Aussage ist absolut lächerlich und komplett NICHT auf Spielegrafikkarten bezogen.
Das Problem hier ist schlicht, dass du hier nicht verstehst, was die konkrete Statistik ausweist. Die Statistik selbst ist vollkommen korrekt und übringens seit Jahren in dieser Form grob unverändert, weil sich an der Martkaufteilung hier nichts groß geändert hat. Du hättest dir nur die Mühe machen müssen zu verstehen, was da ausgewiesen wird, aber das blieb dir wohl verwehrt, da dein Bias hier gleich Alarm schlug und dir eine Aufnahme der dargebotenen Informationen verwehrte.

Diese konkrete Statistik (JPR bietet hier nur bruckstückhafte Teaser-Daten an, da da ihren vollständigen Quartals-Report für rund 3000 US$ verkaufen), weist ausgelieferte GPUs insgesamt aus, unabhängig vom konkreten Produkt. Bei Intel haben nahezu alle Consumer-Produkte eine iGPU (und selbst einige Xeon's verfügen über eine iGPU), sodass Intel hier in dieser Statistik schlicht die unangefochtene Führung übernimmt, was schlicht an deren extrem hohen Fertigungsvolumen liegt.
Und auch wenn es möglicherweise auf deine Tränendrüsen drücken wird, aber in dieser Statistik müsste man AMDs 16,5 % auch deutlich zusammenstauchen, denn da sind sämtliche GPU-Produkte von AMD ausgewiesen, also alle APU, sämtliche CPUs, reguläre GPUs (vermutlich gar inkl. Datacenterprodukten), jedoch insbesondere inklusiver aller aktuell gefertigten Konsolen-SoCs, die einen sehr hohen Anteil bei AMD einnehmen.

Da JPR vorrangig seinen Report verkaufen will, muss man bzgl. weiterer Brotkrumen zumeist immer etwas warten, aber ich kann dir zumindest zum Abschluss 1Q21 präziseren Daten auf Basis von deren Analysen liefern (der Rest entfällt auf nVidia).
  • AddInBoards-Anteil AMD: 20 % (SKUs ~ 2,36 Mio.)
  • d(edicated)GPUs allgemein *), Anteil AMD: 19 % (SKUs unbekannt, JPR hat den Wert bisher noch nicht frei veröffentlicht)
*) Also in Form von PCIe-Karten aber auch in Form von mobilen dGPUs.

AMD hat in den letzten Jahren im GPU-Markt zunehmend Martkanteile an nVidia **) verloren und der Trend hält nach wie vor an. In 2Q19 hatten sie bei dGPUs noch einen Antei von 29 %, in 1Q21 lagen sie nur noch bei 19 %. Ein Release wie RDNA2 kann da keine kurzfristigen Änderungen in relevantem Maße herbeiführen, zumal AMD die GPU-Fertigung auch runterpriorisiert zu haben scheint.

Am Ende bleibt es schlicht dabei: Der PC-(Consumer)-Markt kauft weitestgehend nVidia-GPUs, insbesondere zum aktuellen Zeitpunkt.

**) Einzig in der Gesamtstatistik, in der auch Intel enthalten ist, kann sich AMD stückzahlmäßig mit nVidia messen, weil hier auch ihre Konsolen-SoCs miteingerechnet werden.

***) Ergänzend: Ich habe mir gerade JPR's aktuelle Original-News angesehen (die als Teaser zum Verkauf des Reports dient). AMD verliert bei dGPUs sogar auch in diesem Quartal 2Q21 weitere Marktanteile an nVidia. Ihr Anteil liegt bei mittlerweile nur noch gerundeten 17 %.
 
Zuletzt bearbeitet:
"nVidia so gut wie tot"
Ja AMDs Produkte sind so gut, dass 83% bei der Konkurrenz kaufen.
Die Steam Hardware Survey bescheinigt sogar eine noch niedrigere Marktdurchdringung (insbesondere bei RDNA2). Es gibt also keine Quelle die AMD bei >20% Marktanteil sieht.

Dass MCM Einiges ändern wird denke ich auch. Aber dass AMD bei Software aufschließen wird denke ich nicht. CUDA ist weiter Industriestandard und was nVidia an Forschung im Deep Learning-Bereich betreibt ist wirklich zukunftsweisend. Da gab es z.B. gerade eine Demo, die auf einer 3090 eine Architekturszene in Echtzeit bei 45 fps rendern konnte – ohne Rasterisierung.
AMD wird die Erfahrungen aus dem CPU-Bereich super umsetzen können. Allerdings wird der IF sehr viel Bandbreite haben müssen und damit auch im Idle viel Strom verbrauchen. Bei GPUs gibt es noch nicht so ausgeklügelte Stromsparmechanismen wie bei CPUs. Und das Zusammenkleben der Chips ist auch teuer. Es gibt also genügend Hürden warum nicht automatisch alles besser als bei nVidia werden wird.
 
Spielegrafikkarten generell liegen im Sterben. Ich spekuliere mal, daß es diese in ein paar Jahren nicht mehr geben wird.

Schaut euch an, was momentan in der UE5 abgeht mit dem Nanite Renderer. Der ist als reiner Softwarerenderer mit Computebeschleunigung 2x so schnell wie ein konventioneller Renderer, der exklusiv GPU Funktionen nutzt. Schaut euch DirectX12 Ultimate an, konventionelle Grafikfunktionen werden zunehmend durch Computefunktionen ersetzt. Bei Vulkan ein ähnliches Bild, da wird noch mehr auf Compute gesetzt, als mit DirectX.

Ich denke mal, daß es in spätestens 10 Jahren nur noch Systeme geben wird, wie sie schon nächstes Jahr auf den Markt kommen sollen, z. B. der schon gezeigte Ryzen 6000 mit dem großen Cache. Diese CPUs sind schnell genug für einen Softwarerenderer wie eben Nanite, haben einen großen Cache, um die dort benötigten, großen Datenstrukturen schneller zu verarbeiten.

Intels neu angekündigte Xe2 Grafikbeschleuniger sind wahre Compute-Monster, was die Rechenleistung angeht.

Als Grafikausgabe wird bloß noch eine rudimentäre GPU auf der CPU gebraucht, mit einem Videoprozessor für die Multimediageschichten. Dazu braucht man dann noch einen Computebeschleuniger für die schnellen Berechnungen für Videospiele und Programme. Wer dann da das Hardware-Rennen macht, ist mir ziemlich EGAL.
 
Zuletzt bearbeitet:
Es gab einen Artikel und ein Video. MCM hatte ich schon 2020 vor über einem Jahr angekündigt undn alle haben mich danach runtergemacht :D
Ohh ok dann hab ich dein Beitrag/Video wohl übersehen hierzu ;)
Dann nehm ich das natürlich zurück das igor hierzu nichts gebracht hat

Ich bin nur mal gespannt ob du recht behältst ?
Worauf ich am meisten allerdings gespannt bin is wenn es kommt ob es die Leistung dann auch auf die Straße bringt

War ja in der Vergangenheit auch so das amd mehr rohleistung hatte allerdings die ps nicht auf die Kette bekam
 
Es liegt größtenteils an der Software, ob diese Rohleistung auch genutzt wird oder nicht.

Auf jeden Fall hatte Bruce Dell von Euclideon nicht gelogen, als er damals seine neue Grafikengine vorgestellt hat, mit der Behauptung: "This will change the whole gaming industry." Da geht die Reise hin.
 
Auch wenn ich klarer Verfechter davon bin, keinen einzigen € aktuell für GPUs auszugeben um Hersteller/Händler und co in ihren kranken Preiswahn nicht zu supporten.
Klar, sehe ich auch so.
Der Punkt ist einfach: Du wirst es [durch Verzicht] nicht ändern und ich auch nicht. Das Argument "aber wenn alle so denken" was dann immer kommt ist einfach keins und wird auch nie eins, weder bei Grafikkarten noch bei anderen Themen wie grade populär dem Klimawandel.

GPU-Preise (genau wie CO2-Ausstöße) werden durch übergeordnete Marktprinzipien gesteuert die nicht durch Verzichte von einzelnen oder belanglos kleinen Gruppen (wie ein paar frustrierte User bei PCGHX oder ein paar Millionen Grünen in Deutschland) beeinflusst werden können, auch wenn diese Gruppen sich das gerne wünschen oder sich gar besser/bedeutend fühlen wenn sie so handeln.

Ich habe auch keine RTX3000/RX6000 gekauft. Aber nicht weil ich irgendwem eins auswischen will oder irgendwie glaube dadurch was beeinflussen zu können - sondern einfach weil ich aktuell keinen Sinn darin sehe 1000+€ auszugeben für die paar Stunden im Jahr die ich noch Zeit zum zocken habe. Das war 2016 rum noch anders als ich 1400€ für ne Titan+Waküblock hingelegt habe.

Mal sehen ob sich das 2023 geändert hat wenn die nächste Generation ansteht - oder anders gesagt obs dann ein vertretbares Angebot [für mich] gibt.
 
Mal sehen ob sich das 2023 geändert hat wenn die nächste Generation ansteht - oder anders gesagt obs dann ein vertretbares Angebot [für mich] gibt.
In 2023 gibt es nur einen der eine neue Generation vorstellen wird. ;-)
Nach bisherigem Vernehmen werden AMD und nVidia wohl noch in 2022 ihre NextGen vorstellen, dass heißt in 2023 gibt es von denen bestenfalls einen Refresh.
 
Schon möglich :-D

Das genaue Datum ist aber ziemlich egal so lange meine aktuelle 2080 nicht krepiert. Ich bin da ziemlich entspannt, mal sehen was da kommt und wie teuer und verfügbar es wird. Ob NV oder AMD ist mir völlig egal, kommt aufs Angebot an. :-)
 
Macht auch 0 sinn. Dann lieber in die bessere Technik Ressourchen reinpumpen, neu ist immer Besser, oder gehören die anderen alle zum "ewig gestrig" Verein :D


Bin seelisch auf 3500€ vorbereitet.
Hoffe Jensen legt dann dieses mal ein Replikat seiner Lederjacke, handsigniert selbstverständlich bei.
Erwarte ich bei ner etwaigen RTX 4090 auch! xD


Klar, weil jeder ein Idiot ist (mich eingeschlossen) und für >2K ne Graka kauft....
Man kriegt das Zeug schon her, Hobby hin oder her, es ist sau teuer und in jeder Hinsicht verwerflich ob man jetzt die Kohle hat oder nicht....
Ich habe meine 3090 Trio X im September letzten Jahres gekauft, für 1849.- das ist schon fast 1 Jahr her ! Das ist Wahnsinn wie die Zeit vergeht
ahhhhh Top :-)
 
Das stimmt. Aber diese Gen. wird eh nicht mehr zur UVP angeboten. Also spar ich mir das ganze und bekomm nächstes Jahr noch ordentlich mehr Leistung zum selben Preis.
Von meiner GTX 1080 zu ner RTX 3070/80 würde es sich leistungsmäßig schon lohnen (mal vom schmalen Speicher der Ampere's abgesehen). Nuja, mal schauen wie lang die olle Pascal noch durchhält...

Dann müsste eh was neues her. Die gesalzenen Preise stoßen mir allerdings sauer auf. Es geht nicht um die Kohle, es geht um's Prinzip.

Gruß
 
Schon möglich :-D

Das genaue Datum ist aber ziemlich egal so lange meine aktuelle 2080 nicht krepiert. Ich bin da ziemlich entspannt, mal sehen was da kommt und wie teuer und verfügbar es wird. Ob NV oder AMD ist mir völlig egal, kommt aufs Angebot an. :-)
Alles gut, mir gings ja nur um die Korrektur der Jahreszahl. Nach aktuellem Stand sieht es danach aus:

1HJ22 : Intel mit Alchemist
2HJ22 : nVidia mit Lovelace und AMD mit RDNA3
2023 : Intel mit Battlemage (inoffizieller Projektname "Elasti")
2024 : nVidia und AMD mit jeweils ihrer NextNextGen

... wenn die beiden grob in ihrem 2-Jahres-Rythmus bleiben. Wie Intel weiter vorgehen will, kann man aktuell noch nicht abschätzen. Wenn sie aggressiv vorgehen, könnte Celestial bereits in 2024 folgen, wenn die bereits nach Battlemage in ein größeres Intervall zurückfallen, würde Celestial ggf. erst 2025 erscheinen.
 
Zuletzt bearbeitet:
Das Fazit des Artikels legt quasi nahe, dass keine Konkurrenz von Intel zu erwarten ist. Dabei sollten die doch Mitte/Ende nächsten Jahres dick im dGPU business sein
 
Zuletzt bearbeitet:
Zurück