Eigentlich nicht.
Erstmal ist es ziemlich schlecht wenn so oft und regelmäßig Fixes kommen, weil dann bedeutet es, dass sehr viele Fehler vorhanden sind.
Sowohl in AMDs, als auch in NVIDIAs Treiber stecken hunderte, eigentlich eher tausende Fehler.
Die Frage ist durchaus: wie schnell werden sie gefixed.
Nvidia released öfter Treiber. Das heißt noch nichts. Die Frage ist halt wie viele Fehler addressiert man dabei, wie schnell reagiert man, wie gut wird der neue Treiber evaluiert (wird nur schnell einer rausgerückt, der 10 neue Fehler reinbaut aber nur 5 entfernt?).
Ich selbst habe eine Zeit lang entwickelt, und getestet. Viele Fehler sind in den Tests einfach nicht rausgekommen (Laborbedingungen und das war uns auch klar. Das Testdesign das wesentlich mehr Fehler gefunden hätte, hätte auch mehr gekostet).
Also "reifen" alle Produkte bis zu einem gewissen Grad beim Kunden. Beispiel auch Apple iPhones und iOS, die jedes Jahr aufgrund von Feedback und Fehlermeldungen verbessert werden.
Andersherum müsste man, da gebe ich dir in der Intention recht, natürlich schauen ob bei AMD ebenso viele Fehler vorhanden sind und einfach nicht gefixt werden.
Also egal ob AMD, Nvidia, Apple Intel, Microsoft... alle haben zigtausende Fehler drin, manche sind winzig klein und vernachlässigbar oder es nicht Wert Code großartig umzuschreiben und dafür vielleicht neue Fehler zu produzieren.
Bei jeder dieser Firmen wird intern natürlich entschieden, wie man vorgeht, und ich kann dir aus der Vergangenheit sagen, dass AMD damals vielleicht aus Budgetären Gründen sich oft dazu entschieden hat Fehler NICHT zu beheben. Und das wird jetzt in kleinerem Rahmen immer noch so sein.
Da ich aber aktuell AMD nutze und seit nunmehr zwei Jahren nur einen einzigen Fehler im Treiber hatte, der nach zwei Tagen gefixt wurde (gab mal eine Geschichte, wo sich der Installer verabschiedet hat und danach ein wenig Chaos im System herrschte), kann ich aus meiner Erfahrung heraus nicht sagen, dass AMD hier eine längere Zeitspanne mit Nicht fixen von Problemen begibt.
Das mit dem Installer ist mir bis heute übrigens ein Rätsel. Ich nutze jetzt bald 20 Jahre ATI/AMD privat, aber alle "heiligen Zeiten" verhaut der Installer/Uninstaller etwas und ich darf mit DDU im abgesicherten Modus hochfahren...
Sicherlich ist dies nicht wissenschaftlich korrekt ermittelt, aber wie gesagt, diejenigen die einfach rauf und runter beten, dass Nvidia den besseren Treiber hat und weniger Fehler, haben gerade aktuell nichts in der Hand, womit sie dies auch nur im Ansatz belegen könnten.
Ich habe nachgesehen. Es gibt tatsächlich frei verfügbar wenige bis keine Hinweise, weder bei NV als bei AMD.
Es gibt halt keine Fehlerstatistik die offen liegt.
Aber Firmen in gewissen Bereichen greifen bewusst eher zu Nvidia, wegen Zuverlässigkeit/Support etc.
Dasselbe bei Intel btw. Nicht deren Grafikchips natürlich, sondern generell die Plattform. Auch hier wirst du nie eine offizielle Statistik finden, das kann ich dir halt auch nur aus der Beobachtung von meiner Zeit bei 2 OEMs schildern, da hatten wir intern sehr wohl Daten von Millionen von Computern und nicht nur "ich kenne einen Freund...". Das kann sich natürlich alles längst geändert haben, in letzter Zeit liest man ja von beiden Herstellern sehr oft von Stabilitätsupdates für BIOS und es ist wohl auch nicht förderlich, wenn diverse YouTuber/Reviewer wie Linus sagen diverse Tests waren aufgrund ständiger Abstürze auf Plattform XYZ nicht durführbar (siehe 8K Tests auf der 4090).
Da sei die Frage einfach gestattet, welcher UseCase ist das aktuell?
Beim Systemhersteller wirst du mit Fehlern konfrontiert die mitunter extrem selten sind und in nur ganz wenigen Usecases auftreten.
Eigentlich waren das eben hauptsächlich Fehlerrückmeldungen von Usern die meist eher der Marke "Average Joe" waren. Also ganz normale Usecases eigentlich.
Bei der 780G Causa waren das: Ruckelnde Videos, abstürzende Systeme...
Bei Ilano warens der fehlende BD3D Support der auf der Packung noch angepriesen war usw usf...
Aktuell bin ich im Forschungsbereich für die Fakultät tätig. Wir haben aber verschiedenste Abteilungen. Nicht direkt ich, aber Freunde testen etwa Chips bevor sie auf den Markt kommen... zu den Kunden gehören etwa auch AMD, Nvidia, Intel Apple... aber auch unbekannte (vor allem). Testen auf der Uni ist günstig für Firmen. Andere Abteilungen bauen am Supercomputer rum...
Ich selbst bewege mich aber immer weiter weg von der Forschung zu Themen wie Testing oder Programmieren und interessiere mich wieder mehr für den Menschen (ich habe auch einen Abschluss in Psychologie), werde wohl im Bereich Lehre oder Psychologie weiter machen. Das gute ist, dass wir so viele Projekte haben wo wir mitwirken können, dass ich mir stets das raussuchen kann, was mich gerade interessiert und dort mitarbeiten.
Am Beginn durfte ich etwa kleine Mini-Programme schreiben die nichts anderes tun, als zu überprüfen ob Hardware richtig rechnet. Als Beispiel haben wir da etwa den R600 über 10 Monate vor Release als "Radeon 2900XT" getestet, so passiert das auch heute noch. Ein(e) Ada lag bei uns (nicht bei mir direkt, aber bei Kollegen im Stock unter uns) schon im Früjahr "nackt" am Tisch und man hat unter anderem geschaut, ob sie auch wirklich brav addieren kann...
Aber zum Henne-Ei Problem nochmal:
Die Firmen und sämtliche unserer Partner setzen bei GPUs (sofern sie welche haben) oder HPCs auf Nvidia, bei CPUs auf Intel.
Weil das fast alle Firmen so machen, kriegen Nvidia, Intel halt viel mehr Feedback von Bürokunden als AMD. Es werden also mehr Fehler gemeldet, es sind daher mehr bekannt, es werden aber auch mehr behoben. Es werden mehr Use-Cases ausprobiert und somit sind die Treiber eben auch dadurch besser. Aber nicht nur die Treiber. Weil halt Software eben dann auf Nvidia/Intel PCs eher getestet wird, funktioniert oft auch die Software besser auf jener Hardware.
Bei Spielen ist dies ähnlich, aber nicht gleich: Entwickler testen am PC halt hauptsächlich auf Nvidia-Systemen. Wobei hier der Nachteil für AMD nicht 80-10-10 (Nvidia, AMD, Intel) ist, sondern wesentlich ausgeglichener. Zumindest nehme ich das an, weil Entwickler mit AMD sowieso aufgrund der Konsolen zusammenarbeiten
Da widerspreche ich dir auch gar nicht, dass NV auf Grund ihrer schieren Größe einen besseren Support liefert. Das ist aber nunmal nicht mein UseCase und von niemand anderem hier im Forum!
Wie gesagt: ich spreche nicht von den reinen Gamingtreibern. Da mag AMD hinterherhinken aber nicht weit (was Features betrifft etwa ist der Abstand nicht groß und manche hat man sogar zuerst).
Aber der Use-Case ist auch ganz normale PC Benutzung (Office), wo es in der Vergangenheit bei AMD mehr Probleme gab als bei Nvidia (und am wenigsten übrigens bei Intel). Aber ja, Nvidia hat aufgrund ihrer Größe und Marktanteil einen Vorteil bei den "speziellen" Use-Cases. Die User von "Randgruppen" greifen meist aufgrund der (in der Vergangenheit?) höheren Treiberstabilität zu NV. Dadurch kriegt NV auch mehr Daten und bessert dort eher nach.
Einige Freunde sind Flugsimulatorfans und dort ist in der Community die Regel: Nvidia oder gar nichts.
Auch da tut sich ja immer mal wieder was und wie groß der Aufschrei hier manchmal ist, wenn ein Spiel mit AMD Support in die Benchmarks aufgenommen wird. Aber andere Sache. Ja, Nvidia hat durch ihre Größe und ihren Marktanteil eine deutlich höhere Verbreitung in dem Bereich und dadurch werden mehr Spiele supportet und "gesponsort", daher eigentlich noch mehr Lob an AMD, dass man dennoch so gut mithalten kann.
Ich finde absolut beeindruckend was dieses vergleichbar kleine Team in den letzten Jahren geschafft hat.
Vor allem tut sich gefühlt seit der Adrenalin-Initiative bei AMD mehr als bei Nvidia.
Wenn man bspw. sieht, dass FC6 ein AMD optimiertes Spiel ist und die 6900XT dort die 3090 regelmäßig geschlagen hat, macht so eine Optimierung schon sicherlich 10-15% aus und wenn dies in 90% der Spiele auf Seiten NV liegt, kann man vor AMD nur den Hut ziehen.
Absolut. Ich denke da steckt noch viel drin. Gegen Ende eines Konsolenlebens sehen wir immer Spiele die eigentlich großartig aussehen, dafür, dass es ein Spiel ist, das auf einer 7-8 Jahre alten Konsole läuft (und schon damals keine Highend- Hardware hatte).
Wir werden also in 5 Jahren sehen, wozu ein Mittelklasse RDNA2 Chip (noch dazu ohne Cache AFAIR) fähig ist.
Ich hoffe, dass die neuen Konsolen dann mit ordentlich RTRT Power daherkommen, damit hier endlich ordentliche Bewegung reinkommt.
Sei mir nicht böse, wenn ich das nun abkürze, aber es ist und bleibt für den UseCase normaler Gamer eine Mär, dass Nvidia besser ist als AMD!
Das müsste man halt testen indem man Bugs reportet und schaut, wie lange es dauert bis er gefixt ist.
Es ist kein Märchen, dass Nvidia hier mehr Leute hat und warum sollte das für Spieler nicht interessant sein, wie schnell Bugs aufgenommen, analysiert, behandelt und behoben werden.
Wenn ähnliche Bugs, die Nvidia jetzt innerhalb kurzer Zeit in gleich mehreren Patches behoben hat, bei AMD auftreten wissen wir das vielleicht noch gar nicht, weil die vielleicht langsamer reagieren können (aufgrund geringerer Besetzung/Ressourcen). Dann wissen wir vielleicht erst in Monaten über die Geschwindigkeit des Treiberteams. Mein voriger Post zeigt zumindest, das was du aufzeigst: Nvidia released in kürzerer Zeit mehr Treiber und Bugfixes. Was wir nicht wissen: ob man auch mehr Bugs hat, oder ob man nur mehr Bugs fixed bzw. mehr reportet werden aufgrund der 5-10x so hohen Userbasis (bezogen auf Desktopgrafikkarten).
Jeder Hersteller hat mal gute und mal schlechte Karten dabei, die aktuelle Gen ist bei beiden gut!
Ja sind beide sehr performant, wobei ich mir von den Radeons mehr erhofft hätte
Insgesamt aber eh uninteressant für mich, keine der Karten passt in mein (sehr enges) Schema: Performant, Stromsparend, Kostengünstig.
In der letzten Gen fand ich persönlich die Nvidia Karten extrem enttäuschend, ihre Mehrleistung zur Vorgängergen beschränkte sich ja fast ausschließlich auf Mehrverbrauch und RT!
Was gar nicht so verwunderlich ist: Nvidia hat 2016 den 16nm Prozess bemüht, 2018 ebenfalls (den verbesserten namens 12nm, aber immer noch ein 16nm Prozess) und 2020, also die Geforce 3xxx war ein 10nm Prozess, während AMD hier den wesentlich überlegenen 7nm Prozess genutzt hat.
Dass Nvidia einen großen Sprung macht war also irgendwie klar. Dass AMD sich mehr strecken muss, weil man nicht von 10 auf 5 sondern von 7 auf 5nm springt und vorher etwa gleichauf war, war auch klar. Man hat halt gehofft, dass man dank MCM mehr Flexibilität hat (stimmt auch, aber genutzt ist sie komischerweise noch nicht). Somit ist die 7900 ein bisschen seltsam, weil sie aus lauter einzelnen Bausteinen besteht, aber eben keine unterschiedlichen Baureihen daraus entstehen. Es scheint eben günstiger zu sein die kleineren Chips monolithisch zu fertigen
Noch zumindest.
AMD dagegen hat mit RDNA 2 einen riesigen Schitt gemacht, der RDNA 3 Schritt fällt dagegen deutlich geringer aus
ja siehe oben:
RDNA2= RDNA1 + Cache + RT + neuer, besserer Prozess - da war auf allen Seiten Verbesserung.
RDNA3 bringt bis auf das MCM Design wenig architektonische Neuerungen, ein neuer Prozess ist dabei, der Sprung vorwärts im Vergleich zu Nvidia ist klein.
Spannend wirds also wieder mit 3nm. Beide werden diesen Prozess benutzen. Nvidia wird eine deutlich überarbeitete Architektur bringen, AMD wohl auch, denn sonst wird es schwer Nvidia zu schlagen. Und wenn Intel dran rückt, rücken die auch näher.
Vielleicht auch mal im eigenen Prozess dann, wohl aber erst 2026, wenn man selbst schon High-NA Anlagen im Betrieb hat, die Konkurrenz auf die damit möglichen Prozesse aber noch nicht Zugriff hat.