News AMD: Konkurrenz für RTX 4090 auf RNDA-3-Basis wäre möglich und nicht sinnvoll

Ja agree aber die Leistung interessiert nur High End User die dann 4090 Kaufen otto normal Bürger außerhalb der Forenwelt kauft nach P/L oder aber weil haben will, wie mein Junior.
und will mehr Leistung, die lange Nutzbar ist.
Natürlich geht es um Leistung die lange haltbar ist.
Aber hier ist die aktuelle AMD Preislage schief, denn die Nvidias was Preis/Leistung betrifft auf einem ähnlichen Niveau - beim Rastern.
Und falls man doch (weil man sie eben lange behalten möchte) Raytracing mal benötigt, ist Nvidia derzeit die deutlich bessere Wahl
Mein Junior (14) z.b. hatte zu Weinachten auch 600Euro zusammen gespaart und wollte unbedingt eine RTX3070TI haben gab es aber nicht unter 680 wollte Kredit haben, hat er aber nicht bekommen, jetzt wo er sie bekommt für sein Geld hab ich Ihm angeboten kauf Dir eine 12GB Karte und bekommst 50EUR dazu oder warte bis Weinachten und es gibt 100/150euro für eine 12/16GB karte dazu.
Nun wartet er auf die 4070 und Preis tendiert aber zur 3060-12GB + großem Monitor.
Rechner ist ein Celeron mit 16GB und 1050ti-4GB 17´ LCD den er zum 10 Geb bekommen hat.
selbst der kleine sieht nun ein das eine 3060-12GB für 270 (incl. 50zuschuss) das bessere angebot ist wie eine 3070TI für 580
Finde die Preise aktuell zum Kotzen, toi toi toi dem Junior beim GPU Kauf
 
ob du die 15-20ms mehr wirklich merkst.. ich hab da meine zweifel weil ich tue das nicht.. was ich jedoch merke ist wenn das Bild aufgrund der hohen Bildrate bedeutend flüssiger und smoother ist auf einem highrefresh Display
Die 15-20ms merke ich! Gerade bspw. bei F1 merke ich den Unterschied zwischen AntiLag an oder aus schon recht deutlich, dagegen spiele ich bspw. offline in F1 eher mit weniger FPS dafür höherer Grafikqualität, während ich online tatsächlich alles deutlich runterschraube und eher in Richtung 200fps (allerdings FreeSync auf 144Hz Monitor Refresh) gehe um zusätzlich noch einmal geringere Latenzen zu haben. Mir geht es dabei aber wirklich zu 100% um die Latenz und zu keinem Zeitpunkt um das Bild, denn da sage ich offen und ehrlich, dass ich 70 zu 140fps nur einen minimalen Unterschied wahrnehme. Für mich geht es bei dem Thema in den meisten Spielen eigentlich immer nur um die Latenz.

Wie gesagt, ich will FG nicht verteufeln, aber mein erster Eindruck ist bisher nicht wirklich gut. Ich kann da auch die Reviews nicht so recht nachvollziehen, wir reden seit Jahren über maximale Bildqualität, scharfe Texturen usw. und dann kommt da eine Technik, die nachweisbar lustigste Artefakte auf den Bildschirm zaubert und auf einmal soll so etwas gut sein? Sehe ich nicht, dann lieber die Details eine Stufe runterschrauben (wenn ich mehr FPS brauche) und die FPS so bekommen.
Anti-Lag wirkt nur treiberseitig, wohingegen Reflex applikationsseitig implementiert werden muss und auf die gesamte Renderpipeline wirkt, auch auf die CPU. Das ist ein großer Unterschied.
Anti Lag funktioniert wirkt aber auch auf die CPU, dass dies treiberseitig funktioniert kann man als Fluch und Segen betrachten. AMD geht halt überall, Nvidia nur in ausgewählten Spielen (dabei ist die Liste nachwievor nicht sonderlich lang und die Unterstützung in vielen Titeln nicht wirklich notwendig (FlightSimulator bspw). Allerdings scheint die NV Lösung (vieleicht auch dadurch, dass sie propitär ist) besser zu funktionieren. Insgesamt finde ich die Techniken beider (ohne den technischen Background wirklich zu verstehen, ich weiß, dass die in die Bildqueue eingegriffen wird) interessant und ein richtiger Ansatz.

damit ist gemeint technisch.
Warum ist AMD "technisch" nicht mehr konkurenzfähig? Wir können den Spieß gerne umdrehen, denn eigentlich ist Nvidia technisch nicht konkurenzfähig und hinkt der nunmal zukunftsträchtigeren Lösung (so lange belichtet werden muss) hinterher!
Kann man nicht einfach akzeptieren, dass beide Hersteller aus unterschiedlichen Gründen einen anderen Weg gehen? Ich meine 2016/17 war es das gleiche mit Ryzen, die einen voll des Lobes, die anderen haben den technischen Weg verteufelt und AMD den nächsten Bulldozer vorausgesagt (insbesondere blaugestrickte), AMD hat aber recht offensichtlich bewiesen, dass dieser Weg keine Sackgasse ist und durch konsequente Verbesserung den Riesen nicht nur herausgefordert, sondern ihn ziemlich deutlich geschlagen (immer nur temporäre Aussagen). Das gleiche wird mit dem MCM Design im Beriech der GPUs passieren, ob Nvidia dann geschlagen wird, bleibt natürlich abzuwarten. Aber AMD hat nunmal dann auch schon wieder Vorsprung und Erfahrung, ob NV das mit dem Overhead an Mitarbeitern kompensieren kann, bleibt abzuwarten.
Aber hier ist die aktuelle AMD Preislage schief, denn die Nvidias was Preis/Leistung betrifft auf einem ähnlichen Niveau - beim Rastern.
Sind sie nicht!
Rastern liegen die Radeons vorne (nicht viel) sind dabei aber günstiger. Dazu kommt das mehr an Speicher und VRAM!

Nvidias Karten sind aktuell in der Gesamtsicht vorne, eine 4070Ti würde mir aber schon nicht ins Haus kommen, da halte ich die Angebote von AMD für langfristiger. 16GB VRAM sind für mich bei einem Kauf in der Leistungsklasse aktuell gesetzt. Für RT ist solch eine Karte schon zu langsam und leistungstechnisch würde ich wahrscheinlich eher in Richtung 6900XT tendieren, für 150EUR weniger gibt es 5% weniger Rasterleistung, dafür aber 4GB VRAM mehr! Fürs gleihce Geld gibt es eine 7900XT mit 10-15% mehr Rasterleistung und mehr VRAM. Sehe bei den Preisen um 850 EUR keinen Sinn hinter der 4070Ti, sorry! Die 4080 dagegen ist 100 EUR teurer als die 7900XTX, bietet nahezu identische Rasterleistung und mit 16GB VRAM (weniger aber ausreichend) ein sehr gutes Paket, P&L technisch würde ich beide Karten auf einem Level sehen und auf Grund des Featuresets (wobei DLSS 2.x hier für mich interessanter ist) eher zur NV greifen. Die 4090 ist außerhalb des gesunden Menschenverstandes und zu teuer, P/l ist indiskutabel (Halo Produkt, ich weiß, aber sowas kommt mir (subjetive) nicht ins Haus), dafür ist es unangefochten die beste Karte auf dem Markt!

Und falls man doch (weil man sie eben lange behalten möchte) Raytracing mal benötigt, ist Nvidia derzeit die deutlich bessere Wahl
benötigen tut man es nie! Wenn dann will man es haben. Aber abseits einer 4080 macht RT nie Spaß und selbst die 4090 ist im RT zu schwach, als das man nicht wieder Qualität an anderer Stelle opfern muss. RT Psycho in CB2077 nativ ist schon hart an der Grenze zum Ruckeln, das bedeutet wieder DLSS anwerfen. Wenn man sich jetzt aber RT Overdrive anschaut kann man zumindest schonmal erahnen, dass da der dreifache bis vierfache Rechenaufwand hinterstecken wird und dann wird eine 4090 plötzlich nativ bei 15fps rumdümpeln, da kannst du dann in 720p hochskaliert und FG on mit Latenzen von 100ms zocken, viel Spaß dabei.

RT ist aktuell, gerade mit Blick auf die Zukunftstauglichkeit völlig sinnlos in die Kaufentscheidung einzubeziehen. Ja NV bietet die doppelte RT Leistung, nur wird RT mindestens zwei oder drei Generationen nur ein Beiwerk bleiben. Es ist schlicht zuwenig Leistung da um RT wirklich gewinnbringend einzusetzen. Wenn jetzt so "Spielereien" wie RT Overdrive in CB2077 kommen, wird man sehen, dass selbst eine 2k Karte keine Zukunft in Sachen RT haben wird. Dann kaufe ich lieber eine 7900XT und jedes Jahr einfach den Nachfolger (dann auch gerne NV mit 16GB VRAM), hab ich mehr von und kostet mich auf drei oder vier Generationen weniger als einmal eine 4090 zu kaufen, denn die XT kann ich nächstes Jahr sicher noch für 500 EUR weiterverkaufen (eher deutlich mehr).
 
Natürlich geht es um Leistung die lange haltbar ist.
Aber hier ist die aktuelle AMD Preislage schief, denn die Nvidias was Preis/Leistung betrifft auf einem ähnlichen Niveau - beim Rastern.
Und falls man doch (weil man sie eben lange behalten möchte) Raytracing mal benötigt, ist Nvidia derzeit die deutlich bessere Wahl
Da bin ich sogar bei dir aktuell würde ich auch nur Nvidia kaufen aber eben eine 3060-12GB 310EUR noch das einzigste was man kaufen kann, wenn man nicht Geld wie heu hat.
RT ja bei Junior auch hoch im Kurs für mich noch ein Nice to have, only sollte eine neue GPU aber zumindest können.
die Aktuelle Leistung eine RTX4090; wird wenn das ein Must have ist auch nicht mehr reichen ( meiner Ansicht nach )

ich bin auch immer wieder beim haben will, zb. ein neues Auto, um aber nicht auf Komfort und Leistung zu verzichten müsste ich aber zu tief in die Tasche greifen lohnt sich in meinen Augen nicht, da bei neuwagen der Wertverlust einfach zu hoch ist.
und nichts anderes ist es bei den GPU´s meine RX590-8GB läuft auch noch und ich kaufe nichts neues auch wenn ich,
wie Junoir haben will ;) nur Ist es eben nur ein wollen und nicht brauchen, da ich eh nicht mehr Zocke selbst diese hab ich nur gekauft da es sie im Abverkauf für 150taler gab
 
Mir geht es dabei aber wirklich zu 100% um die Latenz und zu keinem Zeitpunkt um das Bild, denn da sage ich offen und ehrlich, dass ich 70 zu 140fps nur einen minimalen Unterschied wahrnehme. Für mich geht es bei dem Thema in den meisten Spielen eigentlich immer nur um die Latenz.
Bei 70 FPS werden die Eingaben deiner Eingabegeräte gar nicht vollständig dargestellt, da die Abtastrate zu gering ist. Gehen wir von 360 Eingaben pro Sekunde aus, macht das bei 60 FPS nur etwa jede 6te Eingabe. Latenz hin oder her. Bei 120 FPS oder mehr wäre es jede zweite bis dritte.

Die Latenzverbesserung durch Low Latency mehr zu registrieren als +100% mehr FPS, ist an der Stelle pure Einbildung und Resultat deiner Ablehnung gegenüber modernsten Entwicklungen. Du irrst dich kolossal.

Wie gesagt, ich will FG nicht verteufeln, aber mein erster Eindruck ist bisher nicht wirklich gut.
Es macht aber den Eindruck.
Ich kann da auch die Reviews nicht so recht nachvollziehen, wir reden seit Jahren über maximale Bildqualität, scharfe Texturen usw. und dann kommt da eine Technik, die nachweisbar lustigste Artefakte auf den Bildschirm zaubert und auf einmal soll so etwas gut sein?
Die Artefakte sind in Summe deutlich weniger, als ein Bild mit weniger FPS, darum setzt man auf diese Techniken.
Sehe ich nicht, dann lieber die Details eine Stufe runterschrauben (wenn ich mehr FPS brauche) und die FPS so bekommen.
Das ist keine gute Alternative.

Anti Lag funktioniert wirkt aber auch auf die CPU, dass dies treiberseitig funktioniert kann man als Fluch und Segen betrachten.
Nvidia hat seit Jahren eine vergleichbare Lösung zu Anti Lag.
Aber abseits einer 4080 macht RT nie Spaß und selbst die 4090 ist im RT zu schwach, als das man nicht wieder Qualität an anderer Stelle opfern muss.
Ich spiele selbst auf meiner in die Jahre gekommenen 2080 Ti meistens mit aktiviertem Raytracing und habe dabei Spaß.1440p.
Dein Spin Doktor Gerede ist wirklich schwer zu ertragen.
 
Bei 70 FPS werden die Eingaben deiner Eingabegeräte gar nicht vollständig dargestellt, da die Abtastrate zu gering ist. Gehen wir von 360 Eingaben pro Sekunde aus, macht das bei 60 FPS nur etwa jede 6te Eingabe. Latenz hin oder her. Bei 120 FPS oder mehr wäre es jede zweite bis dritte.
Hää?
Irgendwie verstehe ich oder du da was falsch, 60 Bilder die Sekunde entspricht alle 16,67ms ein Bild, wenn ich nun ohne Reflex eine Latenz von 55ms, mit Reflex eine Latent von 40ms habe, liegt dies alles über dem dargestellten Bereich. Vereinfacht gesagt, ohne Reflex habe ich alle 4 Bilder eine Eingabe, mit Reflex alle 3 Bilder!

Natürlich sinkt die Latenz wenn man mehr Bilder hat, aber FG produziert in diesem Sinne ja keine echten Bilder, weshalb die Latenz (in der Theorie) gleich bleibt, also völlig egal ob FG an oder aus, die Latenz wäre nicht beeinflusst. Durch die Art der Zwischenbildberechnung ist es aber nunmal so, dass die Latenz signifikant steigt, was eben komplett kontraproduktiv im Bereich der Latenz ist, mehr Bilder, aber dennoch höhere Eingabeverzögerung.

Reflex kompensiert dies im Vergleich zu einem nativen Bild ganz gut, allerdings verbessert Reflex eben auch das native Bild, weshalb ich mit Reflex, ohne FG spielen würde.

Es macht aber den Eindruck.
Eigentlich nicht, ich sehe nur aktuell keinen echten Mehrwert bezogen auf das einzige Spiel was ich bisher (mangels NV Karte der 4xxx Gen) testen konnte. Ich habe hier zu Beginn der Technik bereits darauf hingewiesen, dass ich mir vorstellen kann, dass FG in langsamen Spielen ala Anno einen optischen Unterschied machen kann, hier würde das Bild smoother wirken wenn man eben in einen Bereich der Unspielbarkeit kommt. Bei schnellen Spielen ist in meinen Augen in der Theorie ein Spiel mit nativ 25fps / FG 50fps dennoch unspielbar, da die Latenz eben zu hoch ist und diese durch FG nicht verbessert wird.

Die Artefakte sind in Summe deutlich weniger, als ein Bild mit weniger FPS, darum setzt man auf diese Techniken.
???
Mich stören die Artefakte, diese zerstören in meinen Augen die Immersion die ein Spiel schafft. Wie gesagt, wenn man von 25fps auf 50 fps kommt mag dies anders aussehen, dazu kann ich mich nicht äußern. Wenn ein Spiel mit 60-100fps läuft braucht es imo keine FG, da es dann für mich flüssig ist. Der Vorteil von mehr FPS ist in meinen Augen in diesem Bereich insbesondere die Latenz, die FG aber eher negativ beeinflusst. Insofern bleibe ich vorerst bei meiner Aussage, FG ist evtl. etwas für den Bereich ganz unten, der sonst unspielbar aussieht (ala Anno), aber für den Bereich schneller Spiele, wo es eben insbesondere oder auch auf die Latenz ankommt, eher uninteressant.

Das ist keine gute Alternative.
Das ist die einzige und beste Alternative! Wenn das System nicht reicht um ein Spiel flüssig spielbar zu machen, dann wird zuerst RT deaktiviert, dann (mit einer NV würde ich es andersherum lösen) Details von Ultra auf Max reduziert und dann FSR aktiviert. Bei NV eben zuerst DLSS Ultra Quality und dann Details reduzieren. Nur so bekomme ich echte FPS auf den Bildschirm die mir eben das Spielgefühl geben. Ich bin da im übrigen auch nicht alleine unterwegs, habe schon in einigen Beiträgen gehört und gelesen, dass FG sich auf einmal ruckelig anfühlt, nur nicht so aussieht.


Nvidia hat seit Jahren eine vergleichbare Lösung zu Anti Lag.
Weiß ich, darum ging es aber doch gar nicht. Es wurde gesagt, dass AMDs AntiLag keinen Einfluss auf die CPU nimmt, was meines Wissens nach inkorrekt ist. Nvidias Reflex wird in meinem Post doch ausdrücklich beschrieben und für "besser" empfunden. Weiß also gar nicht wo dich der Schuh drückt.

Ich spiele selbst auf meiner in die Jahre gekommenen 2080 Ti meistens mit aktiviertem Raytracing und habe dabei Spaß.1440p.
Moment, du spielst auf einer 2080 Ti mit aktivem Raytracing und willst mir oben was von "highFPS" Gaming erzählen? Deine 2080Ti schafft 40 fps mit aktiviertem RT in älteren Spielen. In CB2077 schafft die Karte selbst mit RT Medium Presets (wobei der optische Mehrwert sehr zu bezweifeln ist), DLSS Balanced und zurückgeschraubten Grafikeinstellungen keine 50fps! Oben aber behaupten, dass Details zurückschrauben keine Alternative ist?

Sorry, aber deinen Post kann ich derzeit nur in eine Richtung schieben, ziemlicher Quatsch.

Im übrigen, lesen und verstehen hilft eben auch manchmal, gerade mein letzter Absatz bezog sich ja ziemlich explizit auf die Zukunftstauglichkeit, aber wer mit einer 2080ti und aktiviertem RT glücklich wird, dann aber behauptet Details reduzieren geht gar nicht (im übrigen ist auch DLSS in einer Art eine Reduzierung der Details, gerade abseits UQ), der weiß leider nicht so recht wovon er redet.
 
Nvidia holt aus dem gleichen Material mehr raus. Mehr Features, mehr Speed, mehr Effizienz, bessere Treiber und besserer Softwaresupport/bessere Softwareökonomie.
AMD hinkt hier überall einen halben oder ganzen Schritt hinterher.
Sehe ich anders!

Was bedeutet gleiches Material?
Mehr Features würde ich unterschreiben
mehr Speed? Sehe ich nicht, die 4080/XTX sind relativ gleichauf (die 4090 nutzt viel mehr Material, 600mm² @4nm)
Mehr Effizienz, 5nm gegen 4nm? Daher oben die Frage, gleiches Material sehe ich eben nicht
bessere Treiber = Märchenstunde, niemand hat derzeit soviele Treiberprobleme wie Nvidia, teilweise zweimal wöchentlich muss gefixt werden
Besserer Software-Support, schwierig, bisher wurde DlSs3 groß angekündigt, sonderlich lang ist die Liste bisher aber noch nicht

Bleib du bei Nvidia, sind keine schlechten Karten, aber so schlecht wie manche Nutzer AMD machen wollen, ist es nunmal nicht. Letzte Gen lag in meinen Augen AMD vorne, aktuell sehe ich ab der 4080 Nvidia vorne. Mal sehen wie es nächstes Mal ist, für einige User hier kann ich dies leider schon beantworten, denn selbst eine FX5900Ultra war in mancherleuts Augen die bessere Karte
 
Das stimmt so nicht. Die Bezeichnung der Prozesse ist da sehr irreführend. AMD fertig im N5 Prozess und der 4N Prozess für Nvidia ist ebenso ein ganz normaler 5nm Prozess, das N steht in dem Fall einfach nur für Nvidia. Da gibt es keinen Fertigungsvorsprung für Nvidia. Die Architektur ist schlicht effizienter.

Um es noch mal zusammen zu fassen:
N5=4N≠N4
 
Nvidias 4N ist im einstelligen Bereich effizienter. Es gibt da schon ein paar Unterschiede.
 
Sehe ich anders!

Was bedeutet gleiches Material?
Mehr Features würde ich unterschreiben
mehr Speed? Sehe ich nicht, die 4080/XTX sind relativ gleichauf (die 4090 nutzt viel mehr Material, 600mm² @4nm)
bringt aber eben auch mehr Features mit
Mehr Effizienz, 5nm gegen 4nm? Daher oben die Frage, gleiches Material sehe ich eben nicht
der 4N ist ein marginal veränderter N5.
Und natürlich ist etwa die 4090 effizienter als die 7900xtx
bessere Treiber = Märchenstunde, niemand hat derzeit soviele Treiberprobleme wie Nvidia, teilweise zweimal wöchentlich muss gefixt werden
ich hätte da gerne Belege, also eine Studie dazu.
Wir arbeiten Seit 20 Jahren sowohl mit Intel, als auch AMD und Nvidia.
Der Treibersupport ist um Weltklassen besser, auch die Stabilität, speziell bei Features und Applikationen die jetzt nicht Mainstream sind
Besserer Software-Support, schwierig, bisher wurde DlSs3 groß angekündigt, sonderlich lang ist die Liste bisher aber noch nicht
DLSS ist ein Treiberfeature, ich spreche von Softwaresupport, der allein schon wegen "Henne-Ei" besser ist beim Hersteller der über 80% des Marktes bedient
Bleib du bei Nvidia,
Privat nutze ich bislang trotz der Wiederkehrenden Probleme ATI/AMD (9700, X800XL, 5850, 6870, 7970...).
Ich spiele kein Early Access, keine frischen Releases, warte bis Spiele ausgereift sind. Eben daher habe ich inzwischen weniger Probleme und es stört nicht privat AMD zu benutzen.
Aber was wir in der Arbeit schon oft gesehen haben... brrr
Es ist dann auch oft so, wenn meine Oldie- Spiele abstürzen, sie in der Aebeit sofort laufenbzw auf der Karte meiner Frau (1060)
sind keine schlechten Karten, aber so schlecht wie manche Nutzer AMD machen wollen, ist es nunmal nicht. Letzte Gen lag in meinen Augen AMD vorne, aktuell sehe ich ab der 4080 Nvidia vorne. Mal sehen wie es nächstes Mal ist, für einige User hier kann ich dies leider schon beantworten, denn selbst eine FX5900Ultra war in mancherleuts Augen die bessere Karte
Nur die 5800 Ultra war besser, weil sie auch ein Föhn war. Tatsächlich fand ich damals meine 9700 besser, aber lol DA dürfen wir echt nicht über Treiber reden
 
Zuletzt bearbeitet:
Das stimmt so nicht. Die Bezeichnung der Prozesse ist da sehr irreführend. AMD fertig im N5 Prozess und der 4N Prozess für Nvidia ist ebenso ein ganz normaler 5nm Prozess, das N steht in dem Fall einfach nur für Nvidia. Da gibt es keinen Fertigungsvorsprung für Nvidia. Die Architektur ist schlicht effizienter.
Nö, 4N ist ein angepasster N5 Prozess, das ist richtig. Es gibt aber Vorteile, man munkelt von 5-8% Effizienz.


bringt aber eben auch mehr Features mit
welche?

der 4N ist ein marginal veränderter N5.
Ja, aber eben ein gewisser Vorsprung, daher ja auch teurer

Und natürlich ist etwa die 4090 effizienter als die 7900xtx
dem widerspreche ich nicht, sehe ich genau so.

ich hätte da gerne Belege, also eine Studie dazu.
schau AMD Release Notes und Nvidia Releasnotes, oder aber bspw. einfach hier


Nvidia hat seit drei oder vier Jahren so dermaßen massive Probleme mit den Treibern, dass quasi wöchentlich irgendwelche Änderungen und Hotfixes hinterhergeschoben werden müssen. Schaue dir nur die Changelogs an. Nicht, dass AMD auch nur im Ansatz nahe der Perfektion liegen würde, um Himmels willen. Aber zumindest die Fehler halten sich im direkten Vergleich echt in Grenzen.

Wir arbeiten Seit 20 Jahren sowohl mit Intel, als auch AMD und Nvidia.
Sorry wenn ich ehrlich antoworte, ich kann es nicht mehr hören. Wir arbeiten seit xx Jahren und und und. Selbst forderst du Belege? Wo sind deine? Sorry, wenn ich es so deutlich sage, ich arbeite seit nunmehr 30 Jahren an PCs und seit 20 Jahren betrieblich. Wir haben 15 Jahre lang auf Grund des Preises ausschließlich auf AMD gesetzt und hatten tatsächlich 15% (nachgeloggt; Durchschnitt) weniger Hardwareausfälle als in den 5 Jahren Intel. Verteufel ich Intel, nein, ist halt manchmal Pech und Glück.
Der Treibersupport ist um Weltklassen besser, auch die Stabilität, speziell bei Features und Applikationen die jetzt nicht Mainstream sind
Abseits des Mainstreams mag dies sein, da kann ich mangels Erfahrung nichts zu sagen. Allerdings sehe ich Treibersupport im Betrieblichen Bereich jetzt eher nicht so interessant, da schlicht und ergreifend 98% des Marktes zu klein sind um Herstellersupport anfordern zu können. Dazu sprechen wir hier eben über Gamingkarten und da sehe ich bei AMD aktuell keinen wirklichen Nachteil, die Treiber, bzw. Software halte ich für weit besser als Nvidia, bzgl. Treiber sehe ich AMD auf Grund der aktuellen Phase auch vorne, deutlich weniger Probleme als Nvidia.
 
Ich brauche keine grüne Brille. aber vielleicht hast du ja eine Rote?
Ich hab vor der rtx4080 eine 6800xt besessen und FSR ist bei weitem nicht gleichwertig.
Auf das DLAA Argument bist du ja nichtmals eingegangen.. gerade die Kantenglättung macht den Unterschied.

Auch kann man DLSS problemlos selbst updaten .
Heute noch kommen neue Spiele mit FSR1 auf den Markt und da passiert gar kein Update mehr über den Lebenszyklus des Spieles hinweg. Weil sich kein Entwickler den Aufwand macht.



Ja Framegeneration funktioniert zur Zeit nur in ner Hand voll spielen und dann nur mit rtx4000ern..
Das ist immer noch mehr als AMD vorzuweisen hat..
Die müssen erstmal Reflex und framegeration entwickeln und es ist zur Zeit fraglich ob sie das diese Generation noch hinbekommen
FSR 1.0 ist nicht gleichwertig das stimmt.

Aber mit FSR 2.0 und 2.2 hast du definitiv einen gleichwertiges Upscaling Feature.
Der Treibersupport ist um Weltklassen besser, auch die Stabilität, speziell bei Features und Applikationen die jetzt nicht Mainstream sind
Sofern der Treiber überhaupt geupdatet wird... oftmals gibts zwar ne Menge neuer Treiber aber die werden gar nicht erst angepackt weil ein neuer Treiber Grundsätzlich immer eine mögliche Fehlerquelle bedeutet...
Egal ob es Nvidia oder AMD ist.
 
Nö, 4N ist ein angepasster N5 Prozess, das ist richtig. Es gibt aber Vorteile, man munkelt von 5-8% Effizienz.
und dann schaust du dir die CB Benchmatks an, da siehst du, dass Der Unterschied größer ist, als die 5-8% best case die von der GPU kommen
schau AMD Release Notes und Nvidia Releasnotes, oder aber bspw. einfach hier

das ist ja kein Beleg für die Anzahl der Fehler/Probleme.
99% der von uns rückgemeldeten Fehler sind nie in irgendwelchen Notes dringestanden.
Sorry wenn ich ehrlich antoworte, ich kann es nicht mehr hören. Wir arbeiten seit xx Jahren und und und. Selbst forderst du Belege?
ja, ich behaupte ja auch nichts, das nicht bekannt ist. Wenn du aber neues Wissen zu haben glaubst bräuchte ich da schon Daten.
Es ist schlichtweg kein Geheimnis, dass Nvidia im GPU Bereich mehr forscht, entwickelt und ein größeres Treiberteam hat. Dass AMD seit einigen Jahren halbwegs gleichwertige Gamingtreiber hat ist mir bekannt, dass man auch sonst aufgeholt hat wäre mir neu, dafür hätte ich gerne Zahlen, ich hab zuletzt vor 3-5 Jahren eine Untersuchung gesehen, da waren die Unterschiede gravierend. Wenn du da also was aktuelles hast, ich bitte darum.
Ich finde die Zusammenarbeit mit AMD inzwischen besser, qber im Vergleich zu Nvidia die uns direkt Personal zur Verfügung stehen immer noch um Klassen hinten
 
ja, ich behaupte ja auch nichts, das nicht bekannt ist.
sorry, du behauptest irgendwas was seit Jahren unbelegt durch die Foren geistert! Das ist eben die Macht der Nutzer! Ist genau der gleiche Käse wie, dass Apple das sicherere und bessere System ist.

das ist ja kein Beleg für die Anzahl der Fehler/Probleme.
Hä?
Wenn ich innerhlab von 2 Wochen drei mal einen Treiberrelease hotfixen muss, ist das kein Beleg für Fehler? Also sorry, aber du behauptest einfach irgendwelche Sachen die man dir glauben soll, weil sie angeblich bekannt sind, während ich dann eben einen aktuellen Beleg für die von mir genannten Probleme liefere und dann kommt so ein Quatsch raus? Diskussionsstil = Note 6!

und dann schaust du dir die CB Benchmatks an, da siehst du, dass Der Unterschied größer ist, als die 5-8% best case die von der GPU kommen
Noch einmal, an mehreren dutzend Stellen hier belegt von mir, in meinen Augen ist der NV Chip der 4er Gen der bessere Chip! Niemals habe ich andere Aussagen getroffen. Wenn ich kaufen müsste, wäre eine 4080 vor einer 7900XTX, eine 4070 Ti dagegen halte ich für die schlechtere Wahl gegen eine deutlich günstigere und schnellere 7900XT! Die 4090 ist unantastbar, nur außerhalb meiner Zahlungsbereitschaft.

ich hab zuletzt vor 3-5 Jahren eine Untersuchung gesehen,
her damit!

Ich finde die Zusammenarbeit mit AMD inzwischen besser, qber im Vergleich zu Nvidia die uns direkt Personal zur Verfügung stehen immer noch um Klassen hinten
Ist natürlich großartig, wenn man direkt eigenes NV Personal im Haus hat. Aber was meinst du, wieviele Nutzer in der realen Welt sind davon betroffen? Ich würde mal schätzen hier im Forum dürften es so ca. 1 sein (du!)-
Aber mit FSR 2.0 und 2.2 hast du definitiv einen gleichwertiges Upscaling Feature.
Weiß nicht! Empfinde (kann dies nur absolut subjektiv betrachten) DLSS 2.x in der Gesamtheit als deutlich schöner und besser, von gleichwertig würde ich da nicht reden. AMD hat die Lücke definitv aufgeholt und in meinen Augen kann man den Vorteil DLSS beim Kauf etwas in den Hintergrund rücken (was ich bspw. bei der 4070Ti tue), aber einen Vorteil sehe ich bei NV noch klar.
 
sorry, du behauptest irgendwas was seit Jahren unbelegt durch die Foren geistert! Das ist eben die Macht der Nutzer! Ist genau der gleiche Käse wie, dass Apple das sicherere und bessere System ist.
äh nein, meine Daten sind nicht von PCGH? Danke aber dafür, dass du mir das in den Mund legst.
Hä?
Wenn ich innerhlab von 2 Wochen drei mal einen Treiberrelease hotfixen muss, ist das kein Beleg für Fehler? Also sorry, aber du behauptest einfach irgendwelche Sachen die man dir glauben soll, weil sie angeblich bekannt sind, während ich dann eben einen aktuellen Beleg für die von mir genannten Probleme liefere und dann kommt so ein Quatsch raus? Diskussionsstil = Note 6!
Das ist halt INterpretationssache. Du siehst es als Beleg für schlechte Treiber(arbeit), wenn in kürztester Zeit immer wieder was gefixt wird, andere würden sagen, dass bei Firma B Wochen/Monate/Jahrelang Dinge NICHT gefixt werden ist eher schlecht.
Ich mein ich versteh, dass der Eindruck entsteht, dass wenn oft ein "Fix" erscheint, ist es schlecht, aber ist es nicht noch schlechter, wenn gar kein Fix erscheint oder nur selten?
Bei Intel war es auch so: Da gab es 10 Jahre seltenst Treiberupdates für Spiele, bei jetzt wo sie regelmäßig welche geben, ist es also besser. Außer es handelt sich um Nvidia, da ist das dann schlechter. Versteh einer wer es will.
Und kein einziger meiner privat gemeldeten Treiberprobleme mit AMD sind jemals in den Notes vermerkt worden, noch sind sie gefixt worden.
Das ist also besser.
Aber wenn wir bei Nvidia anklopfen und sagen, da gibts ein Problem, wird das oft live besprochen und innerhalb kürzester Zeit behoben.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Also ja, ich gehe davon aus, dass Nvidia mehr und bessere Treiberarbeit leistet, aber auch weil man mit 80% Marktanteil mehr Bugs reportet bekommt sind dort auch mehr Fehler bekannt. Ich spreche übrigens explizit von Linux und nicht beziehe mich auf Treiber und Software im Generellen, nicht auf Spiele.

Davon abgesehen sehe ich derzeit keine aktuelle Studie zu Treiberbugs. Hier wäre etwa ein Windows Report oder ähnliches interessant, weil User oft nicht unterscheiden können ob der bug nun von der Software, vom Windows, von 3rd Party Apps, oder vom Treiber kommt. Das einzige was man tun kann ist generell nach Search Terms vorzugehen und zu schauen, wie viele unterschiedliche Ergebnisse man bekommt oder man bemüht sich um Forschungspaper


Noch einmal, an mehreren dutzend Stellen hier belegt von mir, in meinen Augen ist der NV Chip der 4er Gen der bessere Chip! Niemals habe ich andere Aussagen getroffen. Wenn ich kaufen müsste, wäre eine 4080 vor einer 7900XTX, eine 4070 Ti dagegen halte ich für die schlechtere Wahl gegen eine deutlich günstigere und schnellere 7900XT! Die 4090 ist unantastbar, nur außerhalb meiner Zahlungsbereitschaft.
Ich würde das auch nie zahlen.
Aber du hast nach Belegen gefragt und die habe ich dir gegeben. Jetzt bist mal du dran.
Denn immer nur nach "beweis, zeig usw" fragen und dann selber keinen Liefern ist etwas schwach, oder ums mit deinen Worten zu sagen:
Note=6, 10 , E oder was auch immer, je nachdem in welchem Land ;)

Ist natürlich großartig, wenn man direkt eigenes NV Personal im Haus hat. Aber was meinst du, wieviele Nutzer in der realen Welt sind davon betroffen? Ich würde mal schätzen hier im Forum dürften es so ca. 1 sein (du!)-
Nun, ich habe früher 10 Jahre für 2 verschiedene Systemhersteller gearbeitet und da war es auch schon so.
Wir haben Bugs reportet oder gesucht. Bei Intel/Nvidia gibts dort Personal, dass sich explizit drum kümmert, das unterstützt, dich betreut.
Bei Spieleherstellern ist das ähnlich, die sind dann mit Intel/AMD/Nvidia in Kontakt.
Nvidia hat aufgrund ihrer Größe mehr Personal und deshalb ist da einfach der Support besser. Was natürlich auch dazu führt, dass gewisse Dinge schon während der Entwicklung gefixed werden und nicht erst nachher beim Kunden, denn das führt zu mehr gefixten Problemen schon im Auslieferungszustand.
Es ist schon lange her, aber damals wars regelmäßig so, dass wir bei AMD quasi ignoriert wurden mit mehreren Problemen (780G Causa...) und ein Problem, dass ganze Serien von Mainboards, GPUs usw betroffen hat wurde nie gefixt.
Das ganze hat sich massiv gebessert, aber teilweise ist es eben immer noch so. Und das sagt halt auch einiges aus, findest du nicht?
Gut, ich arbeite nun nicht mehr im OEM Bereich, aber die Muster haben sich kaum geändert.
Betrifft direkt oder indirekt aber schon mehrere: Nvidia ist an vielen Unis direkt oder indirekt vertreten bzw. in Forschungsprojekten dabei.
Mindestens einen User hier kenn ich, bei dem das auch so ist, dass die direkt mit AMD/Intel/Nvidia arbeiten
 
Das ist halt INterpretationssache.
Eigentlich nicht.

Erstmal ist es ziemlich schlecht wenn so oft und regelmäßig Fixes kommen, weil dann bedeutet es, dass sehr viele Fehler vorhanden sind.

Andersherum müsste man, da gebe ich dir in der Intention recht, natürlich schauen ob bei AMD ebenso viele Fehler vorhanden sind und einfach nicht gefixt werden. Da ich aber aktuell AMD nutze und seit nunmehr zwei Jahren nur einen einzigen Fehler im Treiber hatte, der nach zwei Tagen gefixt wurde (gab mal eine Geschichte, wo sich der Installer verabschiedet hat und danach ein wenig Chaos im System herrschte), kann ich aus meiner Erfahrung heraus nicht sagen, dass AMD hier eine längere Zeitspanne mit Nicht fixen von Problemen begibt.

Sicherlich ist dies nicht wissenschaftlich korrekt ermittelt, aber wie gesagt, diejenigen die einfach rauf und runter beten, dass Nvidia den besseren Treiber hat und weniger Fehler, haben gerade aktuell nichts in der Hand, womit sie dies auch nur im Ansatz belegen könnten.

Nun, ich habe früher 10 Jahre für 2 verschiedene Systemhersteller gearbeitet und da war es auch schon so.
Wir haben Bugs reportet oder gesucht. Bei Intel/Nvidia gibts dort Personal, dass sich explizit drum kümmert, das unterstützt, dich betreut.
Da sei die Frage einfach gestattet, welcher UseCase ist das aktuell? Beim Systemhersteller wirst du mit Fehlern konfrontiert die mitunter extrem selten sind und in nur ganz wenigen Usecases auftreten. Da widerspreche ich dir auch gar nicht, dass NV auf Grund ihrer schieren Größe einen besseren Support liefert. Das ist aber nunmal nicht mein UseCase und von niemand anderem hier im Forum!

Bei Spieleherstellern ist das ähnlich, die sind dann mit Intel/AMD/Nvidia in Kontakt.
Auch da tut sich ja immer mal wieder was und wie groß der Aufschrei hier manchmal ist, wenn ein Spiel mit AMD Support in die Benchmarks aufgenommen wird. Aber andere Sache. Ja, Nvidia hat durch ihre Größe und ihren Marktanteil eine deutlich höhere Verbreitung in dem Bereich und dadurch werden mehr Spiele supportet und "gesponsort", daher eigentlich noch mehr Lob an AMD, dass man dennoch so gut mithalten kann. Wenn man bspw. sieht, dass FC6 ein AMD optimiertes Spiel ist und die 6900XT dort die 3090 regelmäßig geschlagen hat, macht so eine Optimierung schon sicherlich 10-15% aus und wenn dies in 90% der Spiele auf Seiten NV liegt, kann man vor AMD nur den Hut ziehen.

Mindestens einen User hier kenn ich, bei dem das auch so ist, dass die direkt mit AMD/Intel/Nvidia arbeiten
Sorry, dann ist der UseCase hier für 2 Nutzer interessant. Denke aber die anderen 10.000 Nutzer werden eher nie mit dem Support in Kontakt kommen und wenn dann mit dem Telefon/Mail/Chatbot Support, der auch genau nichts macht (wie bei allen). Sei mir nicht böse, wenn ich das nun abkürze, aber es ist und bleibt für den UseCase normaler Gamer eine Mär, dass Nvidia besser ist als AMD! Jeder Hersteller hat mal gute und mal schlechte Karten dabei, die aktuelle Gen ist bei beiden gut! In der letzten Gen fand ich persönlich die Nvidia Karten extrem enttäuschend, ihre Mehrleistung zur Vorgängergen beschränkte sich ja fast ausschließlich auf Mehrverbrauch und RT! AMD dagegen hat mit RDNA 2 einen riesigen Schitt gemacht, der RDNA 3 Schritt fällt dagegen deutlich geringer aus, während NV einen ordentlichen Schritt gemacht hat. Dennoch sehe ich keinen weiteren Sinn darin, Nvidia hier über alles zu stellen, die 4080/4090 passt, die 7900XTX & 7900XT passen aber auch und bieten entsprechend ihres Preises eine ansehnliche Leistung als Ergänzung zum Nvidia Portfolio. Die 4070Ti ist derzeit in meinen Augen wenig sinnvoll, zu wenig Speicher, zu wenig Raster, zu wenig RT um interessant zu werden, zu teuer, da bietet die 7900XT das rundere Paket, mit deutlich mehr Raster, RAM und günstigerem Preis.
 
Eigentlich nicht.

Erstmal ist es ziemlich schlecht wenn so oft und regelmäßig Fixes kommen, weil dann bedeutet es, dass sehr viele Fehler vorhanden sind.
Sowohl in AMDs, als auch in NVIDIAs Treiber stecken hunderte, eigentlich eher tausende Fehler.
Die Frage ist durchaus: wie schnell werden sie gefixed.
Nvidia released öfter Treiber. Das heißt noch nichts. Die Frage ist halt wie viele Fehler addressiert man dabei, wie schnell reagiert man, wie gut wird der neue Treiber evaluiert (wird nur schnell einer rausgerückt, der 10 neue Fehler reinbaut aber nur 5 entfernt?).
Ich selbst habe eine Zeit lang entwickelt, und getestet. Viele Fehler sind in den Tests einfach nicht rausgekommen (Laborbedingungen und das war uns auch klar. Das Testdesign das wesentlich mehr Fehler gefunden hätte, hätte auch mehr gekostet).
Also "reifen" alle Produkte bis zu einem gewissen Grad beim Kunden. Beispiel auch Apple iPhones und iOS, die jedes Jahr aufgrund von Feedback und Fehlermeldungen verbessert werden.

Andersherum müsste man, da gebe ich dir in der Intention recht, natürlich schauen ob bei AMD ebenso viele Fehler vorhanden sind und einfach nicht gefixt werden.
Also egal ob AMD, Nvidia, Apple Intel, Microsoft... alle haben zigtausende Fehler drin, manche sind winzig klein und vernachlässigbar oder es nicht Wert Code großartig umzuschreiben und dafür vielleicht neue Fehler zu produzieren.
Bei jeder dieser Firmen wird intern natürlich entschieden, wie man vorgeht, und ich kann dir aus der Vergangenheit sagen, dass AMD damals vielleicht aus Budgetären Gründen sich oft dazu entschieden hat Fehler NICHT zu beheben. Und das wird jetzt in kleinerem Rahmen immer noch so sein.
Da ich aber aktuell AMD nutze und seit nunmehr zwei Jahren nur einen einzigen Fehler im Treiber hatte, der nach zwei Tagen gefixt wurde (gab mal eine Geschichte, wo sich der Installer verabschiedet hat und danach ein wenig Chaos im System herrschte), kann ich aus meiner Erfahrung heraus nicht sagen, dass AMD hier eine längere Zeitspanne mit Nicht fixen von Problemen begibt.
Das mit dem Installer ist mir bis heute übrigens ein Rätsel. Ich nutze jetzt bald 20 Jahre ATI/AMD privat, aber alle "heiligen Zeiten" verhaut der Installer/Uninstaller etwas und ich darf mit DDU im abgesicherten Modus hochfahren...
Sicherlich ist dies nicht wissenschaftlich korrekt ermittelt, aber wie gesagt, diejenigen die einfach rauf und runter beten, dass Nvidia den besseren Treiber hat und weniger Fehler, haben gerade aktuell nichts in der Hand, womit sie dies auch nur im Ansatz belegen könnten.
Ich habe nachgesehen. Es gibt tatsächlich frei verfügbar wenige bis keine Hinweise, weder bei NV als bei AMD.
Es gibt halt keine Fehlerstatistik die offen liegt.
Aber Firmen in gewissen Bereichen greifen bewusst eher zu Nvidia, wegen Zuverlässigkeit/Support etc.
Dasselbe bei Intel btw. Nicht deren Grafikchips natürlich, sondern generell die Plattform. Auch hier wirst du nie eine offizielle Statistik finden, das kann ich dir halt auch nur aus der Beobachtung von meiner Zeit bei 2 OEMs schildern, da hatten wir intern sehr wohl Daten von Millionen von Computern und nicht nur "ich kenne einen Freund...". Das kann sich natürlich alles längst geändert haben, in letzter Zeit liest man ja von beiden Herstellern sehr oft von Stabilitätsupdates für BIOS und es ist wohl auch nicht förderlich, wenn diverse YouTuber/Reviewer wie Linus sagen diverse Tests waren aufgrund ständiger Abstürze auf Plattform XYZ nicht durführbar (siehe 8K Tests auf der 4090).

Da sei die Frage einfach gestattet, welcher UseCase ist das aktuell?

Beim Systemhersteller wirst du mit Fehlern konfrontiert die mitunter extrem selten sind und in nur ganz wenigen Usecases auftreten.
Eigentlich waren das eben hauptsächlich Fehlerrückmeldungen von Usern die meist eher der Marke "Average Joe" waren. Also ganz normale Usecases eigentlich.
Bei der 780G Causa waren das: Ruckelnde Videos, abstürzende Systeme...
Bei Ilano warens der fehlende BD3D Support der auf der Packung noch angepriesen war usw usf...
Aktuell bin ich im Forschungsbereich für die Fakultät tätig. Wir haben aber verschiedenste Abteilungen. Nicht direkt ich, aber Freunde testen etwa Chips bevor sie auf den Markt kommen... zu den Kunden gehören etwa auch AMD, Nvidia, Intel Apple... aber auch unbekannte (vor allem). Testen auf der Uni ist günstig für Firmen. Andere Abteilungen bauen am Supercomputer rum...
Ich selbst bewege mich aber immer weiter weg von der Forschung zu Themen wie Testing oder Programmieren und interessiere mich wieder mehr für den Menschen (ich habe auch einen Abschluss in Psychologie), werde wohl im Bereich Lehre oder Psychologie weiter machen. Das gute ist, dass wir so viele Projekte haben wo wir mitwirken können, dass ich mir stets das raussuchen kann, was mich gerade interessiert und dort mitarbeiten.
Am Beginn durfte ich etwa kleine Mini-Programme schreiben die nichts anderes tun, als zu überprüfen ob Hardware richtig rechnet. Als Beispiel haben wir da etwa den R600 über 10 Monate vor Release als "Radeon 2900XT" getestet, so passiert das auch heute noch. Ein(e) Ada lag bei uns (nicht bei mir direkt, aber bei Kollegen im Stock unter uns) schon im Früjahr "nackt" am Tisch und man hat unter anderem geschaut, ob sie auch wirklich brav addieren kann...

Aber zum Henne-Ei Problem nochmal:
Die Firmen und sämtliche unserer Partner setzen bei GPUs (sofern sie welche haben) oder HPCs auf Nvidia, bei CPUs auf Intel.
Weil das fast alle Firmen so machen, kriegen Nvidia, Intel halt viel mehr Feedback von Bürokunden als AMD. Es werden also mehr Fehler gemeldet, es sind daher mehr bekannt, es werden aber auch mehr behoben. Es werden mehr Use-Cases ausprobiert und somit sind die Treiber eben auch dadurch besser. Aber nicht nur die Treiber. Weil halt Software eben dann auf Nvidia/Intel PCs eher getestet wird, funktioniert oft auch die Software besser auf jener Hardware.

Bei Spielen ist dies ähnlich, aber nicht gleich: Entwickler testen am PC halt hauptsächlich auf Nvidia-Systemen. Wobei hier der Nachteil für AMD nicht 80-10-10 (Nvidia, AMD, Intel) ist, sondern wesentlich ausgeglichener. Zumindest nehme ich das an, weil Entwickler mit AMD sowieso aufgrund der Konsolen zusammenarbeiten



Da widerspreche ich dir auch gar nicht, dass NV auf Grund ihrer schieren Größe einen besseren Support liefert. Das ist aber nunmal nicht mein UseCase und von niemand anderem hier im Forum!
Wie gesagt: ich spreche nicht von den reinen Gamingtreibern. Da mag AMD hinterherhinken aber nicht weit (was Features betrifft etwa ist der Abstand nicht groß und manche hat man sogar zuerst).
Aber der Use-Case ist auch ganz normale PC Benutzung (Office), wo es in der Vergangenheit bei AMD mehr Probleme gab als bei Nvidia (und am wenigsten übrigens bei Intel). Aber ja, Nvidia hat aufgrund ihrer Größe und Marktanteil einen Vorteil bei den "speziellen" Use-Cases. Die User von "Randgruppen" greifen meist aufgrund der (in der Vergangenheit?) höheren Treiberstabilität zu NV. Dadurch kriegt NV auch mehr Daten und bessert dort eher nach.
Einige Freunde sind Flugsimulatorfans und dort ist in der Community die Regel: Nvidia oder gar nichts.

Auch da tut sich ja immer mal wieder was und wie groß der Aufschrei hier manchmal ist, wenn ein Spiel mit AMD Support in die Benchmarks aufgenommen wird. Aber andere Sache. Ja, Nvidia hat durch ihre Größe und ihren Marktanteil eine deutlich höhere Verbreitung in dem Bereich und dadurch werden mehr Spiele supportet und "gesponsort", daher eigentlich noch mehr Lob an AMD, dass man dennoch so gut mithalten kann.
Ich finde absolut beeindruckend was dieses vergleichbar kleine Team in den letzten Jahren geschafft hat.
Vor allem tut sich gefühlt seit der Adrenalin-Initiative bei AMD mehr als bei Nvidia.
Wenn man bspw. sieht, dass FC6 ein AMD optimiertes Spiel ist und die 6900XT dort die 3090 regelmäßig geschlagen hat, macht so eine Optimierung schon sicherlich 10-15% aus und wenn dies in 90% der Spiele auf Seiten NV liegt, kann man vor AMD nur den Hut ziehen.
Absolut. Ich denke da steckt noch viel drin. Gegen Ende eines Konsolenlebens sehen wir immer Spiele die eigentlich großartig aussehen, dafür, dass es ein Spiel ist, das auf einer 7-8 Jahre alten Konsole läuft (und schon damals keine Highend- Hardware hatte).
Wir werden also in 5 Jahren sehen, wozu ein Mittelklasse RDNA2 Chip (noch dazu ohne Cache AFAIR) fähig ist.
Ich hoffe, dass die neuen Konsolen dann mit ordentlich RTRT Power daherkommen, damit hier endlich ordentliche Bewegung reinkommt.
Sei mir nicht böse, wenn ich das nun abkürze, aber es ist und bleibt für den UseCase normaler Gamer eine Mär, dass Nvidia besser ist als AMD!
Das müsste man halt testen indem man Bugs reportet und schaut, wie lange es dauert bis er gefixt ist.
Es ist kein Märchen, dass Nvidia hier mehr Leute hat und warum sollte das für Spieler nicht interessant sein, wie schnell Bugs aufgenommen, analysiert, behandelt und behoben werden.
Wenn ähnliche Bugs, die Nvidia jetzt innerhalb kurzer Zeit in gleich mehreren Patches behoben hat, bei AMD auftreten wissen wir das vielleicht noch gar nicht, weil die vielleicht langsamer reagieren können (aufgrund geringerer Besetzung/Ressourcen). Dann wissen wir vielleicht erst in Monaten über die Geschwindigkeit des Treiberteams. Mein voriger Post zeigt zumindest, das was du aufzeigst: Nvidia released in kürzerer Zeit mehr Treiber und Bugfixes. Was wir nicht wissen: ob man auch mehr Bugs hat, oder ob man nur mehr Bugs fixed bzw. mehr reportet werden aufgrund der 5-10x so hohen Userbasis (bezogen auf Desktopgrafikkarten).
Jeder Hersteller hat mal gute und mal schlechte Karten dabei, die aktuelle Gen ist bei beiden gut!
Ja sind beide sehr performant, wobei ich mir von den Radeons mehr erhofft hätte :(
Insgesamt aber eh uninteressant für mich, keine der Karten passt in mein (sehr enges) Schema: Performant, Stromsparend, Kostengünstig.
In der letzten Gen fand ich persönlich die Nvidia Karten extrem enttäuschend, ihre Mehrleistung zur Vorgängergen beschränkte sich ja fast ausschließlich auf Mehrverbrauch und RT!
Was gar nicht so verwunderlich ist: Nvidia hat 2016 den 16nm Prozess bemüht, 2018 ebenfalls (den verbesserten namens 12nm, aber immer noch ein 16nm Prozess) und 2020, also die Geforce 3xxx war ein 10nm Prozess, während AMD hier den wesentlich überlegenen 7nm Prozess genutzt hat.
Dass Nvidia einen großen Sprung macht war also irgendwie klar. Dass AMD sich mehr strecken muss, weil man nicht von 10 auf 5 sondern von 7 auf 5nm springt und vorher etwa gleichauf war, war auch klar. Man hat halt gehofft, dass man dank MCM mehr Flexibilität hat (stimmt auch, aber genutzt ist sie komischerweise noch nicht). Somit ist die 7900 ein bisschen seltsam, weil sie aus lauter einzelnen Bausteinen besteht, aber eben keine unterschiedlichen Baureihen daraus entstehen. Es scheint eben günstiger zu sein die kleineren Chips monolithisch zu fertigen
Noch zumindest.

AMD dagegen hat mit RDNA 2 einen riesigen Schitt gemacht, der RDNA 3 Schritt fällt dagegen deutlich geringer aus
ja siehe oben:
RDNA2= RDNA1 + Cache + RT + neuer, besserer Prozess - da war auf allen Seiten Verbesserung.
RDNA3 bringt bis auf das MCM Design wenig architektonische Neuerungen, ein neuer Prozess ist dabei, der Sprung vorwärts im Vergleich zu Nvidia ist klein.
Spannend wirds also wieder mit 3nm. Beide werden diesen Prozess benutzen. Nvidia wird eine deutlich überarbeitete Architektur bringen, AMD wohl auch, denn sonst wird es schwer Nvidia zu schlagen. Und wenn Intel dran rückt, rücken die auch näher.
Vielleicht auch mal im eigenen Prozess dann, wohl aber erst 2026, wenn man selbst schon High-NA Anlagen im Betrieb hat, die Konkurrenz auf die damit möglichen Prozesse aber noch nicht Zugriff hat.
 
Zuletzt bearbeitet:
Zurück