SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

Gleichstand in reiner Rasterization auf jeden Fall. Schaltet man RT und / oder DLSS dazu dann liegen Welten zwischen den Karten.
Nicht jeder hat interesse an RT - dazu zähle ich zum Beispiel.
RT mag eine schöne Sache sein, aber ohne entsprechende Unterstützung mit z.B. DLSS liefern die Karten, egal welchen Herstellers, einfach nicht genug fps, sodass man in Multiplayerspielen das Nachsehen hat. Und ob ne Pfütze nun fröhlich spiegelt oder nicht, das macjt in den wenigsten Fällen einen Unterschied aus und bevor man einen Gegner in einer Spiegelung sieht hat man meist schon das pixelzeitliche gesegnet.
In reinen Singleplayern hingegen mag es nicht so gravierend auffallen, aber dort ist eher ein ordentliche Grafikgerüst und Story für mich ausschlag gebend - über den Rest (RT und Co.) kann ich hinweg sehen, da man die Beleuchtung auch ohne RT super hinbekommen kann.

Klar DLSS ist eine gute Sache um Leistung zu generieren, ist aber nicht bei jedem Titel verfügbar - also bleibt erst einmal die native Auflösung als Vergleich für mich. Selbes wird ja irgendwann für AMD kommen - auch hier wird wohl nicht jedes Spiel es unterstützen, auch wenn es sich durch die neuen Konsolen evtl. schneller verbreiten könnte.
@elmobank Ich finde es erfreulich das die reine Rohleistung bei AMD und Nvidia sehr nah beieinander liegt. Diese Aussage kann ich jedoch leider nicht teilen "Wir sind endlich bei einem Gleichstand bei den GPUs angekommen".
Für einen Gleichstand müsste AMD eine DLSS Alternative liefern, was aktuell noch nicht der Fall ist. So ist für mich, der ausschließlich in 4k spielt und auch überwiegend Spiele mit DLSS Support (z.B. Cyberpunk 2077), die Funktion wichtiger wie die fehlenden 6GB Speicher im Vergleich.

Mittelfristig kann hier AMD Nvidia aber überholen (Mehr Speicher und ggf. in einem Jahr eine brauchbare DLSS Alternativ?). Gut zu erkennen im Vergleich mit einer R9 290X mit 8GB (7 Jahre), die eine GTX 780 richtig alt aussehen lässt.

Aktuell betrifft es dann aber auch nur Leute die Ihre Grafikkarte nicht nach 2-4 Jahren wieder verkaufen. (Was im Highendbereich eher öfters passiert)
Wenn man nur in 4k spielen möchte, mit möglichst hohen fps, dann führt an DLSS kein Weg vorbei (oder abstriche mot Regler an links) - aber auch nur in den unterstützten Spielen. Aktuell weiß man ja leider nicht genau, wann AMD das Gegenstück liefert, aber es soll ja kommen - bin gespannt, wie die es dann lösen werden.

Viele Spiele mit Raytracing und DLSS sind es ja noch nicht - es sei denn die Liste bei gamestar ist nicht vollständig:


Was mich eigentlich aktuell am meisten stört, dass sind die aktuellen Hardwarepreise:
Eine RTX3090 bekommt man in der freien Wildbahn meist nur >2000€ zu sehen, eine RX6900XT meist nur >1300€.
 
Zuletzt bearbeitet:
In 4K nehmen sich die beiden nicht viel (je nach Titel).
Stimmt, im gesamten 4K liegt die 3090 mit 5% (!) vor der 6900XT.
Dafür kostet sie just 1000 € mehr, verbratet mehr Strom und bietet schlechteres OC Potential.
In 1920 X 1080 und 2560 X 1440 (was wohl verbreiteter als 4K sein dürfte) liegt die 6900XT vorne.
MMn beides gute Karten auf Augenhöhe. Hab nur lediglich was dagegen, wenn div. User behaupten,
dass wegen 5% die andere Karte "Schrott" sei ... :stupid:


MfG Föhn.
Je nach Quelle sind es auch mehr wie 5%. Am Ende bleibt aber die Aussage die du kritisiert hast korrekt. Die 3090 ist insgesamt bei vielen Benchmarks in allen Auflösungen schneller und das über Messtoleranzen hinaus. Auch der neue Treiber wird da keine Wunder bewirken sondern die Lücken schließen/verkleinern.
Und nein das heißt nicht das die 6900xt voll abstinkt oder das die Karte nichts taugt oder das man wenn man Leistung will keine AMD kaufen darf / das AMD Schrott ist. Habe ich aber so auch bei der urprünglichen Aussage nicht gesehen.

Das waren lediglich Beispiele für all jene, welche die ganze Zeit behaupten, dass die 3090 in 4K "die klar Bessere" sei und die 6900XT in UHD KEINE Chance hat. Oder hast Du mich schon jemals behaupten gehört, respektive gelesen, dass die 6900XT die bessere Karte sei/ist als die 3090 in 4K ?!?
Evtl. mMn als Gesamtpaket bzgl. FPS/€/Watt ! :nicken:

MfG Föhn.
Nein hast du direkt nie gesagt. Aber es ist klar was du hier versuchst. Bewusst positive Benchmarks raussuchen und dann Leuten vorzugaukeln die Karte sei besser als sie am Ende ist. Denn insgesamt kann sie die Ergebnisse nicht halten. Hättest du das entsprechend kommuniziert, dann wäre das ganze auch vollkommen in Ordnung. So behalten die Benches von dir nur einen faden Beigeschmack.
Und im oben zitierten Post machst du das deutlich besser. Statt irgendwelche Cherrypicks die echten stärken der AMD Karte hervorgehoben.
Du hast aber schon gesehen, dass der PCGH Test vom Dezember letzten Jahres (2020) und der AMD Treiber vom November ist ?!? Mittlerweile hat der Adrenalin Treiber ordentlich zugelegt. Zuletzt mit 21.3.2 und jetzt nochmal mit dem 21.4.1.
Davon mal abgesehen, dass von ALLEN deutschen Fachmagazinen, die neue Navi 21 Generation auf PCGH am schlechtesten abgeschnitten hat. Deswegen ist´s ja auch Team Green´s Favorit ... :-P

Edit : Bitte siehe Post #61 von Raff

MfG Föhn.
Das Gleiche könnte man über Computerbase sagen. In keinem anderen deutschen Test schnitt AMD so gut ab. Am Ende liegt die Wahrheit wie so oft irgendwo dazwischen.
Aber der Treiber alleine wird sicher nicht die Ursache für die plötzliche Verbesserung sein. Der GPU Index hat auch andere Titel die getestet wurden etc. Insbesondere DX12 Titel sind mittlerweile stärker vertreten was sicher zugunsten von AMD sein dürfte.
 
Nein hast du direkt nie gesagt. Aber es ist klar was du hier versuchst. Bewusst positive Benchmarks raussuchen und dann Leuten vorzugaukeln die Karte sei besser als sie am Ende ist. Denn insgesamt kann sie die Ergebnisse nicht halten. Hättest du das entsprechend kommuniziert, dann wäre das ganze auch vollkommen in Ordnung. So behalten die Benches von dir nur einen faden Beigeschmack.
Wurde von mir just editiert und jene welche als solche deklariert ... :gruebel:

MfG Föhn.
 
Macht das wofür eure Grafikkarten gedacht sind: zocken. Das sorgt ziemlich sicher für mehr Spaß. Oder haben einige hier nur dicke Hardware um Flagge zu bekennen und schlechte Laune zu verbreiten?
Tatsächlich ist dem so. Die roten hardcore AMDler müssen hier immer wieder sticheln, provozieren und mit Falschaussagen Nvidia Hardware schlecht machen:
Unbenannt.JPG
Unbenannt2.JPG
Unbenannt3.JPG


Seahawk betitelt im letzten Screen spiele wie Horizon Zero Dawn, Division 2 oder Borderlands 3 als "Retro Games" die sie mit ihrer 6900XT ja eh nicht spielen. Dann kommen User wie @seahawk, @Chatstar und @onkel-foehn immer mit den gleichen 5-6 Cherrypicks um die Ecke, in der ihre AMD GPU ausnahmsweise mal besser performt.
Es werden dann Screenshots von einzelnen Spiele-Benchmarks gezeigt und ab dem 3-4 Game ist die 6900XT auch nicht mehr vorne, sondern "nur noch" gleich auf, weil ihnen die Cherrypicks ausgehen und selbst dann fällt ihnen nicht auf, was für einen Unsinn sie hier verbreiten.

Ich werde darauf gar nicht eingehen, denn ich muss keinen Fehlkauf an Grafikkarte rechtfertigen, wie die Amperekäufer. Die Qualität der Radeons ist unstrittig.
Hast du auch nur einmal einen User mit Nvidia GPU gesehen, der RDNA2 als Fehlkauf betitelt oder mit einem kommenden Wundertreiber oder "Fine Wine" argumentiert? Solche Sprüche kommen immer nur von Usern mit AMD Hardware. Die müssen scheinbar irgendwas kompensieren.

Warum micht das stört und ich dagegen argumentiere? Das hier ist ein offenes PC Forum und viele andere, die mögicherweise keine Ahnung haben und neue Hardware kaufen wollen, informieren sich hier.
Ich gehörte z.B. selbst mal dazu und habe mir aufgrund so einiger Falschaussagen in diversen Foren damals eine FX-CPU gekauft. Das Budget spielte da auch eine große Rolle, aber eben nicht nur. Tja, das war ein Fehler.
 
Zuletzt bearbeitet:

Anhänge

  • Bench 1920x1080.jpg
    Bench 1920x1080.jpg
    364,3 KB · Aufrufe: 36
  • Bench 2560x1440.jpg
    Bench 2560x1440.jpg
    358,7 KB · Aufrufe: 28
  • Bench 3840x2160.jpg
    Bench 3840x2160.jpg
    325,6 KB · Aufrufe: 33
Aber halt nur auch hier auf PCGH ... :stick:

MfG Föhn.
Oder nur auf deinen Cherrypicks von PC-Welt.

Hier der CB Benchmark mit fast den gleichen Spielen:
Unbenannt.JPG


Du bestätigst damit auch bestens meine Aussage vom Post 84. Im Screen von seahawk likest du seine Aussage bezüglich Retrogames (Horizon Zero Dawn, Borderlands 3, Division 2 etc.) und postest aber nun selbst Benchmarks von genau diesen Spielen, weil hier jetzt deine AMD GPU vorne liegt.
Unbenannt3.jpg


Warum tust du das? Warum versuchst du krampfhaft mit Cherrypicks die Hardware anderer schlecht zu reden? Wirst du von AMD dafür bezahlt?

Edit:
Im 3DCenter gibts ne Übersicht mehrerer Tests und in keinem einzigen liegt die 6900XT vor der 3090:
Die 6900XT liegt mit 1,4% mehr Performance und ohne SAM gerade eben so vor der 3080.
 
Zuletzt bearbeitet:
jede engine bekommt mittlerweile dlss das ist das größte argument gegen amd und dann sinds auch mal 70% unterschied beim ähnlichen bild
 
Die obige Diskussion ergibt keinen Sinn. Die RTX 3090 ist für Ultra HD ohne jeden Zweifel die schnellste Grafikkarte, dazu muss man nicht mal selektieren. Ampere braucht die zusätzlichen Pixel, um sich optimal auszulasten, und verfügt außerdem über genug Off-Chip-Speichertransferrate. Das ist mittlerweile die einzige Rasterdisziplin, die Nvidia noch klar für sich beanspruchen kann. Wären die GA102-GPUs und ihr GDDR6X nicht derart stromdurstig, wäre der Abstand noch größer - aber das kann man zumindest durch beherztes GPU-Undervolting entschärfen.

MfG
Raff
 
Wären die GA102-GPUs und ihr GDDR6X nicht derart stromdurstig, wäre der Abstand noch größer - aber das kann man zumindest durch beherztes GPU-Undervolting entschärfen.
Hat man wie ich Glück bei der Silicon Lottery, lässt sich die Effizienz der 3090 deutlich steigern. Meine 3090 Suprim X läuft mit einer Custom Voltage Curve im Afterburner, +700 MHz auf dem VRAM und 330W Powertarget. Ist sie nicht im Powerlimit, liegen durchgehend 1935-1950 MHz an. Wird es wie in Cyberpunk 2077 mit RT richtig fordernd, sinkt der GPU Takt im schlimmsten Fall auf 1780-1800 MHz.

Mit dem zusätzlichen Takt beim VRAM steht eine satte Bandbreite von 1003 GB/Sek. zur Verfügung und durch das 330W Powertarget bleiben die Temperaturen weit im dunkelgrünen Bereich. Die RTX 3090 Suprim X kommt bei Werkseinstellungen wohlgemerkt mit einem Powertarget von 420W daher, habe ihr also schon viel Wind aus den Segeln genommen. Sämtliche Wärmeleitpads habe ich bei der Karte ebenfalls getauscht und die werksseitige WLP durch Kryonaut ersetzt.

Bin super zufrieden mit der Karte :daumen:
 
Hat man wie ich Glück bei der Silicon Lottery, lässt sich die Effizienz der 3090 deutlich steigern. Meine 3090 Suprim X läuft mit einer Custom Voltage Curve im Afterburner, +700 MHz auf dem VRAM und 330W Powertarget. Ist sie nicht im Powerlimit, liegen durchgehend 1935-1950 MHz an. Wird es wie in Cyberpunk 2077 mit RT richtig fordernd, sinkt der GPU Takt im schlimmsten Fall auf 1780-1800 MHz.

Mit dem zusätzlichen Takt beim VRAM steht eine satte Bandbreite von 1003 GB/Sek. zur Verfügung und durch das 330W Powertarget bleiben die Temperaturen weit im dunkelgrünen Bereich. Die RTX 3090 Suprim X kommt bei Werkseinstellungen wohlgemerkt mit einem Powertarget von 420W daher, habe ihr also schon viel Wind aus den Segeln genommen. Sämtliche Wärmeleitpads habe ich bei der Karte ebenfalls getauscht und die werksseitige WLP durch Kryonaut ersetzt.

Bin super zufrieden mit der Karte :daumen:
Bei dem Preis der Karte würde ich eher erwarten, dass die Wärmeleitpaste und -pads schon aus dem oberen Regel genommen wurden...

Mit UV geht bei nvidia immer einiges, da meist zu viel Spannung anliegt um möglichst viele Chips die Taktraten schaffen - selbes gilt eigentlich auch für AMD, nur ist es dort etwas komplexer aktuell.

Generell taugen beide Karten fürs Gaming, egal welche Auflösung. Einziger Wermutstropfen ist und bkeibt aktuell der Preis. Wer das Beste in Leistung und Ausstattung haben möchte, muss > 2000€ für eine RTX3090 ausgeben und das ist einfach nur übel bei einer UVP der FE für um 1500€.
Da stellt sich dann garantiert für jeden die Frage, ob die paar % mehr diesen Aufpreis wert sind, aber das muss jedee für sich selber entscheiden.
 
Der Preisvergleich hilft ja auch nur bedingt. Sieht man auf MF und ALT und vergleicht mit offiziell ausgerufener UVP/MSRP, dann bekommt man hier derzeit die billigste 3090 bei ALT für +47 % Aufschlag. Bei der 6900XT bekommt man derzeit das günstigste Modell bei MF, zahlt hier jedoch gar +70 % Preisaufschlag.

Und bei Steam sieht man Substitutionseffekte aufgrund der schlechten Verfügbarkeit der RTX 3080, den andernfalls wäre die RTX 3090 bei dem hohen Preis vermutlich nicht ganz so häufig gekauft worden. Aktuell sieht man hier in der DX12-Übersicht 0,33 % 3090er. Dagegen die RX 6900 XT erreicht gerade mal 0,04 % Verbreitung, d. h. von 10 GPUs entfällt nur eine auf die 6900XT und 9 auf die 3090. Durchaus erstaunlich, wie viele hier bereit sind diese extremen Preise zu zahlen und offensichtlich kauft der Markt insgesamt auch weiterhin präferiert nVidia-Hardware.

Randbemerkung, da öfters die Relevanz von nVidia's Raytracing-Implementation und DLSS für den PC-Markt in Abrede gestellt wird:
Sämtliche AMD-GPUs (alt, neu, Desktop, Mobile), nehmen bei Steam in der DX12-Übersicht gerade mal 13,7 % Anteil ein. nVidia dagegen kommt alleine mit seinen Desktop-RTX-GPUs bereits auf einen Anteil von 16,1 % Anteil. (Über alles erreicht nVidia-Hardware bei Steam 73,0 % Anteil).
Dagegen die aktuelleren AMD-Modelle Radeon VII und RDNA/2 bis hinunter zur RX 5600XT kommen auf gerade mal zusammen 1,75 % Verbreitung, d. h. vergleicht man "aktuelle" AMD-Hardware gegen Desktop-RTX-Hardware ist erneut gerade mal eine von 10 GPUs von AMD auf dem PC, wobei der Vergleich schon schöngerechnet ist, denn bspw. Raytracing-fähig ist nur RDNA2, das jedoch derzeit gerade mal auf in Summe 0,15 % kommt (während nVidia mit seiner RTX 3000er-Serie auf dem Desktop trotz der "überspannten" Preissituation bereits 2,90 % Anteil hält).

Man darf gespannt sein ob bzgl. einer Fertigungsnormalisierung AMD oder nVidia mittelfristig besser wegkommen wird, denn so wie es aktuell aussieht, wird RDNA2 bzgl. AMDs Marktanteilen auf dem PC keinen nennenswerten Zugewinn herbeiführen können, sondern man kann froh sein, wenn man den Status Quo halten kann (was letzten Endes nicht unbedingt vorteilhaft für den Markt insgesamt ist).
 
Zuletzt bearbeitet:
Warum tust du das? Warum versuchst du krampfhaft mit Cherrypicks die Hardware anderer schlecht zu reden? Wirst du von AMD dafür bezahlt?
Er macht das nur um Traffic zu generieren. Er weiß selber, dass die 3090 bei 95% der Tests 11% schneller ist.
Mit den neuen Treibern hat AMD vielleicht ein wenig in 4K aufgeholt.
Dieser Test hier ist total neu mir frischem Sam und rBar und dennoch 13,3%.
 
https://www.computerbase.de/thema/grafikkarte/rangliste/

im Schnitt ist die 6900xt hier schneller.

Also das müsste eigentlich reichen, um jeden zu überzeugen, dass die Karten ziemlich ebenbürtig sind.
Warum das bei einigen nicht ankommt, kann sich jeder selbst beantworten.

Aber noch mal ganz klar, es hängt von der Auswahl der Spiele ab, welche Karte vorne ist.
Es gibt einige sehr bekannte Medien, in denen die 6900xt overall vorne ist.

Das die 3090 in 95% der Fälle X Prozent schneller sein soll, ist total falsch, außer man will es so aussehen lassen.
Mann kann das ganze auch anders rum darstellen, aber genau das sollte man nicht tun, wenn man irgendwie noch den Anschein von Objektivität wahren möchte.

Also, dass die eine Karte immer oder in 95% der Fälle schneller rechnet ist genauso falsch wie anders rum.

Was aber stimmt, ist, dass AMD in neuen Games oft vorne liegt, mal sehen wie sich das noch auswirkt, wird wohl wie fast immer sein, AMDs Karten halten länger und ich werde mir eh eine 6900xt oder 6800xt kaufen.
Völlig egal wie toll Nvidia RTX kann. Bei meiner Nutzungsdauer zählt das eh nicht, weil man in 2 jahren sicher gar kein Raytracing mehr zocken kann, mit keiner aktuellen Karte.

Grüße
 
Zuletzt bearbeitet:
Ist halt einfach ein extrem dufter Laden !! :wall:

MfG Föhn.
Steam bildet halt eine große Masse ab, nur ist ein Großteil der Spielerschaft eher mit CS und Co beschäftigt, da will man möglichst viele fps haben und hier kann es je nach Spiel und vorhaben sinnvoll sein, eine nvidia drin zu haben.

Die nächste Frage ist ja auch, haben alle der Hardwareumfrage zugestimmt? Ich z.B. nicht, da ich meine Daten lieber selber sammel. Also im Endeffekt ist das Bild aus Steam ähnlich zu werten wie eine Hardwareabfrage bei pcgh. Es ist interessant, bildet aber auch wieder nur einen Teil der Käuferschaft ab.

Vorteil bei der RX6xxx ist aktuell, dass die sich fürs Mining so ohne weiteres nicht lohnen, da ähnliche Miningleistung zur 5700 existiert, also ist die Chance groß, dass man sich "nur" mit Scalpern rumschlagen muss. Auch bei den aufgerufenen Preisen kommt AMD etwas besser bei weg, da die nicht ganz so hoch explodiert sind wie die von nvidia (3090 statt 1500€ z.B. 2700€), aber auch hier sieht man mal ab und zu Licht am Ende des Preistunnels, da immer mal wieder günstigere Modelle angeboten werden.

Es ist einfach ein bescheidenes Jahr um GPUs zu kaufen, bei den CPU hat es sich ja nun etwas beruhigt - mal schauen, ob demnächst dann SSD-Speicher wirklich teurer werden könnte...
 
Die Hardwareumfrage bei Steam erkennt auch nicht alles. Sowohl meine Radeon VII, als auch die Vega FE werden nicht erkannt. Also nicht nur dass sie angeblich nicht in der Lage ist zu sehen dass die Karten 16GiB Speicher haben, sie erkennt nicht mal dass es Karten von AMD sind. Meine gtx580 mit 1,5 und 3GiB damals konnte die Umfrage aber tadellos unterscheiden. Das ist lächerlich! Wer das programmiert hat, der wollte einfach bestimmte Modelle nicht erkennen. Oder fällt hier irgendjemandem ein anderer Grund ein?
 
Zuletzt bearbeitet:
Steam ist sauteuer und mit der Abfrage mach ich auch immer nur bekanntscht wenn ich Nvidia habe. Die haben mich bei der 1070 und der 1080 gefragt aber davor, in 5 Jahren 7970, kann ich mich nicht an eine einzige Abfrage erinnern.
Nach den Nvidiakarten, als ich mit der Vega 64 und der 5700xt unterwegs war, kam auch nichts.
Wenn die mal ernsthaft eine Datenerhebung anstellen wollen, sollen sie einfach einmal alle fragen. So viel Speicherplatz nimmt das sicher nicht weg und den Server für die Anfragen können die sich bei ihren Preisen auch leisten
 
Benchmarks sind beliebig, auch die von PCGH.

Die Benchmark Marathons auf der PCGH sind doch komplett nutzlos, solange man später nicht seine Auflösung wählen und die Spiele, die man nicht spielt, abwählen kann. Ja, ich spiele idR in 1080p atm noch an einem 240Hz Monitor mit einer 6900XT.
 
Randbemerkung, da öfters die Relevanz von nVidia's Raytracing-Implementation und DLSS für den PC-Markt in Abrede gestellt wird:
Sämtliche AMD-GPUs (alt, neu, Desktop, Mobile), nehmen bei Steam in der DX12-Übersicht gerade mal 13,7 % Anteil ein. nVidia dagegen kommt alleine mit seinen Desktop-RTX-GPUs bereits auf einen Anteil von 16,1 % Anteil. (Über alles erreicht nVidia-Hardware bei Steam 73,0 % Anteil).
Dagegen die aktuelleren AMD-Modelle Radeon VII und RDNA/2 bis hinunter zur RX 5600XT kommen auf gerade mal zusammen 1,75 % Verbreitung, d. h. vergleicht man "aktuelle" AMD-Hardware gegen Desktop-RTX-Hardware ist erneut gerade mal eine von 10 GPUs von AMD auf dem PC, wobei der Vergleich schon schöngerechnet ist, denn bspw. Raytracing-fähig ist nur RDNA2, das jedoch derzeit gerade mal auf in Summe 0,15 % kommt (während nVidia mit seiner RTX 3000er-Serie auf dem Desktop trotz der "überspannten" Preissituation bereits 2,90 % Anteil hält).
DLSS kann man sicher diskutieren, da die aktuelle Implementation wohl relativ einfach implementiert werden kann. Bei RT sieht es meiner Ansicht nach anders aus.
Die Marktanteile reichen bei weitem nicht um das plausibel zu erklären. Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann. Sowas wird ziemlich sicher von Nvidia stark gefördert andernfalls würde das Interesse sicher gering bleiben. Mit den neuen Konsolen wird sich das vermutlich etwas wandeln dass dauert aber noch bis wir hier richtig Bewegung sehen werden.

Steam ist sauteuer und mit der Abfrage mach ich auch immer nur bekanntscht wenn ich Nvidia habe. Die haben mich bei der 1070 und der 1080 gefragt aber davor, in 5 Jahren 7970, kann ich mich nicht an eine einzige Abfrage erinnern.
Nach den Nvidiakarten, als ich mit der Vega 64 und der 5700xt unterwegs war, kam auch nichts.
Wenn die mal ernsthaft eine Datenerhebung anstellen wollen, sollen sie einfach einmal alle fragen. So viel Speicherplatz nimmt das sicher nicht weg und den Server für die Anfragen können die sich bei ihren Preisen auch leisten
Ich hatte in der Zeit meiner 5870 3-4 Steamabfragen in 5 Jahren und nun mit 8 Jahren Nvidia nur eine. Soll ich nun daraus schließen das AMD bevorzugt wird?
Solange man ausreichend Nutzer fragt wird sich am Ende wenig bewegen. Jeden zu fragen wird dann wenig neues bringen.
Theoretisch könnten Spieleentwickler genau sagen was für GPUs die aktuellen Spiele zockt, da die Spiele ausnahmslos nach Hause telefonieren.
 
Zurück