• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

elmobank

Software-Overclocker(in)
Gleichstand in reiner Rasterization auf jeden Fall. Schaltet man RT und / oder DLSS dazu dann liegen Welten zwischen den Karten.
Nicht jeder hat interesse an RT - dazu zähle ich zum Beispiel.
RT mag eine schöne Sache sein, aber ohne entsprechende Unterstützung mit z.B. DLSS liefern die Karten, egal welchen Herstellers, einfach nicht genug fps, sodass man in Multiplayerspielen das Nachsehen hat. Und ob ne Pfütze nun fröhlich spiegelt oder nicht, das macjt in den wenigsten Fällen einen Unterschied aus und bevor man einen Gegner in einer Spiegelung sieht hat man meist schon das pixelzeitliche gesegnet.
In reinen Singleplayern hingegen mag es nicht so gravierend auffallen, aber dort ist eher ein ordentliche Grafikgerüst und Story für mich ausschlag gebend - über den Rest (RT und Co.) kann ich hinweg sehen, da man die Beleuchtung auch ohne RT super hinbekommen kann.

Klar DLSS ist eine gute Sache um Leistung zu generieren, ist aber nicht bei jedem Titel verfügbar - also bleibt erst einmal die native Auflösung als Vergleich für mich. Selbes wird ja irgendwann für AMD kommen - auch hier wird wohl nicht jedes Spiel es unterstützen, auch wenn es sich durch die neuen Konsolen evtl. schneller verbreiten könnte.
@elmobank Ich finde es erfreulich das die reine Rohleistung bei AMD und Nvidia sehr nah beieinander liegt. Diese Aussage kann ich jedoch leider nicht teilen "Wir sind endlich bei einem Gleichstand bei den GPUs angekommen".
Für einen Gleichstand müsste AMD eine DLSS Alternative liefern, was aktuell noch nicht der Fall ist. So ist für mich, der ausschließlich in 4k spielt und auch überwiegend Spiele mit DLSS Support (z.B. Cyberpunk 2077), die Funktion wichtiger wie die fehlenden 6GB Speicher im Vergleich.

Mittelfristig kann hier AMD Nvidia aber überholen (Mehr Speicher und ggf. in einem Jahr eine brauchbare DLSS Alternativ?). Gut zu erkennen im Vergleich mit einer R9 290X mit 8GB (7 Jahre), die eine GTX 780 richtig alt aussehen lässt.

Aktuell betrifft es dann aber auch nur Leute die Ihre Grafikkarte nicht nach 2-4 Jahren wieder verkaufen. (Was im Highendbereich eher öfters passiert)
Wenn man nur in 4k spielen möchte, mit möglichst hohen fps, dann führt an DLSS kein Weg vorbei (oder abstriche mot Regler an links) - aber auch nur in den unterstützten Spielen. Aktuell weiß man ja leider nicht genau, wann AMD das Gegenstück liefert, aber es soll ja kommen - bin gespannt, wie die es dann lösen werden.

Viele Spiele mit Raytracing und DLSS sind es ja noch nicht - es sei denn die Liste bei gamestar ist nicht vollständig:


Was mich eigentlich aktuell am meisten stört, dass sind die aktuellen Hardwarepreise:
Eine RTX3090 bekommt man in der freien Wildbahn meist nur >2000€ zu sehen, eine RX6900XT meist nur >1300€.
 
Zuletzt bearbeitet:

Bl4ckR4v3n

Freizeitschrauber(in)
In 4K nehmen sich die beiden nicht viel (je nach Titel).
Stimmt, im gesamten 4K liegt die 3090 mit 5% (!) vor der 6900XT.
Dafür kostet sie just 1000 € mehr, verbratet mehr Strom und bietet schlechteres OC Potential.
In 1920 X 1080 und 2560 X 1440 (was wohl verbreiteter als 4K sein dürfte) liegt die 6900XT vorne.
MMn beides gute Karten auf Augenhöhe. Hab nur lediglich was dagegen, wenn div. User behaupten,
dass wegen 5% die andere Karte "Schrott" sei ... :stupid:


MfG Föhn.
Je nach Quelle sind es auch mehr wie 5%. Am Ende bleibt aber die Aussage die du kritisiert hast korrekt. Die 3090 ist insgesamt bei vielen Benchmarks in allen Auflösungen schneller und das über Messtoleranzen hinaus. Auch der neue Treiber wird da keine Wunder bewirken sondern die Lücken schließen/verkleinern.
Und nein das heißt nicht das die 6900xt voll abstinkt oder das die Karte nichts taugt oder das man wenn man Leistung will keine AMD kaufen darf / das AMD Schrott ist. Habe ich aber so auch bei der urprünglichen Aussage nicht gesehen.

Das waren lediglich Beispiele für all jene, welche die ganze Zeit behaupten, dass die 3090 in 4K "die klar Bessere" sei und die 6900XT in UHD KEINE Chance hat. Oder hast Du mich schon jemals behaupten gehört, respektive gelesen, dass die 6900XT die bessere Karte sei/ist als die 3090 in 4K ?!?
Evtl. mMn als Gesamtpaket bzgl. FPS/€/Watt ! :nicken:

MfG Föhn.
Nein hast du direkt nie gesagt. Aber es ist klar was du hier versuchst. Bewusst positive Benchmarks raussuchen und dann Leuten vorzugaukeln die Karte sei besser als sie am Ende ist. Denn insgesamt kann sie die Ergebnisse nicht halten. Hättest du das entsprechend kommuniziert, dann wäre das ganze auch vollkommen in Ordnung. So behalten die Benches von dir nur einen faden Beigeschmack.
Und im oben zitierten Post machst du das deutlich besser. Statt irgendwelche Cherrypicks die echten stärken der AMD Karte hervorgehoben.
Du hast aber schon gesehen, dass der PCGH Test vom Dezember letzten Jahres (2020) und der AMD Treiber vom November ist ?!? Mittlerweile hat der Adrenalin Treiber ordentlich zugelegt. Zuletzt mit 21.3.2 und jetzt nochmal mit dem 21.4.1.
Davon mal abgesehen, dass von ALLEN deutschen Fachmagazinen, die neue Navi 21 Generation auf PCGH am schlechtesten abgeschnitten hat. Deswegen ist´s ja auch Team Green´s Favorit ... :-P

Edit : Bitte siehe Post #61 von Raff

MfG Föhn.
Das Gleiche könnte man über Computerbase sagen. In keinem anderen deutschen Test schnitt AMD so gut ab. Am Ende liegt die Wahrheit wie so oft irgendwo dazwischen.
Aber der Treiber alleine wird sicher nicht die Ursache für die plötzliche Verbesserung sein. Der GPU Index hat auch andere Titel die getestet wurden etc. Insbesondere DX12 Titel sind mittlerweile stärker vertreten was sicher zugunsten von AMD sein dürfte.
 

onkel-foehn

Software-Overclocker(in)
Nein hast du direkt nie gesagt. Aber es ist klar was du hier versuchst. Bewusst positive Benchmarks raussuchen und dann Leuten vorzugaukeln die Karte sei besser als sie am Ende ist. Denn insgesamt kann sie die Ergebnisse nicht halten. Hättest du das entsprechend kommuniziert, dann wäre das ganze auch vollkommen in Ordnung. So behalten die Benches von dir nur einen faden Beigeschmack.
Wurde von mir just editiert und jene welche als solche deklariert ... :gruebel:

MfG Föhn.
 

owned139

BIOS-Overclocker(in)
Macht das wofür eure Grafikkarten gedacht sind: zocken. Das sorgt ziemlich sicher für mehr Spaß. Oder haben einige hier nur dicke Hardware um Flagge zu bekennen und schlechte Laune zu verbreiten?
Tatsächlich ist dem so. Die roten hardcore AMDler müssen hier immer wieder sticheln, provozieren und mit Falschaussagen Nvidia Hardware schlecht machen:
Unbenannt.JPG
Unbenannt2.JPG
Unbenannt3.JPG


Seahawk betitelt im letzten Screen spiele wie Horizon Zero Dawn, Division 2 oder Borderlands 3 als "Retro Games" die sie mit ihrer 6900XT ja eh nicht spielen. Dann kommen User wie @seahawk, @Chatstar und @onkel-foehn immer mit den gleichen 5-6 Cherrypicks um die Ecke, in der ihre AMD GPU ausnahmsweise mal besser performt.
Es werden dann Screenshots von einzelnen Spiele-Benchmarks gezeigt und ab dem 3-4 Game ist die 6900XT auch nicht mehr vorne, sondern "nur noch" gleich auf, weil ihnen die Cherrypicks ausgehen und selbst dann fällt ihnen nicht auf, was für einen Unsinn sie hier verbreiten.

Ich werde darauf gar nicht eingehen, denn ich muss keinen Fehlkauf an Grafikkarte rechtfertigen, wie die Amperekäufer. Die Qualität der Radeons ist unstrittig.
Hast du auch nur einmal einen User mit Nvidia GPU gesehen, der RDNA2 als Fehlkauf betitelt oder mit einem kommenden Wundertreiber oder "Fine Wine" argumentiert? Solche Sprüche kommen immer nur von Usern mit AMD Hardware. Die müssen scheinbar irgendwas kompensieren.

Warum micht das stört und ich dagegen argumentiere? Das hier ist ein offenes PC Forum und viele andere, die mögicherweise keine Ahnung haben und neue Hardware kaufen wollen, informieren sich hier.
Ich gehörte z.B. selbst mal dazu und habe mir aufgrund so einiger Falschaussagen in diversen Foren damals eine FX-CPU gekauft. Das Budget spielte da auch eine große Rolle, aber eben nicht nur. Tja, das war ein Fehler.
 
Zuletzt bearbeitet:

onkel-foehn

Software-Overclocker(in)

Anhänge

  • Bench 1920x1080.jpg
    Bench 1920x1080.jpg
    364,3 KB · Aufrufe: 35
  • Bench 2560x1440.jpg
    Bench 2560x1440.jpg
    358,7 KB · Aufrufe: 26
  • Bench 3840x2160.jpg
    Bench 3840x2160.jpg
    325,6 KB · Aufrufe: 31

owned139

BIOS-Overclocker(in)
Aber halt nur auch hier auf PCGH ... :stick:

MfG Föhn.
Oder nur auf deinen Cherrypicks von PC-Welt.

Hier der CB Benchmark mit fast den gleichen Spielen:
Unbenannt.JPG


Du bestätigst damit auch bestens meine Aussage vom Post 84. Im Screen von seahawk likest du seine Aussage bezüglich Retrogames (Horizon Zero Dawn, Borderlands 3, Division 2 etc.) und postest aber nun selbst Benchmarks von genau diesen Spielen, weil hier jetzt deine AMD GPU vorne liegt.
Unbenannt3.jpg


Warum tust du das? Warum versuchst du krampfhaft mit Cherrypicks die Hardware anderer schlecht zu reden? Wirst du von AMD dafür bezahlt?

Edit:
Im 3DCenter gibts ne Übersicht mehrerer Tests und in keinem einzigen liegt die 6900XT vor der 3090:
Die 6900XT liegt mit 1,4% mehr Performance und ohne SAM gerade eben so vor der 3080.
 
Zuletzt bearbeitet:

manimani89

BIOS-Overclocker(in)
jede engine bekommt mittlerweile dlss das ist das größte argument gegen amd und dann sinds auch mal 70% unterschied beim ähnlichen bild
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Die obige Diskussion ergibt keinen Sinn. Die RTX 3090 ist für Ultra HD ohne jeden Zweifel die schnellste Grafikkarte, dazu muss man nicht mal selektieren. Ampere braucht die zusätzlichen Pixel, um sich optimal auszulasten, und verfügt außerdem über genug Off-Chip-Speichertransferrate. Das ist mittlerweile die einzige Rasterdisziplin, die Nvidia noch klar für sich beanspruchen kann. Wären die GA102-GPUs und ihr GDDR6X nicht derart stromdurstig, wäre der Abstand noch größer - aber das kann man zumindest durch beherztes GPU-Undervolting entschärfen.

MfG
Raff
 

Atma

PCGH-Community-Veteran(in)
Wären die GA102-GPUs und ihr GDDR6X nicht derart stromdurstig, wäre der Abstand noch größer - aber das kann man zumindest durch beherztes GPU-Undervolting entschärfen.
Hat man wie ich Glück bei der Silicon Lottery, lässt sich die Effizienz der 3090 deutlich steigern. Meine 3090 Suprim X läuft mit einer Custom Voltage Curve im Afterburner, +700 MHz auf dem VRAM und 330W Powertarget. Ist sie nicht im Powerlimit, liegen durchgehend 1935-1950 MHz an. Wird es wie in Cyberpunk 2077 mit RT richtig fordernd, sinkt der GPU Takt im schlimmsten Fall auf 1780-1800 MHz.

Mit dem zusätzlichen Takt beim VRAM steht eine satte Bandbreite von 1003 GB/Sek. zur Verfügung und durch das 330W Powertarget bleiben die Temperaturen weit im dunkelgrünen Bereich. Die RTX 3090 Suprim X kommt bei Werkseinstellungen wohlgemerkt mit einem Powertarget von 420W daher, habe ihr also schon viel Wind aus den Segeln genommen. Sämtliche Wärmeleitpads habe ich bei der Karte ebenfalls getauscht und die werksseitige WLP durch Kryonaut ersetzt.

Bin super zufrieden mit der Karte :daumen:
 

elmobank

Software-Overclocker(in)
Hat man wie ich Glück bei der Silicon Lottery, lässt sich die Effizienz der 3090 deutlich steigern. Meine 3090 Suprim X läuft mit einer Custom Voltage Curve im Afterburner, +700 MHz auf dem VRAM und 330W Powertarget. Ist sie nicht im Powerlimit, liegen durchgehend 1935-1950 MHz an. Wird es wie in Cyberpunk 2077 mit RT richtig fordernd, sinkt der GPU Takt im schlimmsten Fall auf 1780-1800 MHz.

Mit dem zusätzlichen Takt beim VRAM steht eine satte Bandbreite von 1003 GB/Sek. zur Verfügung und durch das 330W Powertarget bleiben die Temperaturen weit im dunkelgrünen Bereich. Die RTX 3090 Suprim X kommt bei Werkseinstellungen wohlgemerkt mit einem Powertarget von 420W daher, habe ihr also schon viel Wind aus den Segeln genommen. Sämtliche Wärmeleitpads habe ich bei der Karte ebenfalls getauscht und die werksseitige WLP durch Kryonaut ersetzt.

Bin super zufrieden mit der Karte :daumen:
Bei dem Preis der Karte würde ich eher erwarten, dass die Wärmeleitpaste und -pads schon aus dem oberen Regel genommen wurden...

Mit UV geht bei nvidia immer einiges, da meist zu viel Spannung anliegt um möglichst viele Chips die Taktraten schaffen - selbes gilt eigentlich auch für AMD, nur ist es dort etwas komplexer aktuell.

Generell taugen beide Karten fürs Gaming, egal welche Auflösung. Einziger Wermutstropfen ist und bkeibt aktuell der Preis. Wer das Beste in Leistung und Ausstattung haben möchte, muss > 2000€ für eine RTX3090 ausgeben und das ist einfach nur übel bei einer UVP der FE für um 1500€.
Da stellt sich dann garantiert für jeden die Frage, ob die paar % mehr diesen Aufpreis wert sind, aber das muss jedee für sich selber entscheiden.
 

gerX7a

Software-Overclocker(in)
Der Preisvergleich hilft ja auch nur bedingt. Sieht man auf MF und ALT und vergleicht mit offiziell ausgerufener UVP/MSRP, dann bekommt man hier derzeit die billigste 3090 bei ALT für +47 % Aufschlag. Bei der 6900XT bekommt man derzeit das günstigste Modell bei MF, zahlt hier jedoch gar +70 % Preisaufschlag.

Und bei Steam sieht man Substitutionseffekte aufgrund der schlechten Verfügbarkeit der RTX 3080, den andernfalls wäre die RTX 3090 bei dem hohen Preis vermutlich nicht ganz so häufig gekauft worden. Aktuell sieht man hier in der DX12-Übersicht 0,33 % 3090er. Dagegen die RX 6900 XT erreicht gerade mal 0,04 % Verbreitung, d. h. von 10 GPUs entfällt nur eine auf die 6900XT und 9 auf die 3090. Durchaus erstaunlich, wie viele hier bereit sind diese extremen Preise zu zahlen und offensichtlich kauft der Markt insgesamt auch weiterhin präferiert nVidia-Hardware.

Randbemerkung, da öfters die Relevanz von nVidia's Raytracing-Implementation und DLSS für den PC-Markt in Abrede gestellt wird:
Sämtliche AMD-GPUs (alt, neu, Desktop, Mobile), nehmen bei Steam in der DX12-Übersicht gerade mal 13,7 % Anteil ein. nVidia dagegen kommt alleine mit seinen Desktop-RTX-GPUs bereits auf einen Anteil von 16,1 % Anteil. (Über alles erreicht nVidia-Hardware bei Steam 73,0 % Anteil).
Dagegen die aktuelleren AMD-Modelle Radeon VII und RDNA/2 bis hinunter zur RX 5600XT kommen auf gerade mal zusammen 1,75 % Verbreitung, d. h. vergleicht man "aktuelle" AMD-Hardware gegen Desktop-RTX-Hardware ist erneut gerade mal eine von 10 GPUs von AMD auf dem PC, wobei der Vergleich schon schöngerechnet ist, denn bspw. Raytracing-fähig ist nur RDNA2, das jedoch derzeit gerade mal auf in Summe 0,15 % kommt (während nVidia mit seiner RTX 3000er-Serie auf dem Desktop trotz der "überspannten" Preissituation bereits 2,90 % Anteil hält).

Man darf gespannt sein ob bzgl. einer Fertigungsnormalisierung AMD oder nVidia mittelfristig besser wegkommen wird, denn so wie es aktuell aussieht, wird RDNA2 bzgl. AMDs Marktanteilen auf dem PC keinen nennenswerten Zugewinn herbeiführen können, sondern man kann froh sein, wenn man den Status Quo halten kann (was letzten Endes nicht unbedingt vorteilhaft für den Markt insgesamt ist).
 
Zuletzt bearbeitet:

Opprobrium

PC-Selbstbauer(in)
Warum tust du das? Warum versuchst du krampfhaft mit Cherrypicks die Hardware anderer schlecht zu reden? Wirst du von AMD dafür bezahlt?
Er macht das nur um Traffic zu generieren. Er weiß selber, dass die 3090 bei 95% der Tests 11% schneller ist.
Mit den neuen Treibern hat AMD vielleicht ein wenig in 4K aufgeholt.
Dieser Test hier ist total neu mir frischem Sam und rBar und dennoch 13,3%.
 

Lamaan

Freizeitschrauber(in)
https://www.computerbase.de/thema/grafikkarte/rangliste/

im Schnitt ist die 6900xt hier schneller.

Also das müsste eigentlich reichen, um jeden zu überzeugen, dass die Karten ziemlich ebenbürtig sind.
Warum das bei einigen nicht ankommt, kann sich jeder selbst beantworten.

Aber noch mal ganz klar, es hängt von der Auswahl der Spiele ab, welche Karte vorne ist.
Es gibt einige sehr bekannte Medien, in denen die 6900xt overall vorne ist.

Das die 3090 in 95% der Fälle X Prozent schneller sein soll, ist total falsch, außer man will es so aussehen lassen.
Mann kann das ganze auch anders rum darstellen, aber genau das sollte man nicht tun, wenn man irgendwie noch den Anschein von Objektivität wahren möchte.

Also, dass die eine Karte immer oder in 95% der Fälle schneller rechnet ist genauso falsch wie anders rum.

Was aber stimmt, ist, dass AMD in neuen Games oft vorne liegt, mal sehen wie sich das noch auswirkt, wird wohl wie fast immer sein, AMDs Karten halten länger und ich werde mir eh eine 6900xt oder 6800xt kaufen.
Völlig egal wie toll Nvidia RTX kann. Bei meiner Nutzungsdauer zählt das eh nicht, weil man in 2 jahren sicher gar kein Raytracing mehr zocken kann, mit keiner aktuellen Karte.

Grüße
 
Zuletzt bearbeitet:

elmobank

Software-Overclocker(in)
Ist halt einfach ein extrem dufter Laden !! :wall:

MfG Föhn.
Steam bildet halt eine große Masse ab, nur ist ein Großteil der Spielerschaft eher mit CS und Co beschäftigt, da will man möglichst viele fps haben und hier kann es je nach Spiel und vorhaben sinnvoll sein, eine nvidia drin zu haben.

Die nächste Frage ist ja auch, haben alle der Hardwareumfrage zugestimmt? Ich z.B. nicht, da ich meine Daten lieber selber sammel. Also im Endeffekt ist das Bild aus Steam ähnlich zu werten wie eine Hardwareabfrage bei pcgh. Es ist interessant, bildet aber auch wieder nur einen Teil der Käuferschaft ab.

Vorteil bei der RX6xxx ist aktuell, dass die sich fürs Mining so ohne weiteres nicht lohnen, da ähnliche Miningleistung zur 5700 existiert, also ist die Chance groß, dass man sich "nur" mit Scalpern rumschlagen muss. Auch bei den aufgerufenen Preisen kommt AMD etwas besser bei weg, da die nicht ganz so hoch explodiert sind wie die von nvidia (3090 statt 1500€ z.B. 2700€), aber auch hier sieht man mal ab und zu Licht am Ende des Preistunnels, da immer mal wieder günstigere Modelle angeboten werden.

Es ist einfach ein bescheidenes Jahr um GPUs zu kaufen, bei den CPU hat es sich ja nun etwas beruhigt - mal schauen, ob demnächst dann SSD-Speicher wirklich teurer werden könnte...
 

Cleriker

PCGH-Community-Veteran(in)
Die Hardwareumfrage bei Steam erkennt auch nicht alles. Sowohl meine Radeon VII, als auch die Vega FE werden nicht erkannt. Also nicht nur dass sie angeblich nicht in der Lage ist zu sehen dass die Karten 16GiB Speicher haben, sie erkennt nicht mal dass es Karten von AMD sind. Meine gtx580 mit 1,5 und 3GiB damals konnte die Umfrage aber tadellos unterscheiden. Das ist lächerlich! Wer das programmiert hat, der wollte einfach bestimmte Modelle nicht erkennen. Oder fällt hier irgendjemandem ein anderer Grund ein?
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
Steam ist sauteuer und mit der Abfrage mach ich auch immer nur bekanntscht wenn ich Nvidia habe. Die haben mich bei der 1070 und der 1080 gefragt aber davor, in 5 Jahren 7970, kann ich mich nicht an eine einzige Abfrage erinnern.
Nach den Nvidiakarten, als ich mit der Vega 64 und der 5700xt unterwegs war, kam auch nichts.
Wenn die mal ernsthaft eine Datenerhebung anstellen wollen, sollen sie einfach einmal alle fragen. So viel Speicherplatz nimmt das sicher nicht weg und den Server für die Anfragen können die sich bei ihren Preisen auch leisten
 

openSUSE

Software-Overclocker(in)
Benchmarks sind beliebig, auch die von PCGH.

Die Benchmark Marathons auf der PCGH sind doch komplett nutzlos, solange man später nicht seine Auflösung wählen und die Spiele, die man nicht spielt, abwählen kann. Ja, ich spiele idR in 1080p atm noch an einem 240Hz Monitor mit einer 6900XT.
 

Bl4ckR4v3n

Freizeitschrauber(in)
Randbemerkung, da öfters die Relevanz von nVidia's Raytracing-Implementation und DLSS für den PC-Markt in Abrede gestellt wird:
Sämtliche AMD-GPUs (alt, neu, Desktop, Mobile), nehmen bei Steam in der DX12-Übersicht gerade mal 13,7 % Anteil ein. nVidia dagegen kommt alleine mit seinen Desktop-RTX-GPUs bereits auf einen Anteil von 16,1 % Anteil. (Über alles erreicht nVidia-Hardware bei Steam 73,0 % Anteil).
Dagegen die aktuelleren AMD-Modelle Radeon VII und RDNA/2 bis hinunter zur RX 5600XT kommen auf gerade mal zusammen 1,75 % Verbreitung, d. h. vergleicht man "aktuelle" AMD-Hardware gegen Desktop-RTX-Hardware ist erneut gerade mal eine von 10 GPUs von AMD auf dem PC, wobei der Vergleich schon schöngerechnet ist, denn bspw. Raytracing-fähig ist nur RDNA2, das jedoch derzeit gerade mal auf in Summe 0,15 % kommt (während nVidia mit seiner RTX 3000er-Serie auf dem Desktop trotz der "überspannten" Preissituation bereits 2,90 % Anteil hält).
DLSS kann man sicher diskutieren, da die aktuelle Implementation wohl relativ einfach implementiert werden kann. Bei RT sieht es meiner Ansicht nach anders aus.
Die Marktanteile reichen bei weitem nicht um das plausibel zu erklären. Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann. Sowas wird ziemlich sicher von Nvidia stark gefördert andernfalls würde das Interesse sicher gering bleiben. Mit den neuen Konsolen wird sich das vermutlich etwas wandeln dass dauert aber noch bis wir hier richtig Bewegung sehen werden.

Steam ist sauteuer und mit der Abfrage mach ich auch immer nur bekanntscht wenn ich Nvidia habe. Die haben mich bei der 1070 und der 1080 gefragt aber davor, in 5 Jahren 7970, kann ich mich nicht an eine einzige Abfrage erinnern.
Nach den Nvidiakarten, als ich mit der Vega 64 und der 5700xt unterwegs war, kam auch nichts.
Wenn die mal ernsthaft eine Datenerhebung anstellen wollen, sollen sie einfach einmal alle fragen. So viel Speicherplatz nimmt das sicher nicht weg und den Server für die Anfragen können die sich bei ihren Preisen auch leisten
Ich hatte in der Zeit meiner 5870 3-4 Steamabfragen in 5 Jahren und nun mit 8 Jahren Nvidia nur eine. Soll ich nun daraus schließen das AMD bevorzugt wird?
Solange man ausreichend Nutzer fragt wird sich am Ende wenig bewegen. Jeden zu fragen wird dann wenig neues bringen.
Theoretisch könnten Spieleentwickler genau sagen was für GPUs die aktuellen Spiele zockt, da die Spiele ausnahmslos nach Hause telefonieren.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Wenn du doch nur wüstest um was es geht.
In jedem Heft gibt's die Einzel-Indizes der vier Auflösungen (FHD, WQHD, UWQHD, UHD) neben dem (auch online publizierten) Gesamtindex - plus die Einzel-Fps der 20 Spiele in allen Auflösungen. Das ist schon mal eine Auflösung mehr als bei den meisten anderen Publikationen und ganz gewiss nicht beliebig (wenngleich man den ungeheuren Aufwand von außen nur erahnen kann). :-)

Einen "Mach's dir selbst"-Index gibt es ganz bewusst nicht, sonst wird das Gesamtwerk zerpflückt und für Glaubenskriege missbraucht. Das ist bei dem bewusst vielseitigen Gesamtindex schon schlimm genug.

MfG
Raff
 

DARPA

Volt-Modder(in)
Die Hardwareumfrage bei Steam erkennt auch nicht alles. Sowohl meine Radeon VII, als auch die Vega FE werden nicht erkannt. Also nicht nur dass sie angeblich nicht in der Lage ist zu sehen dass die Karten 16GiB Speicher haben, sie erkennt nicht mal dass es Karten von AMD sind.
Meine VII war 2x bei der Umfrage dabei und da wurde alles richtig erkannt.
Werde inzwischen jedes Jahr gefragt, immer im Dezember :-)

Davon ab bildet die Steam Survey den Gesamtmarkt schon recht gut ab.

Es gibt uns Hardcoreler, die sich im Grunde sehr gut mit den Produkten auskennen und uns quasi täglich damit beschäftigen. Dann gibts die Gruppe an Menschen, die gar keinen Plan von Hardware haben.

Und dazwischen gibts noch ne relativ große Gruppe, ich nenne sie einfach mal die Zocker. Die haben auch nen bisschen Plan von Hardware und PCs, aber sind doch auch sehr von Halbwissen geprägt.
Ich denke, jeder hat solche Leute im Bekanntenkreis und weiss was ich mein. Und meine Erfahrung. die meisten davon kaufen grundsätzlich schonmal nVidia Grakas und oft Intel CPUs, wobei hier Ryzen langsam in die Köpfe kommt. Was man interessanterweise auch bei Steam sieht, ein langsames wachsen.
Aber wie gesagt, viele haben sich lange gar nicht mit AMD auseinandergesetzt, weil es als Option gar nicht in Frage kam.

Mein Wort zum Sonntag :D
 

gerX7a

Software-Overclocker(in)
DLSS kann man sicher diskutieren, da die aktuelle Implementation wohl relativ einfach implementiert werden kann. Bei RT sieht es meiner Ansicht nach anders aus.
Die Marktanteile reichen bei weitem nicht um das plausibel zu erklären. Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann. Sowas wird ziemlich sicher von Nvidia stark gefördert andernfalls würde das Interesse sicher gering bleiben. Mit den neuen Konsolen wird sich das vermutlich etwas wandeln dass dauert aber noch bis wir hier richtig Bewegung sehen werden.
Du hast glaube ich nicht ganz erfasst, worauf ich hier mit diesem Absatz reagiert habe, wenn ich das auch zugegebenermaßen nicht noch einmal explizit ausformuliert habe. Es ging mir hier um die vielfach geäußerte Behauptung, insbesondere noch unmittelbar vor dem RDNA2-Launch, als noch nicht bekannt war, wie RDNA2 abscheiden würde, dass etliche, hartgesottene Fans hier DLSS sowie die RTX-Implementation *) als outdated und nun obsolet dargestellt haben.
Und genau das kann offensichtlich schon per se nicht der Fall sein, denn wenn Entwickler heute einen PC-Titel "aufhübschen" wollen, dann werden die primär nVidia-Hardware als Referenz ins Auge fassen, denn dieser Markt wird schlicht von nVidia-Hardware dominiert und schränkt man seinen Blick auf die neuesten Features ein, also bspw. Raytracing und ein moderneres, leistungsförderndes Upscaling, dann dominiert auch hier ebenso nVidia den Markt, denn RDNA2-Hardware ist i. V. kaum im Markt vorhanden. Wie schon erklärt, das Verhält liegt etwa bei 1:9, d. h. da Entwicklerressourcen endlich sind und das mittlerweile auch nur noch eine Industrie ist, bei der es um Wirtschaftlichkeit, Time-to-market und Gewinn geht, wird man sich zumindest i. d, R. auf die Stellen bzgl. Verbesserungen/Optimierungen konzentrieren, die den größten Hebel haben.

RDNA2-Besitzer werden mittelfristig dennoch nicht Leer ausgehen, denn man darf zumindest hoffen, dass die indirekt von den Fortschritten der Konsolenentwicklung in den nächsten Jahren profitieren können werden, wobei jedoch deren Leistungsfähigkeit deutlich geringer ist als das, was HighEnd-dGPUs heute zu leisten vermögen.

Darüber hinaus ist dein nachfolgende Satz vollkommen unlogisch: "Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann."
Im Umkehrschluss würde das bedeuten, dass bspw. Sony und Microsoft bspw. die Raytracingfunktionalität beauftragt haben, obwohl sie sie gar nicht nutzen wollen bzw. gar für sinnlos halten?
Die Raytracing-Adaption wird weiterhin steigen, sukzessive, so oder so, denn das war bei allen zuvor implementierten und anfänglich nur langsam adaptierten, rechenaufwändigen, neuen GPU-Technologien der Fall und ja, selbstredend werden Entwickler hier über eine gewisse Zeit einen teilweisen Mehraufwand haben **), weil man vereinfacht für Raytracing und bspw. eine GI entwickeln kann, dann aber immer noch manuell umfangreiche Szenenoptimierungen beisteuern muss, wenn der Raytracing-Renderpfad nicht genutzt werden kann. Das ist völlig normal, denn für eine Umstellung auf eine vollkommen Raytracing-basierte Renderengine (zumindest bei der grafischen Qualität, die der Markt typischerweise fordert) wird noch auf Jahre die Rechenleistung fehlen und so werden die aktuellen und zukünftigen Titel sich vorerst auf ein Hybrid-Rendering beschränken, das dennoch in der Lage ist eine bessere Qualität zu liefern und in immer mehr Titel Einzug halten wird.


*) Bezüglich RTX war das Argument eigentlicht eh schon immer vollkommener Unsinn, da die betreffenden Leute nicht verstanden haben, dass "RTX" einfach nur ein Marketingname für deren Raytracing-Stack ist und man den werbewirksam dann auch gleich als neuen Namenvorsatz für die aktuelleren GPU-Generationen verwendet hat. AMDs Raytracing-Stack funktioniert etwas anders und hat keinen eigenen Namen erhalten, ist aber ebenso nur eine von vielen möglichen Implementationen und zumindest grundsätzlich nicht besser oder schlechter als der von nVidia ... aktuall eher durchsatztechnisch gar im Mittel etwas schlechter, aber ob das über die Zeit Bestand haben wird, bleibt abzuwarten, da hier auch ggf. noch einiges herausgeholt werden kann, wenn man die RDNA2-Architektur explizit unterstützt.

**) Den Mehraufwand haben sie im Zuge des regulären Konkurrenzdrucks mit anderen Studios/Publishern aber so oder so, denn nicht umsonst wird selbst bei FPShootern die Grafik immer besser und damit steigt auch der Aufwand von Titel zu Titel.

***) Raytracing-technisch wird man von den Konsolen per se nicht zu viel erwarten können. Der größte Chip ist nicht einmal ganz mit einer RX 6800 vergleichbar, d. h. die Leistung wird unterhalb einer RTX 2080 Ti liegen und man kann hoffen, dass die Konsolen dieses GPU-Äquivalent vielleicht in ein, zwei Jahren durch hardwarenähere Programmierung doch noch ganz erreichen werden, mehr wird aber grundsätlich nicht möglich sein, d. h. die Konsolen können nur die "Eintrittsschwelle" absenken (und wenden dadurch sicherlich ihren Beitrag zum Thema Raytracing und dessen grundlegender Verbreitung leisten), mehr jedoch nicht.
Anmerkung: Das Extrembeispiel Mindcraft sollte man aktuell in der Betrachtung außen vor lassen, da dieses komplettes Path-Tracing verwendet und die Implementation zudem möglicherweise (immer noch) recht nVidia-lastig sein könnte (die Alternative zu dieser Vermutung wäre, dass RDNA2 leistungstechnisch schlicht nicht mehr liefern kann).

Abschließend, weil der gleiche Fehler immer wieder wiederholt wird: "Ich hatte in der Zeit meiner 5870 3-4 Steamabfragen in 5 Jahren und nun mit 8 Jahren Nvidia nur eine. Soll ich nun daraus schließen das AMD bevorzugt wird?"
Anektodische Einzelerfahrungen haben keinerlei statistische Relevanz. Auch ich wurde noch nie zur Bundestagswahl befragt (wie können sie es nur wagen meine Meinung nicht einzuholen oder gar für irrelevant zu halten). Dennoch treffen die Hochrechnungen relativ gut ins Schwarze.
Oder noch plakativer: Auch ich hatte bisher noch keinen tödlichen Verkehrsunfall und ich kenne auch keinen, der einen hatte. Dennoch sterben allein in Deutschland derzeit jährlich etwa 2700 Menschen im Straßenverkehr, d. h. meine persönliche Erfahrung ist offensichtlich nicht ausreichend für eine zuverlässige Bewertung der tatsächlichen Gegebenheiten.
Die Stochastik ist schlicht Mathematik, da sitzen bei Valve nicht etwa ein Dutzend Studenten mit Würfeln und füllen eine paar Tabellen mit Zufallswerten. ;-)
 
Zuletzt bearbeitet:

Bl4ckR4v3n

Freizeitschrauber(in)
Du hast glaube ich nicht ganz erfasst, worauf ich hier mit diesem Absatz reagiert habe, wenn ich das auch zugegebenermaßen nicht noch einmal explizit ausformuliert habe. Es ging mir hier um die vielfach geäußerte Behauptung, insbesondere noch unmittelbar vor dem RDNA2-Launch, als noch nicht bekannt war, wie RDNA2 abscheiden würde, dass etliche, hartgesottene Fans hier DLSS sowie die RTX-Implementation *) als outdated und nun obsolet dargestellt haben.
Und genau das kann offensichtlich schon per se nicht der Fall sein, denn wenn Entwickler heute einen PC-Titel "aufhübschen" wollen, dann werden die primär nVidia-Hardware als Referenz ins Auge fassen, denn dieser Markt wird schlicht von nVidia-Hardware dominiert und schränkt man seinen Blick auf die neuesten Features ein, also bspw. Raytracing und ein moderneres, leistungsförderndes Upscaling, dann dominiert auch hier ebenso nVidia den Markt, denn RDNA2-Hardware ist i. V. kaum im Markt vorhanden. Wie schon erklärt, das Verhält liegt etwa bei 1:9, d. h. da Entwicklerressourcen endlich sind und das mittlerweile auch nur noch eine Industrie ist, bei der es um Wirtschaftlichkeit, Time-to-market und Gewinn geht, wird man sich zumindest i. d, R. auf die Stellen bzgl. Verbesserungen/Optimierungen konzentrieren, die den größten Hebel haben.
Nur wird es kaum jemanden geben der von sich aus einen deutlichen Mehraufwand mitnimmt um nur einem kleinen Klientel was zu bieten. Zumal es nicht verhindert dass ich das Spiel mit einer RTX weiterhin normal spielen kann.
Erst wenn es die breite wirklich nutzen kann und auch der Druck da ist, dass Spieler diese Features "fordern" wird da bewegung reinkommen. Derzeit kann man sich sicher sein, dass hier die GPU Hersteller die Entwickler subventionieren um die Technik an den Mann/Frau zu bringen.
Darüber hinaus ist dein nachfolgende Satz vollkommen unlogisch: "Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann."
Im Umkehrschluss würde das bedeuten, dass bspw. Sony und Microsoft bspw. die Raytracingfunktionalität beauftragt haben, obwohl sie sie gar nicht nutzen wollen bzw. gar für sinnlos halten?
Dir ist schon klar dass ich darauf hingewiesen habe dass es sich mit den Konsolen langsam ändern kann... :wall:
Konsolenhersteller können für 100% ihrer Nutzer den Mehrwehrt schaffen und eben nicht wie am PC für 16%. Dazu kann man sich auch in anderen Bereichen Aufwände sparen da RT das bspw. ersetzt. Du kannst damit plötzlich Synergien erhalten, die am PC nicht möglich sind wenn du die Masse ansprechen möchtest.
Zudem ging es dort wohl eher darum nicht veraltet zu wirken. Man hat ja gesehen wie 4k Marketingtechnisch ausgeschlachtet wurde und hier ist es nichts anderes.
 

raPid-81

Freizeitschrauber(in)
Was macht dann die 9700`er INTEL CPU in Deiner Kiste ?!? :what:

MfG Föhn.
Gekauft am Anfang 2019, ~ 5 Monate vor dem Zen 2 Release. Zen 1 war damals im Vergleich nun mal deutlich unterlegen was Single-Thread und Spiele-Leistung angeht. Hab gekauft was aktuell am besten und im Preisrahmen war. Gewechselt wird erst wieder wenn ich in meinen Games ins CPU Limit laufe.
 

gerX7a

Software-Overclocker(in)
Nur wird es kaum jemanden geben der von sich aus einen deutlichen Mehraufwand mitnimmt um nur einem kleinen Klientel was zu bieten. Zumal es nicht verhindert dass ich das Spiel mit einer RTX weiterhin normal spielen kann.
Erst wenn es die breite wirklich nutzen kann und auch der Druck da ist, dass Spieler diese Features "fordern" wird da bewegung reinkommen. Derzeit kann man sich sicher sein, dass hier die GPU Hersteller die Entwickler subventionieren um die Technik an den Mann/Frau zu bringen.
Doch, das tun sie ja jetzt schon und das haben die Entwickler auch schon in der Vergangenheit immer gemacht mit neu eingeführten Grafik-Features, die auch erst mal einen Mehraufwand darstellten, da man sich einarbeiten musste, die initiale Implementation vielleicht noch nicht ideal und daher umständlich war, Workflows umgestellt und Engines überarbeitet werden mussten. Mit Raytracing ist das nichts anderes.
Und der Druck wird jetzt schon da sein, zwar noch kleiner, aber stetig wachsend, denn wäre dem nicht so, d. h. ausnahmslos jeder Spieler wäre bereit auf Raytracing zu verzichten bzw. hätte kein Interesse daran, würden mindestens AMD und nVidia ihr Geld verschwenden (und zudem Sony und Microsoft), zusätzlich aber auch viele Entwicklerstudios (denn die werden zweifellos nicht alle gesponsort) und aus rein wirtschaftlicher Sicht kannst du dir an zwei Fingern ausrechen, dass man diesen Mehraufwand wohlkalkuliert betreibt.
Das "Versprechen" ist ja am Ende auch viel einfacher gestaltet, denn es geht einfach um "noch bessere, schönere, realistischere" *) Grafik und das wollen Spieler schon seit Jahrezehnten Jahr für Jahr aufs Neue. Raytracing ist schlicht nur ein weiteres Grafikfeature.

Und schlussendlich, ich muss jetzt spekulieren, da du das nicht explizit ausformulierst, was ist schlecht an einer Art Subventionierung? Wenn einigen Spielern damit ein Mehrwert geboten wird, warum nicht? Das ist in anderen Fällen ja nicht anders gelagert.
Genau so könnte man sagen, dass Entwickler ihre Ressourcen sparen und sich auf Mainstream-Hardware konzentrieren sollten und tunlichst keine hohen Auflösungen, Modelle, Texturen und grafischen Effekte implementieren sollten, da diese nur von einem sehr kleinen Prozentteil des Marktes genutzt werden können (insbesondere alle gleichzeitig), aber dennoch weisen die meisten PC-Titel eine extreme grafische Spanne mit weitreichenden Konfigurationsmöglichkeiten auf, was schlicht dem Konkurrenz- und Vermarktungsdruck zuzuschreiben ist. Bezüglich des reinen Anwendervolumens könnte man diese Spieler wohl als nahezu irrelevant ansehen, da jedoch diese Aufwendungen auch gleichzeitig dazu dienen das Produkt zu vermarkten, werden diese dennoch implementiert mit einem deutlichen Mehraufwand und die Spieler profitieren schlussendlich davon.

*) Wobei sich "realistisch" hier nicht einfach auf fotorealistische Grafik bezieht, sondern eher auf die nachgebildeten physikalischen Vorgänge bezieht. Die Grafik, bspw. die Beleuchtung, kann auch bei einer Comicstil-Grafik in dem Sinne "realistischer" werden.

Dir ist schon klar dass ich darauf hingewiesen habe dass es sich mit den Konsolen langsam ändern kann... :wall:
Konsolenhersteller können für 100% ihrer Nutzer den Mehrwehrt schaffen und eben nicht wie am PC für 16%. Dazu kann man sich auch in anderen Bereichen Aufwände sparen da RT das bspw. ersetzt. Du kannst damit plötzlich Synergien erhalten, die am PC nicht möglich sind wenn du die Masse ansprechen möchtest.
Zudem ging es dort wohl eher darum nicht veraltet zu wirken. Man hat ja gesehen wie 4k Marketingtechnisch ausgeschlachtet wurde und hier ist es nichts anderes.
Ja, ist mir klar, aber der zitierte Satz stammte schließlich von dir.
Und bspw. bzgl. der Konsolenhersteller gelingt diese Vereinheitlichung nur, wenn sie exklusiv für ein System implementieren. Bereits zwischen Xbox und PS5 muss man Leistungsunterschiede, abweichende Technik und APIs berücksichtigen, d. h. hier ist schon individuell anzupassen (und noch für einige Zeit werden gar die Alt-Konsolen aufwändig mitversorgt ;-)). Und dennoch machen sich die Hersteller die Arbeit, schlicht um einen größeren Absatzmarkt bedienen zu können, denn das bedeutet mehr Umsatz und Gewinn.
Und es sollte schon klar sein, dass die 16 % nur eine Momentaufnahme darstellen und der Wert zunehmend größer wird. Darüber hinaus sind die 16 % auch lediglich anteilig auf die Gesamtzahl der Systeme bezogen. Schaut man nur auf Desktop-Systeme, dann ist in etwa jede fünfte GPU bereits eine RTX-Karte, was angesichts der Tatsache, dass diese erst Ende 2018 Einzug hielten und es Raytracing-fähige GPUs bisher nur von einem einzigen Hersteller gab, durchaus schon eine beachtliche Marktdurchdringung darstellt.

Ich gehe davon aus, dass die Adaption weiterhin zunehmen und sich beschleunigen wird und sich die Entwickler selbstredend den zusätzlichen Aufwand machen werden, einfach weil das eine hochkompetetive Industrie ist und jeder Vermarktungsvorteil genutzt wird. In bereits absehbarer Zeit wird man den Punkt erreichen, an dem AAA-Titel grundsätzlich auch einen parallelen Raytracing-Renderpfad besitzen werden *), weil es dann wettbewerbstechnisch einfach nicht mehr ohne geht und man auf dem PC "altbacken" wirken würde.

*) Wofür sie den nutzen werden, ist dagegen ein anderes Thema, da man die Funktionalität vielfältig und selbst für Audio verwenden kann.

**) Zudem wird ja auch gegen Ende dieses Jahres mit Intel der dritte Hersteller mit Raytracing-Hardware den Markt betreten und der wird sich damit vorerst augenscheinlich grundsätzlich nur bis zum (upper) Midrange-Segment orientieren.

[9700K] Gekauft am Anfang 2019 ...
Selbst wenn du den nach dem Zen2-Release gekauft hättest, wäre das für einen Gaming-PC nicht zwingend ein Fehlkauf gewesen. Intel hatte diesbezüglich noch keine Probleme Zen2 in Schach zu halten. Erst jetzt ist Zen3 weitestgehend uneingeschränkt vorzuziehen, aber nur weil irgendwer was Neues veröffentlicht, wirft man ja nicht sein ganzes Hab und Gut auf den Müll und kauf komplett neu ... ;-)
 
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
Dir ist schon klar dass ich darauf hingewiesen habe dass es sich mit den Konsolen langsam ändern kann... :wall:
Konsolenhersteller können für 100% ihrer Nutzer den Mehrwehrt schaffen und eben nicht wie am PC für 16%. Dazu kann man sich auch in anderen Bereichen Aufwände sparen da RT das bspw. ersetzt. Du kannst damit plötzlich Synergien erhalten, die am PC nicht möglich sind wenn du die Masse ansprechen möchtest.
Zudem ging es dort wohl eher darum nicht veraltet zu wirken. Man hat ja gesehen wie 4k Marketingtechnisch ausgeschlachtet wurde und hier ist es nichts anderes.
Die Liste an Engines die RT bereits oder demnächst nativ unterstützen habe ich schon mehrfach gepostet, deswegen spare ich es mir an dieser Stelle. Nur so viel: die meist genutzten Engines sind dabei.

Wenn die Engine es nativ unterstützt, wo ist da der große Mehraufwand? Das ist ja der Vorteil von RT Beleuchtung, Schatten und Spiegel-Effekten, man schaltet es an und den Rest macht die Engine. Kein manuelles setzen von drölfzigtausend Lichtobjekten, fummeln am Schatten-Algorithmus oder platzieren von kostspieligen Zusatzkameras (oder in Kauf nehmen von unrealistischen Screen-Space-Reflections).
 

Bl4ckR4v3n

Freizeitschrauber(in)
Doch, das tun sie ja jetzt schon und das haben die Entwickler auch schon in der Vergangenheit immer gemacht mit neu eingeführten Grafik-Features, die auch erst mal einen Mehraufwand darstellten, da man sich einarbeiten musste, die initiale Implementation vielleicht noch nicht ideal und daher umständlich war, Workflows umgestellt und Engines überarbeitet werden mussten. Mit Raytracing ist das nichts anderes.
Und der Druck wird jetzt schon da sein, zwar noch kleiner, aber stetig wachsend, denn wäre dem nicht so, d. h. ausnahmslos jeder Spieler wäre bereit auf Raytracing zu verzichten bzw. hätte kein Interesse daran, würden mindestens AMD und nVidia ihr Geld verschwenden (und zudem Sony und Microsoft), zusätzlich aber auch viele Entwicklerstudios (denn die werden zweifellos nicht alle gesponsort) und aus rein wirtschaftlicher Sicht kannst du dir an zwei Fingern ausrechen, dass man diesen Mehraufwand wohlkalkuliert betreibt.
Das "Versprechen" ist ja am Ende auch viel einfacher gestaltet, denn es geht einfach um "noch bessere, schönere, realistischere" *) Grafik und das wollen Spieler schon seit Jahrezehnten Jahr für Jahr aufs Neue. Raytracing ist schlicht nur ein weiteres Grafikfeature.
Es ist derzeit kein echter Druck dar. Oder kennst du große Threads bei den Entwicklern die sich beschweren das Spiel xyz kein RT hat? Die einzigen die derzeit Druck haben sind die Hardwareanbieter.
Wenn du wirklich Druck haben willst müssen die Spieler gewohnt sein bei AAA Spielen fast immer RT zu haben. Das ist aber derzeit nicht der Fall. Zu viele Spiele die es eben nicht mitgebracht haben und auch derzeit nicht angekündigt haben.
Und schlussendlich, ich muss jetzt spekulieren, da du das nicht explizit ausformulierst, was ist schlecht an einer Art Subventionierung? Wenn einigen Spielern damit ein Mehrwert geboten wird, warum nicht? Das ist in anderen Fällen ja nicht anders gelagert.
Genau so könnte man sagen, dass Entwickler ihre Ressourcen sparen und sich auf Mainstream-Hardware konzentrieren sollten und tunlichst keine hohen Auflösungen, Modelle, Texturen und grafischen Effekte implementieren sollten, da diese nur von einem sehr kleinen Prozentteil des Marktes genutzt werden können (insbesondere alle gleichzeitig), aber dennoch weisen die meisten PC-Titel eine extreme grafische Spanne mit weitreichenden Konfigurationsmöglichkeiten auf, was schlicht dem Konkurrenz- und Vermarktungsdruck zuzuschreiben ist. Bezüglich des reinen Anwendervolumens könnte man diese Spieler wohl als nahezu irrelevant ansehen, da jedoch diese Aufwendungen auch gleichzeitig dazu dienen das Produkt zu vermarkten, werden diese dennoch implementiert mit einem deutlichen Mehraufwand und die Spieler profitieren schlussendlich davon.

*) Wobei sich "realistisch" hier nicht einfach auf fotorealistische Grafik bezieht, sondern eher auf die nachgebildeten physikalischen Vorgänge bezieht. Die Grafik, bspw. die Beleuchtung, kann auch bei einer Comicstil-Grafik in dem Sinne "realistischer" werden.
Warum beginnst du eine völlig andere Diskussion loszutreten? Bleib doch bitte mal an einem Punkt statt ständig mit langen inhaltslose Sätzen neue Diskussionen zu eröffnen. Für mich sind Subventionen kein Problem aber man sollte sich klar machen dass ohne das Feature so keine Bedeutung hat.
Ja, ist mir klar, aber der zitierte Satz stammte schließlich von dir.
Und damit zeigst du das du weder verstanden hast noch verstehen willst. Für dich zum Mitschreiben: Es ging in dem ganzen Kontext um PC nicht Konsolen. Ein Spiel für Konsole X kann für jeden das Feature bieten da gibt es keine Splitterung wie am PC.
Und bspw. bzgl. der Konsolenhersteller gelingt diese Vereinheitlichung nur, wenn sie exklusiv für ein System implementieren. Bereits zwischen Xbox und PS5 muss man Leistungsunterschiede, abweichende Technik und APIs berücksichtigen, d. h. hier ist schon individuell anzupassen (und noch für einige Zeit werden gar die Alt-Konsolen aufwändig mitversorgt ;-)). Und dennoch machen sich die Hersteller die Arbeit, schlicht um einen größeren Absatzmarkt bedienen zu können, denn das bedeutet mehr Umsatz und Gewinn.
Die vereinheitlichung hast du bereits dadurch, dass beide Konsolen einen SoC mit gleicher Technik verwenden und auch sonst die Leistung nahe beieinander liegt. Aber auch wenn nicht gibt es kein Problem denn du hast weiterhin für Konsole X die Möglichkeit für 100% der Käufer einen Mehrwehrt zu schaffen und kannst weiterhin synergien gewinnen weil du eben Aufwand für diese Konsole in anderen Bereichen einsparen kannst das das RT Feature es übernimmt.
Außerdem haben MS und Sony die Möglichkeit mit Exklusivtiteln entsprechende Features zu positionieren. Und da geht es um mehr als nur den Titel. Braucht man nur lesen warum viele Leute eine PS5 kaufen wollen ;)
Und es sollte schon klar sein, dass die 16 % nur eine Momentaufnahme darstellen und der Wert zunehmend größer wird. Darüber hinaus sind die 16 % auch lediglich anteilig auf die Gesamtzahl der Systeme bezogen. Schaut man nur auf Desktop-Systeme, dann ist in etwa jede fünfte GPU bereits eine RTX-Karte, was angesichts der Tatsache, dass diese erst Ende 2018 Einzug hielten und es Raytracing-fähige GPUs bisher nur von einem einzigen Hersteller gab, durchaus schon eine beachtliche Marktdurchdringung darstellt.
Und nun? Willst du deutlichen Aufwand betreiben damit du 20% einen gefallen tust, wovon nichtmal jeder das Feature nutzen wird weil die Performance zu stark einbricht?
Mittlerweile sind die Konsolen mit entsprechenden Support dabei und man wird damit RT Features eher integrieren, da der Gesamtmarkt deutlich größer ist.
Ich gehe davon aus, dass die Adaption weiterhin zunehmen und sich beschleunigen wird und sich die Entwickler selbstredend den zusätzlichen Aufwand machen werden, einfach weil das eine hochkompetetive Industrie ist und jeder Vermarktungsvorteil genutzt wird. In bereits absehbarer Zeit wird man den Punkt erreichen, an dem AAA-Titel grundsätzlich auch einen parallelen Raytracing-Renderpfad besitzen werden *), weil es dann wettbewerbstechnisch einfach nicht mehr ohne geht und man auf dem PC "altbacken" wirken würde.
Natürlich wird sie zunehmen. Sämtliche Hersteller sind zu stark investiert als dass man das jetzt aufgeben würde. Da werden entsprechende Investitionen getätigt wenn nötig. Aber allem in allem ist die derzeitige Menge an Spielen eine herbe Enttäuschung. 30 Titel nach 2,5 Jahren ist spricht nich wirklich für großen Druck. Vor allem wenn man berücksichtigt dass der Spielemarkt so groß wie noch nie ist und der Großteil der AAA-Spiele ohne RT ausgekommen ist.
Die Liste an Engines die RT bereits oder demnächst nativ unterstützen habe ich schon mehrfach gepostet, deswegen spare ich es mir an dieser Stelle. Nur so viel: die meist genutzten Engines sind dabei.

Wenn die Engine es nativ unterstützt, wo ist da der große Mehraufwand? Das ist ja der Vorteil von RT Beleuchtung, Schatten und Spiegel-Effekten, man schaltet es an und den Rest macht die Engine. Kein manuelles setzen von drölfzigtausend Lichtobjekten, fummeln am Schatten-Algorithmus oder platzieren von kostspieligen Zusatzkameras (oder in Kauf nehmen von unrealistischen Screen-Space-Reflections).
Es ist aber kein "Klick" und es läuft. Du musst weiterhin deine Szenen anpassen und einstellen außer du stehst auf Ruckelpartien oder ungewünschten Darstellungen. RT ist zwar einfacher, aber du musst halt den Aufwand für Rasterisierung weiterhin betreiben damit nicht RT Nutzer das Spiel vernünftig zocken können.
 

raPid-81

Freizeitschrauber(in)
Es ist aber kein "Klick" und es läuft. Du musst weiterhin deine Szenen anpassen und einstellen außer du stehst auf Ruckelpartien oder ungewünschten Darstellungen. RT ist zwar einfacher, aber du musst halt den Aufwand für Rasterisierung weiterhin betreiben damit nicht RT Nutzer das Spiel vernünftig zocken können.
Ich bin kein Game-Designer und weiss nicht wie aufwändig die zusätzliche RT-Integration ist, ich kenne die Entwickler-Tools auch nicht. Du? Es würde mich interessieren wie viel "Mehraufwand" da drinsteckt wenn RT bereits in der Engine vorhanden ist.

Soweit mir bekannt stellt man für RT Beleuchtung die herkömmliche Beleuchtung aus, legt fest wie viele Rays benutzt werden sollen, und das wars. Danach kommt das standardmäßige austarieren.

Durch die RT-Fähigkeit der Konsolen wird sich jeder Entwickler früher oder später damit auseinander setzen müssen. Die Engines werden ja bereits darauf getrimmt. Neue AA und SSR Methoden, und quasi jegliches andere neue Grafikfeature, musste schon immer in die Engines integriert und dann von den Entwicklern genutzt werden, das ist doch nichts Neues in der Industrie. Wieso sollte es mit RT anders laufen, vor allem jetzt wo jeder mit im Boot ist?

Du sprichst von Spielen die in den letzten 2 Jahren rausgekommen sind. Dass davon nur einige wenige RT Features haben ist doch logisch, die Spiele sind seit 6+ Jahren in Entwicklung, da gab es noch lange keine Turing / Ampere / RDNA2 Karten. Ich denke ein Großteil der neuen AAA Games der kommenden Jahre wird RT Features haben. Vor allem wenn die UE und Unity, zwei der meist benutzten Engines überhaupt, es nativ integriert haben.
 

owned139

BIOS-Overclocker(in)
In 4K nicht und genau das wird hier von allen AMDlern vehement abgestritten. Welche Spiele wurden denn getestet? In dem Artikel ist das, jedenfalls für mich, nicht wirklich ersichtlich.

Was aber stimmt, ist, dass AMD in neuen Games oft vorne liegt, mal sehen wie sich das noch auswirkt, wird wohl wie fast immer sein, AMDs Karten halten länger und ich werde mir eh eine 6900xt oder 6800xt kaufen.
AMD liegt in AMD-Titeln vorne. In den beiden aktuellsten Titeln Cyberpunk & Outriders liegt Nvidia vorn.
Ich weiß selbst, dass Cyberpunk buggy as hell ist, aber in letzter Zeit kamen nunmal keine anderen größeren Titel raus.
 

deady1000

Volt-Modder(in)
Wir sind endlich bei einem Gleichstand bei den GPUs angekommen und das kann nur positiv für uns sein.
Joa, wenn man ALLES außer der Rasterization-Performance und Effizienz außer Acht lässt, dann kann man das so sagen.

Man könnte Argumente nennen, die dem widersprechen:

- mehr Rasterization-Performance jenseits von WQHD --> 4K-Performance
- DLSS (für viele ein Killerfeature; seit neuem UE4-Patch auch für VR-Games verfügbar)
- deutlich bessere RayTracing-Performance (wenn verfügbar ein Gamechanger)
- NVENC (für Streamer; für Leute mit einer Oculus Quest); deutlich besser als AMD VCE
- machine-learning features: Nvidia Broadcast, RTXVoice, camera background-removal*
- CUDA (für manche Anwendungen relevant)
- schneller GDDR6X-Speicher
- deutlich bessere Mining-Performance** (natürlich nicht für jeden relevant)

* In Webcam-Konferenzen "der King" sein oder als Streamer keinen Greenscreen benötigen. :D

** Gibt tatsächlich auch Gamer, die ein paar Euro im Monat mit ihren Karten verdienen wollen, wenn sie sowieso nichts macht, bzw was man hat, das hat man halt, also warum nicht - im Winter spart das sogar - ohne Witz - Heizkosten :ugly: (= Winterargument)

---

Vorteile von BigNavi:

- günstiger
- effizienter
- recht viel VRAM
- kleineres Netzteil reicht
- besser verfügbar (mit Fragezeichen)
- gute Rasterization-Performance bis WQHD
- Produkt des Underdogs

Also ja, kann man machen. Beides gute Produktreihen. Man muss halt für sich gucken, was man haben will.

Für mich war der Drops eigentlich gelutscht, als ich gecheckt habe, dass meine Oculus Quest mit NVENC auf Nvidia-Karten deutlich besser läuft, als mit AMD VCE bzw Radeon ReLive. Das war halt mein Totschlagargument. Der Rest, s.o., ist halt ein Bonus. Freue mich, dass Cyberpunk 2077 trotz maximaler Settings und vollem RT bombig gut läuft. Habe aktuell noch mit recht wenig Aufwand an wenigen Tagen ca 20€ durch Idle-Mining (in Form von Bitcoin über NiceHash) "verdient". :ka:

https://www.computerbase.de/thema/grafikkarte/rangliste/

im Schnitt ist die 6900xt hier schneller.

Also das müsste eigentlich reichen, um jeden zu überzeugen, dass die Karten ziemlich ebenbürtig sind.
Warum das bei einigen nicht ankommt, kann sich jeder selbst beantworten.
Weil Computerbase die übelsten AMD-Fanboys versammelt hat und die natürlich gefüttert werden müssen. Computerbase und Hardware Unboxed sind zwei Vereine, die man in Sachen Grafikkarten einfach nicht ernstnehmen kann. Mit Cherrypicking und Scheuklappen kommt man eventuell auf den Schluss, dass BigNavi gleich schnell oder schneller sei als Ampere, aber in der Gesamtbetrachtung ist das halt vollkommener Unsinn.
 
Zuletzt bearbeitet:

Lamaan

Freizeitschrauber(in)
Kann man auch umgkehrt formulieren:

Nvidia hat weniger Rasterization-Performance jenseits --> 4K also FAST ÜBERALL
dlss UND RTX als einzelne Punkte naja, wenn man's nötig hat.
den Rest kenn ich nicht mal.
Ich nutze meine Gpu zum Zocken und das wird die RDNA2 sicher länger leisten als die Speicherkrüppel

Ach
da waren ja noch "Vorteile" von AMD versteckt.

Vorteil von Nvidia:
Geld für die Lederjacke

ob die RX oder die RTX schneller ist, sieht man wenn man seine Games testet.
Viele sehr bekannte und beliebte Marken laufen halt auf AMD schneller zum Beispiel

World of Warcraft
Walhalla
Dirt
Batllefield
usw.

Nvidia kann Raytracing besser hat aber zu wenig Leistung als das man davon lange was hat und leider auch zu wenig Speicher um lange brauchbar zu sein.
Da kann man seine tolle Nvidiakarte natürlich immer an den Nvidianachwuchs verklaufen aber wo bleibt dann für den Käufer der Masterace-Bonus ???
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
Nvidia hat weniger Rasterization-Performance jenseits --> 4K also FAST ÜBERALL
Kommt komplett auf den Nutzer an.

Ich spiele zB mit so viel SuperSampling (=Renderscale), wie die Grafikkarte es aushält.
Dabei kommt dann logischerweise deutlich mehr als gerendertes WQHD bei raus.
Denk mal drüber nach. :gruebel:

Viele sehr bekannte und beliebte Marken laufen halt auf AMD schneller zum Beispiel

World of Warcraft
Walhalla
Dirt
Batllefield
Öh, ok, was für ne geile Auswahl an Games.
Braucht man dafür, abgesehen von AC:Valhalla, überhaupt BigNavi/Ampere?
Diese Titel kannste fast auch auf einer Ryzen-APU zocken. :fresse:
Wen interessiert, wer hier ein paar Prozent FPS mehr hat?
Valhalla... ok geschenkt. Ist halt ein, wenn nicht der, AMD-Titel.

dlss UND RTX als einzelne Punkte naja, wenn man's nötig hat.
DLSS ist halt ein eigenständiges Feature.
Wie ich sagte, DLSS2.1 ist jetzt auch für VR in der Unreal Engine 4 verfügbar, die recht breit genutzt wird.

RayTracing-Titel gibt es teilweise auch ohne DLSS und anders herum gibt es DLSS-Titel ohne RayTracing.

Vgl:
Death Stranding (nur DLSS2.0)
Dirt 5 (nur RayTracing)

den Rest kenn ich nicht mal.
Ich nutze meine Gpu zum Zocken und das wird die RDNA2 sicher länger leisten als die Speicherkrüppel
Ok und nur weil du Features nicht kennst, sind sie sinnlos und für jeden ist ne BigNavi besser oder was?

Nvidia kann Raytracing besser hat aber zu wenig Leistung als das man davon lange was hat und leider auch zu wenig Speicher um lange brauchbar zu sein.
Da kann man seine tolle Nvidiakarte natürlich immer an den Nvidianachwuchs verklaufen aber wo bleibt dann für den Käufer der Masterace-Bonus ???
Das hättest du dir auch sparen können.
Und Speicherkrüppel ist auch relativ...

Die RTX3080-Nutzer, die ich kenne sind sehr zufrieden und die profitieren auch von schnellem GDDR6X und haben keinen krüppeligen GDDR6-Speicher. ;)
 

Gurdi

Kokü-Junkie (m/w)
In 4K nicht und genau das wird hier von allen AMDlern vehement abgestritten. Welche Spiele wurden denn getestet? In dem Artikel ist das, jedenfalls für mich, nicht wirklich ersichtlich.


AMD liegt in AMD-Titeln vorne. In den beiden aktuellsten Titeln Cyberpunk & Outriders liegt Nvidia vorn.
Ich weiß selbst, dass Cyberpunk buggy as hell ist, aber in letzter Zeit kamen nunmal keine anderen größeren Titel raus.
In 4k ist eine 3090 nicht zu schlagen.
In QHD und vor allem im High Fps Gaming haben die Radeons derzeit aber klar die Nase vorn.
Die 80er ist derzeit nicht Fisch nicht Fleisch.
 

Opprobrium

PC-Selbstbauer(in)
In QHD und vor allem im High Fps Gaming haben die Radeons derzeit aber klar die Nase vorn.
https://www.computerbase.de/2021-04...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

3% auf CompBase nennst du klar?

Hier ist die Geforce 3090 5% in WQHD schneller.
Klar vorne ist da gar nix auch bei solch großen Performancevergleichen nicht.


Klar die Nase vorne ist einfach gelogen, aber das machst du ja die ganze Zeit hier.
Full HD 3%, WQHD 0,5% schneller. 6800xt gegen 3080.
 

Opprobrium

PC-Selbstbauer(in)
In QHD kassiert meine 6800XT doch schon die 90er, da brauch es keine 6900.
So deine also. Und meine 3060 kassiert eine Radeon 6900XT in Cyberpunk mit DLSS und RTaytraycing. :lol:
Du hast einfach ein Problem und identifizierst dich mit deiner Hardware, in WQHD nehmen sich AMD und Radeon gar nix, das habe ich oben schon belegt mit mehr als 15 Quellen.
Da ist es mir völlig rille was du da an Screens hochlädst.
 
Zuletzt bearbeitet:

deady1000

Volt-Modder(in)
In QHD kassiert meine 6800XT doch schon die 90er, da brauch es keine 6900.

Anhang anzeigen 1362023

GPU-Score: 21 516 Punkte
Geht für ne FE klar oder?

Anhang anzeigen 1361531

1619462832021.png

So viel zum Thema...
Habe aktuell nur den TimeSpy parat (ist ja WQHD).
Extreme wäre in 4K und dürfte sich damit deutlich absetzen.

Wie dem auch sei.
Deine 6800XT ist halt wie immer ein Golden Sample.

Selbst die wassergekühlte und hochgeprügelte 6900XT von IgorsLab ist aber langsamer!

Deine 6800XT: 21447
Igors 6900XT: 20710
Meine 3090: 21516

--> Und ich hab nur ne FE und nichtmal eine Asus Strix oder so. :schief:

1619462760514.png

Also wenn du was als Referenz nimmst, dann eine durchschnittliche Karte.
Ansonsten kannst du gern deine tolle Karte gegen ein anderes Golden Sample von Ampere antreten lassen.

Also lass mal deine pauschalen Aussagen.
Es ist halt lächerlich und jeder weiß es.

Und meine 3060 kassiert eine Radeon 6900XT in Cyberpunk mit DLSS und RTaytraycing.
Ist halt echt so. :top:
 
Zuletzt bearbeitet:
Oben Unten