SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

Wenn du doch nur wüstest um was es geht.
In jedem Heft gibt's die Einzel-Indizes der vier Auflösungen (FHD, WQHD, UWQHD, UHD) neben dem (auch online publizierten) Gesamtindex - plus die Einzel-Fps der 20 Spiele in allen Auflösungen. Das ist schon mal eine Auflösung mehr als bei den meisten anderen Publikationen und ganz gewiss nicht beliebig (wenngleich man den ungeheuren Aufwand von außen nur erahnen kann). :-)

Einen "Mach's dir selbst"-Index gibt es ganz bewusst nicht, sonst wird das Gesamtwerk zerpflückt und für Glaubenskriege missbraucht. Das ist bei dem bewusst vielseitigen Gesamtindex schon schlimm genug.

MfG
Raff
 
Die Hardwareumfrage bei Steam erkennt auch nicht alles. Sowohl meine Radeon VII, als auch die Vega FE werden nicht erkannt. Also nicht nur dass sie angeblich nicht in der Lage ist zu sehen dass die Karten 16GiB Speicher haben, sie erkennt nicht mal dass es Karten von AMD sind.
Meine VII war 2x bei der Umfrage dabei und da wurde alles richtig erkannt.
Werde inzwischen jedes Jahr gefragt, immer im Dezember :-)

Davon ab bildet die Steam Survey den Gesamtmarkt schon recht gut ab.

Es gibt uns Hardcoreler, die sich im Grunde sehr gut mit den Produkten auskennen und uns quasi täglich damit beschäftigen. Dann gibts die Gruppe an Menschen, die gar keinen Plan von Hardware haben.

Und dazwischen gibts noch ne relativ große Gruppe, ich nenne sie einfach mal die Zocker. Die haben auch nen bisschen Plan von Hardware und PCs, aber sind doch auch sehr von Halbwissen geprägt.
Ich denke, jeder hat solche Leute im Bekanntenkreis und weiss was ich mein. Und meine Erfahrung. die meisten davon kaufen grundsätzlich schonmal nVidia Grakas und oft Intel CPUs, wobei hier Ryzen langsam in die Köpfe kommt. Was man interessanterweise auch bei Steam sieht, ein langsames wachsen.
Aber wie gesagt, viele haben sich lange gar nicht mit AMD auseinandergesetzt, weil es als Option gar nicht in Frage kam.

Mein Wort zum Sonntag :D
 
DLSS kann man sicher diskutieren, da die aktuelle Implementation wohl relativ einfach implementiert werden kann. Bei RT sieht es meiner Ansicht nach anders aus.
Die Marktanteile reichen bei weitem nicht um das plausibel zu erklären. Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann. Sowas wird ziemlich sicher von Nvidia stark gefördert andernfalls würde das Interesse sicher gering bleiben. Mit den neuen Konsolen wird sich das vermutlich etwas wandeln dass dauert aber noch bis wir hier richtig Bewegung sehen werden.
Du hast glaube ich nicht ganz erfasst, worauf ich hier mit diesem Absatz reagiert habe, wenn ich das auch zugegebenermaßen nicht noch einmal explizit ausformuliert habe. Es ging mir hier um die vielfach geäußerte Behauptung, insbesondere noch unmittelbar vor dem RDNA2-Launch, als noch nicht bekannt war, wie RDNA2 abscheiden würde, dass etliche, hartgesottene Fans hier DLSS sowie die RTX-Implementation *) als outdated und nun obsolet dargestellt haben.
Und genau das kann offensichtlich schon per se nicht der Fall sein, denn wenn Entwickler heute einen PC-Titel "aufhübschen" wollen, dann werden die primär nVidia-Hardware als Referenz ins Auge fassen, denn dieser Markt wird schlicht von nVidia-Hardware dominiert und schränkt man seinen Blick auf die neuesten Features ein, also bspw. Raytracing und ein moderneres, leistungsförderndes Upscaling, dann dominiert auch hier ebenso nVidia den Markt, denn RDNA2-Hardware ist i. V. kaum im Markt vorhanden. Wie schon erklärt, das Verhält liegt etwa bei 1:9, d. h. da Entwicklerressourcen endlich sind und das mittlerweile auch nur noch eine Industrie ist, bei der es um Wirtschaftlichkeit, Time-to-market und Gewinn geht, wird man sich zumindest i. d, R. auf die Stellen bzgl. Verbesserungen/Optimierungen konzentrieren, die den größten Hebel haben.

RDNA2-Besitzer werden mittelfristig dennoch nicht Leer ausgehen, denn man darf zumindest hoffen, dass die indirekt von den Fortschritten der Konsolenentwicklung in den nächsten Jahren profitieren können werden, wobei jedoch deren Leistungsfähigkeit deutlich geringer ist als das, was HighEnd-dGPUs heute zu leisten vermögen.

Darüber hinaus ist dein nachfolgende Satz vollkommen unlogisch: "Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann."
Im Umkehrschluss würde das bedeuten, dass bspw. Sony und Microsoft bspw. die Raytracingfunktionalität beauftragt haben, obwohl sie sie gar nicht nutzen wollen bzw. gar für sinnlos halten?
Die Raytracing-Adaption wird weiterhin steigen, sukzessive, so oder so, denn das war bei allen zuvor implementierten und anfänglich nur langsam adaptierten, rechenaufwändigen, neuen GPU-Technologien der Fall und ja, selbstredend werden Entwickler hier über eine gewisse Zeit einen teilweisen Mehraufwand haben **), weil man vereinfacht für Raytracing und bspw. eine GI entwickeln kann, dann aber immer noch manuell umfangreiche Szenenoptimierungen beisteuern muss, wenn der Raytracing-Renderpfad nicht genutzt werden kann. Das ist völlig normal, denn für eine Umstellung auf eine vollkommen Raytracing-basierte Renderengine (zumindest bei der grafischen Qualität, die der Markt typischerweise fordert) wird noch auf Jahre die Rechenleistung fehlen und so werden die aktuellen und zukünftigen Titel sich vorerst auf ein Hybrid-Rendering beschränken, das dennoch in der Lage ist eine bessere Qualität zu liefern und in immer mehr Titel Einzug halten wird.


*) Bezüglich RTX war das Argument eigentlicht eh schon immer vollkommener Unsinn, da die betreffenden Leute nicht verstanden haben, dass "RTX" einfach nur ein Marketingname für deren Raytracing-Stack ist und man den werbewirksam dann auch gleich als neuen Namenvorsatz für die aktuelleren GPU-Generationen verwendet hat. AMDs Raytracing-Stack funktioniert etwas anders und hat keinen eigenen Namen erhalten, ist aber ebenso nur eine von vielen möglichen Implementationen und zumindest grundsätzlich nicht besser oder schlechter als der von nVidia ... aktuall eher durchsatztechnisch gar im Mittel etwas schlechter, aber ob das über die Zeit Bestand haben wird, bleibt abzuwarten, da hier auch ggf. noch einiges herausgeholt werden kann, wenn man die RDNA2-Architektur explizit unterstützt.

**) Den Mehraufwand haben sie im Zuge des regulären Konkurrenzdrucks mit anderen Studios/Publishern aber so oder so, denn nicht umsonst wird selbst bei FPShootern die Grafik immer besser und damit steigt auch der Aufwand von Titel zu Titel.

***) Raytracing-technisch wird man von den Konsolen per se nicht zu viel erwarten können. Der größte Chip ist nicht einmal ganz mit einer RX 6800 vergleichbar, d. h. die Leistung wird unterhalb einer RTX 2080 Ti liegen und man kann hoffen, dass die Konsolen dieses GPU-Äquivalent vielleicht in ein, zwei Jahren durch hardwarenähere Programmierung doch noch ganz erreichen werden, mehr wird aber grundsätlich nicht möglich sein, d. h. die Konsolen können nur die "Eintrittsschwelle" absenken (und wenden dadurch sicherlich ihren Beitrag zum Thema Raytracing und dessen grundlegender Verbreitung leisten), mehr jedoch nicht.
Anmerkung: Das Extrembeispiel Mindcraft sollte man aktuell in der Betrachtung außen vor lassen, da dieses komplettes Path-Tracing verwendet und die Implementation zudem möglicherweise (immer noch) recht nVidia-lastig sein könnte (die Alternative zu dieser Vermutung wäre, dass RDNA2 leistungstechnisch schlicht nicht mehr liefern kann).

Abschließend, weil der gleiche Fehler immer wieder wiederholt wird: "Ich hatte in der Zeit meiner 5870 3-4 Steamabfragen in 5 Jahren und nun mit 8 Jahren Nvidia nur eine. Soll ich nun daraus schließen das AMD bevorzugt wird?"
Anektodische Einzelerfahrungen haben keinerlei statistische Relevanz. Auch ich wurde noch nie zur Bundestagswahl befragt (wie können sie es nur wagen meine Meinung nicht einzuholen oder gar für irrelevant zu halten). Dennoch treffen die Hochrechnungen relativ gut ins Schwarze.
Oder noch plakativer: Auch ich hatte bisher noch keinen tödlichen Verkehrsunfall und ich kenne auch keinen, der einen hatte. Dennoch sterben allein in Deutschland derzeit jährlich etwa 2700 Menschen im Straßenverkehr, d. h. meine persönliche Erfahrung ist offensichtlich nicht ausreichend für eine zuverlässige Bewertung der tatsächlichen Gegebenheiten.
Die Stochastik ist schlicht Mathematik, da sitzen bei Valve nicht etwa ein Dutzend Studenten mit Würfeln und füllen eine paar Tabellen mit Zufallswerten. ;-)
 
Zuletzt bearbeitet:
Du hast glaube ich nicht ganz erfasst, worauf ich hier mit diesem Absatz reagiert habe, wenn ich das auch zugegebenermaßen nicht noch einmal explizit ausformuliert habe. Es ging mir hier um die vielfach geäußerte Behauptung, insbesondere noch unmittelbar vor dem RDNA2-Launch, als noch nicht bekannt war, wie RDNA2 abscheiden würde, dass etliche, hartgesottene Fans hier DLSS sowie die RTX-Implementation *) als outdated und nun obsolet dargestellt haben.
Und genau das kann offensichtlich schon per se nicht der Fall sein, denn wenn Entwickler heute einen PC-Titel "aufhübschen" wollen, dann werden die primär nVidia-Hardware als Referenz ins Auge fassen, denn dieser Markt wird schlicht von nVidia-Hardware dominiert und schränkt man seinen Blick auf die neuesten Features ein, also bspw. Raytracing und ein moderneres, leistungsförderndes Upscaling, dann dominiert auch hier ebenso nVidia den Markt, denn RDNA2-Hardware ist i. V. kaum im Markt vorhanden. Wie schon erklärt, das Verhält liegt etwa bei 1:9, d. h. da Entwicklerressourcen endlich sind und das mittlerweile auch nur noch eine Industrie ist, bei der es um Wirtschaftlichkeit, Time-to-market und Gewinn geht, wird man sich zumindest i. d, R. auf die Stellen bzgl. Verbesserungen/Optimierungen konzentrieren, die den größten Hebel haben.
Nur wird es kaum jemanden geben der von sich aus einen deutlichen Mehraufwand mitnimmt um nur einem kleinen Klientel was zu bieten. Zumal es nicht verhindert dass ich das Spiel mit einer RTX weiterhin normal spielen kann.
Erst wenn es die breite wirklich nutzen kann und auch der Druck da ist, dass Spieler diese Features "fordern" wird da bewegung reinkommen. Derzeit kann man sich sicher sein, dass hier die GPU Hersteller die Entwickler subventionieren um die Technik an den Mann/Frau zu bringen.
Darüber hinaus ist dein nachfolgende Satz vollkommen unlogisch: "Man macht ja nicht die Szene einfach schöner und fügt Details und Feature hinzu sondern du musst die Szenen sowohl für Raytracing als auch für Rasterisierung designen. Denke nicht das ein Entwickler sonderlich lust hat für beides Arbeit reinzustecken wenn er mit anderen Aufwand jeden von profitieren lassen kann."
Im Umkehrschluss würde das bedeuten, dass bspw. Sony und Microsoft bspw. die Raytracingfunktionalität beauftragt haben, obwohl sie sie gar nicht nutzen wollen bzw. gar für sinnlos halten?
Dir ist schon klar dass ich darauf hingewiesen habe dass es sich mit den Konsolen langsam ändern kann... :wall:
Konsolenhersteller können für 100% ihrer Nutzer den Mehrwehrt schaffen und eben nicht wie am PC für 16%. Dazu kann man sich auch in anderen Bereichen Aufwände sparen da RT das bspw. ersetzt. Du kannst damit plötzlich Synergien erhalten, die am PC nicht möglich sind wenn du die Masse ansprechen möchtest.
Zudem ging es dort wohl eher darum nicht veraltet zu wirken. Man hat ja gesehen wie 4k Marketingtechnisch ausgeschlachtet wurde und hier ist es nichts anderes.
 
Was macht dann die 9700`er INTEL CPU in Deiner Kiste ?!? :what:

MfG Föhn.
Gekauft am Anfang 2019, ~ 5 Monate vor dem Zen 2 Release. Zen 1 war damals im Vergleich nun mal deutlich unterlegen was Single-Thread und Spiele-Leistung angeht. Hab gekauft was aktuell am besten und im Preisrahmen war. Gewechselt wird erst wieder wenn ich in meinen Games ins CPU Limit laufe.
 
Nur wird es kaum jemanden geben der von sich aus einen deutlichen Mehraufwand mitnimmt um nur einem kleinen Klientel was zu bieten. Zumal es nicht verhindert dass ich das Spiel mit einer RTX weiterhin normal spielen kann.
Erst wenn es die breite wirklich nutzen kann und auch der Druck da ist, dass Spieler diese Features "fordern" wird da bewegung reinkommen. Derzeit kann man sich sicher sein, dass hier die GPU Hersteller die Entwickler subventionieren um die Technik an den Mann/Frau zu bringen.
Doch, das tun sie ja jetzt schon und das haben die Entwickler auch schon in der Vergangenheit immer gemacht mit neu eingeführten Grafik-Features, die auch erst mal einen Mehraufwand darstellten, da man sich einarbeiten musste, die initiale Implementation vielleicht noch nicht ideal und daher umständlich war, Workflows umgestellt und Engines überarbeitet werden mussten. Mit Raytracing ist das nichts anderes.
Und der Druck wird jetzt schon da sein, zwar noch kleiner, aber stetig wachsend, denn wäre dem nicht so, d. h. ausnahmslos jeder Spieler wäre bereit auf Raytracing zu verzichten bzw. hätte kein Interesse daran, würden mindestens AMD und nVidia ihr Geld verschwenden (und zudem Sony und Microsoft), zusätzlich aber auch viele Entwicklerstudios (denn die werden zweifellos nicht alle gesponsort) und aus rein wirtschaftlicher Sicht kannst du dir an zwei Fingern ausrechen, dass man diesen Mehraufwand wohlkalkuliert betreibt.
Das "Versprechen" ist ja am Ende auch viel einfacher gestaltet, denn es geht einfach um "noch bessere, schönere, realistischere" *) Grafik und das wollen Spieler schon seit Jahrezehnten Jahr für Jahr aufs Neue. Raytracing ist schlicht nur ein weiteres Grafikfeature.

Und schlussendlich, ich muss jetzt spekulieren, da du das nicht explizit ausformulierst, was ist schlecht an einer Art Subventionierung? Wenn einigen Spielern damit ein Mehrwert geboten wird, warum nicht? Das ist in anderen Fällen ja nicht anders gelagert.
Genau so könnte man sagen, dass Entwickler ihre Ressourcen sparen und sich auf Mainstream-Hardware konzentrieren sollten und tunlichst keine hohen Auflösungen, Modelle, Texturen und grafischen Effekte implementieren sollten, da diese nur von einem sehr kleinen Prozentteil des Marktes genutzt werden können (insbesondere alle gleichzeitig), aber dennoch weisen die meisten PC-Titel eine extreme grafische Spanne mit weitreichenden Konfigurationsmöglichkeiten auf, was schlicht dem Konkurrenz- und Vermarktungsdruck zuzuschreiben ist. Bezüglich des reinen Anwendervolumens könnte man diese Spieler wohl als nahezu irrelevant ansehen, da jedoch diese Aufwendungen auch gleichzeitig dazu dienen das Produkt zu vermarkten, werden diese dennoch implementiert mit einem deutlichen Mehraufwand und die Spieler profitieren schlussendlich davon.

*) Wobei sich "realistisch" hier nicht einfach auf fotorealistische Grafik bezieht, sondern eher auf die nachgebildeten physikalischen Vorgänge bezieht. Die Grafik, bspw. die Beleuchtung, kann auch bei einer Comicstil-Grafik in dem Sinne "realistischer" werden.

Dir ist schon klar dass ich darauf hingewiesen habe dass es sich mit den Konsolen langsam ändern kann... :wall:
Konsolenhersteller können für 100% ihrer Nutzer den Mehrwehrt schaffen und eben nicht wie am PC für 16%. Dazu kann man sich auch in anderen Bereichen Aufwände sparen da RT das bspw. ersetzt. Du kannst damit plötzlich Synergien erhalten, die am PC nicht möglich sind wenn du die Masse ansprechen möchtest.
Zudem ging es dort wohl eher darum nicht veraltet zu wirken. Man hat ja gesehen wie 4k Marketingtechnisch ausgeschlachtet wurde und hier ist es nichts anderes.
Ja, ist mir klar, aber der zitierte Satz stammte schließlich von dir.
Und bspw. bzgl. der Konsolenhersteller gelingt diese Vereinheitlichung nur, wenn sie exklusiv für ein System implementieren. Bereits zwischen Xbox und PS5 muss man Leistungsunterschiede, abweichende Technik und APIs berücksichtigen, d. h. hier ist schon individuell anzupassen (und noch für einige Zeit werden gar die Alt-Konsolen aufwändig mitversorgt ;-)). Und dennoch machen sich die Hersteller die Arbeit, schlicht um einen größeren Absatzmarkt bedienen zu können, denn das bedeutet mehr Umsatz und Gewinn.
Und es sollte schon klar sein, dass die 16 % nur eine Momentaufnahme darstellen und der Wert zunehmend größer wird. Darüber hinaus sind die 16 % auch lediglich anteilig auf die Gesamtzahl der Systeme bezogen. Schaut man nur auf Desktop-Systeme, dann ist in etwa jede fünfte GPU bereits eine RTX-Karte, was angesichts der Tatsache, dass diese erst Ende 2018 Einzug hielten und es Raytracing-fähige GPUs bisher nur von einem einzigen Hersteller gab, durchaus schon eine beachtliche Marktdurchdringung darstellt.

Ich gehe davon aus, dass die Adaption weiterhin zunehmen und sich beschleunigen wird und sich die Entwickler selbstredend den zusätzlichen Aufwand machen werden, einfach weil das eine hochkompetetive Industrie ist und jeder Vermarktungsvorteil genutzt wird. In bereits absehbarer Zeit wird man den Punkt erreichen, an dem AAA-Titel grundsätzlich auch einen parallelen Raytracing-Renderpfad besitzen werden *), weil es dann wettbewerbstechnisch einfach nicht mehr ohne geht und man auf dem PC "altbacken" wirken würde.

*) Wofür sie den nutzen werden, ist dagegen ein anderes Thema, da man die Funktionalität vielfältig und selbst für Audio verwenden kann.

**) Zudem wird ja auch gegen Ende dieses Jahres mit Intel der dritte Hersteller mit Raytracing-Hardware den Markt betreten und der wird sich damit vorerst augenscheinlich grundsätzlich nur bis zum (upper) Midrange-Segment orientieren.

[9700K] Gekauft am Anfang 2019 ...
Selbst wenn du den nach dem Zen2-Release gekauft hättest, wäre das für einen Gaming-PC nicht zwingend ein Fehlkauf gewesen. Intel hatte diesbezüglich noch keine Probleme Zen2 in Schach zu halten. Erst jetzt ist Zen3 weitestgehend uneingeschränkt vorzuziehen, aber nur weil irgendwer was Neues veröffentlicht, wirft man ja nicht sein ganzes Hab und Gut auf den Müll und kauf komplett neu ... ;-)
 
Zuletzt bearbeitet:
Dir ist schon klar dass ich darauf hingewiesen habe dass es sich mit den Konsolen langsam ändern kann... :wall:
Konsolenhersteller können für 100% ihrer Nutzer den Mehrwehrt schaffen und eben nicht wie am PC für 16%. Dazu kann man sich auch in anderen Bereichen Aufwände sparen da RT das bspw. ersetzt. Du kannst damit plötzlich Synergien erhalten, die am PC nicht möglich sind wenn du die Masse ansprechen möchtest.
Zudem ging es dort wohl eher darum nicht veraltet zu wirken. Man hat ja gesehen wie 4k Marketingtechnisch ausgeschlachtet wurde und hier ist es nichts anderes.
Die Liste an Engines die RT bereits oder demnächst nativ unterstützen habe ich schon mehrfach gepostet, deswegen spare ich es mir an dieser Stelle. Nur so viel: die meist genutzten Engines sind dabei.

Wenn die Engine es nativ unterstützt, wo ist da der große Mehraufwand? Das ist ja der Vorteil von RT Beleuchtung, Schatten und Spiegel-Effekten, man schaltet es an und den Rest macht die Engine. Kein manuelles setzen von drölfzigtausend Lichtobjekten, fummeln am Schatten-Algorithmus oder platzieren von kostspieligen Zusatzkameras (oder in Kauf nehmen von unrealistischen Screen-Space-Reflections).
 
Doch, das tun sie ja jetzt schon und das haben die Entwickler auch schon in der Vergangenheit immer gemacht mit neu eingeführten Grafik-Features, die auch erst mal einen Mehraufwand darstellten, da man sich einarbeiten musste, die initiale Implementation vielleicht noch nicht ideal und daher umständlich war, Workflows umgestellt und Engines überarbeitet werden mussten. Mit Raytracing ist das nichts anderes.
Und der Druck wird jetzt schon da sein, zwar noch kleiner, aber stetig wachsend, denn wäre dem nicht so, d. h. ausnahmslos jeder Spieler wäre bereit auf Raytracing zu verzichten bzw. hätte kein Interesse daran, würden mindestens AMD und nVidia ihr Geld verschwenden (und zudem Sony und Microsoft), zusätzlich aber auch viele Entwicklerstudios (denn die werden zweifellos nicht alle gesponsort) und aus rein wirtschaftlicher Sicht kannst du dir an zwei Fingern ausrechen, dass man diesen Mehraufwand wohlkalkuliert betreibt.
Das "Versprechen" ist ja am Ende auch viel einfacher gestaltet, denn es geht einfach um "noch bessere, schönere, realistischere" *) Grafik und das wollen Spieler schon seit Jahrezehnten Jahr für Jahr aufs Neue. Raytracing ist schlicht nur ein weiteres Grafikfeature.
Es ist derzeit kein echter Druck dar. Oder kennst du große Threads bei den Entwicklern die sich beschweren das Spiel xyz kein RT hat? Die einzigen die derzeit Druck haben sind die Hardwareanbieter.
Wenn du wirklich Druck haben willst müssen die Spieler gewohnt sein bei AAA Spielen fast immer RT zu haben. Das ist aber derzeit nicht der Fall. Zu viele Spiele die es eben nicht mitgebracht haben und auch derzeit nicht angekündigt haben.
Und schlussendlich, ich muss jetzt spekulieren, da du das nicht explizit ausformulierst, was ist schlecht an einer Art Subventionierung? Wenn einigen Spielern damit ein Mehrwert geboten wird, warum nicht? Das ist in anderen Fällen ja nicht anders gelagert.
Genau so könnte man sagen, dass Entwickler ihre Ressourcen sparen und sich auf Mainstream-Hardware konzentrieren sollten und tunlichst keine hohen Auflösungen, Modelle, Texturen und grafischen Effekte implementieren sollten, da diese nur von einem sehr kleinen Prozentteil des Marktes genutzt werden können (insbesondere alle gleichzeitig), aber dennoch weisen die meisten PC-Titel eine extreme grafische Spanne mit weitreichenden Konfigurationsmöglichkeiten auf, was schlicht dem Konkurrenz- und Vermarktungsdruck zuzuschreiben ist. Bezüglich des reinen Anwendervolumens könnte man diese Spieler wohl als nahezu irrelevant ansehen, da jedoch diese Aufwendungen auch gleichzeitig dazu dienen das Produkt zu vermarkten, werden diese dennoch implementiert mit einem deutlichen Mehraufwand und die Spieler profitieren schlussendlich davon.

*) Wobei sich "realistisch" hier nicht einfach auf fotorealistische Grafik bezieht, sondern eher auf die nachgebildeten physikalischen Vorgänge bezieht. Die Grafik, bspw. die Beleuchtung, kann auch bei einer Comicstil-Grafik in dem Sinne "realistischer" werden.
Warum beginnst du eine völlig andere Diskussion loszutreten? Bleib doch bitte mal an einem Punkt statt ständig mit langen inhaltslose Sätzen neue Diskussionen zu eröffnen. Für mich sind Subventionen kein Problem aber man sollte sich klar machen dass ohne das Feature so keine Bedeutung hat.
Ja, ist mir klar, aber der zitierte Satz stammte schließlich von dir.
Und damit zeigst du das du weder verstanden hast noch verstehen willst. Für dich zum Mitschreiben: Es ging in dem ganzen Kontext um PC nicht Konsolen. Ein Spiel für Konsole X kann für jeden das Feature bieten da gibt es keine Splitterung wie am PC.
Und bspw. bzgl. der Konsolenhersteller gelingt diese Vereinheitlichung nur, wenn sie exklusiv für ein System implementieren. Bereits zwischen Xbox und PS5 muss man Leistungsunterschiede, abweichende Technik und APIs berücksichtigen, d. h. hier ist schon individuell anzupassen (und noch für einige Zeit werden gar die Alt-Konsolen aufwändig mitversorgt ;-)). Und dennoch machen sich die Hersteller die Arbeit, schlicht um einen größeren Absatzmarkt bedienen zu können, denn das bedeutet mehr Umsatz und Gewinn.
Die vereinheitlichung hast du bereits dadurch, dass beide Konsolen einen SoC mit gleicher Technik verwenden und auch sonst die Leistung nahe beieinander liegt. Aber auch wenn nicht gibt es kein Problem denn du hast weiterhin für Konsole X die Möglichkeit für 100% der Käufer einen Mehrwehrt zu schaffen und kannst weiterhin synergien gewinnen weil du eben Aufwand für diese Konsole in anderen Bereichen einsparen kannst das das RT Feature es übernimmt.
Außerdem haben MS und Sony die Möglichkeit mit Exklusivtiteln entsprechende Features zu positionieren. Und da geht es um mehr als nur den Titel. Braucht man nur lesen warum viele Leute eine PS5 kaufen wollen ;)
Und es sollte schon klar sein, dass die 16 % nur eine Momentaufnahme darstellen und der Wert zunehmend größer wird. Darüber hinaus sind die 16 % auch lediglich anteilig auf die Gesamtzahl der Systeme bezogen. Schaut man nur auf Desktop-Systeme, dann ist in etwa jede fünfte GPU bereits eine RTX-Karte, was angesichts der Tatsache, dass diese erst Ende 2018 Einzug hielten und es Raytracing-fähige GPUs bisher nur von einem einzigen Hersteller gab, durchaus schon eine beachtliche Marktdurchdringung darstellt.
Und nun? Willst du deutlichen Aufwand betreiben damit du 20% einen gefallen tust, wovon nichtmal jeder das Feature nutzen wird weil die Performance zu stark einbricht?
Mittlerweile sind die Konsolen mit entsprechenden Support dabei und man wird damit RT Features eher integrieren, da der Gesamtmarkt deutlich größer ist.
Ich gehe davon aus, dass die Adaption weiterhin zunehmen und sich beschleunigen wird und sich die Entwickler selbstredend den zusätzlichen Aufwand machen werden, einfach weil das eine hochkompetetive Industrie ist und jeder Vermarktungsvorteil genutzt wird. In bereits absehbarer Zeit wird man den Punkt erreichen, an dem AAA-Titel grundsätzlich auch einen parallelen Raytracing-Renderpfad besitzen werden *), weil es dann wettbewerbstechnisch einfach nicht mehr ohne geht und man auf dem PC "altbacken" wirken würde.
Natürlich wird sie zunehmen. Sämtliche Hersteller sind zu stark investiert als dass man das jetzt aufgeben würde. Da werden entsprechende Investitionen getätigt wenn nötig. Aber allem in allem ist die derzeitige Menge an Spielen eine herbe Enttäuschung. 30 Titel nach 2,5 Jahren ist spricht nich wirklich für großen Druck. Vor allem wenn man berücksichtigt dass der Spielemarkt so groß wie noch nie ist und der Großteil der AAA-Spiele ohne RT ausgekommen ist.
Die Liste an Engines die RT bereits oder demnächst nativ unterstützen habe ich schon mehrfach gepostet, deswegen spare ich es mir an dieser Stelle. Nur so viel: die meist genutzten Engines sind dabei.

Wenn die Engine es nativ unterstützt, wo ist da der große Mehraufwand? Das ist ja der Vorteil von RT Beleuchtung, Schatten und Spiegel-Effekten, man schaltet es an und den Rest macht die Engine. Kein manuelles setzen von drölfzigtausend Lichtobjekten, fummeln am Schatten-Algorithmus oder platzieren von kostspieligen Zusatzkameras (oder in Kauf nehmen von unrealistischen Screen-Space-Reflections).
Es ist aber kein "Klick" und es läuft. Du musst weiterhin deine Szenen anpassen und einstellen außer du stehst auf Ruckelpartien oder ungewünschten Darstellungen. RT ist zwar einfacher, aber du musst halt den Aufwand für Rasterisierung weiterhin betreiben damit nicht RT Nutzer das Spiel vernünftig zocken können.
 
Es ist aber kein "Klick" und es läuft. Du musst weiterhin deine Szenen anpassen und einstellen außer du stehst auf Ruckelpartien oder ungewünschten Darstellungen. RT ist zwar einfacher, aber du musst halt den Aufwand für Rasterisierung weiterhin betreiben damit nicht RT Nutzer das Spiel vernünftig zocken können.
Ich bin kein Game-Designer und weiss nicht wie aufwändig die zusätzliche RT-Integration ist, ich kenne die Entwickler-Tools auch nicht. Du? Es würde mich interessieren wie viel "Mehraufwand" da drinsteckt wenn RT bereits in der Engine vorhanden ist.

Soweit mir bekannt stellt man für RT Beleuchtung die herkömmliche Beleuchtung aus, legt fest wie viele Rays benutzt werden sollen, und das wars. Danach kommt das standardmäßige austarieren.

Durch die RT-Fähigkeit der Konsolen wird sich jeder Entwickler früher oder später damit auseinander setzen müssen. Die Engines werden ja bereits darauf getrimmt. Neue AA und SSR Methoden, und quasi jegliches andere neue Grafikfeature, musste schon immer in die Engines integriert und dann von den Entwicklern genutzt werden, das ist doch nichts Neues in der Industrie. Wieso sollte es mit RT anders laufen, vor allem jetzt wo jeder mit im Boot ist?

Du sprichst von Spielen die in den letzten 2 Jahren rausgekommen sind. Dass davon nur einige wenige RT Features haben ist doch logisch, die Spiele sind seit 6+ Jahren in Entwicklung, da gab es noch lange keine Turing / Ampere / RDNA2 Karten. Ich denke ein Großteil der neuen AAA Games der kommenden Jahre wird RT Features haben. Vor allem wenn die UE und Unity, zwei der meist benutzten Engines überhaupt, es nativ integriert haben.
 
In 4K nicht und genau das wird hier von allen AMDlern vehement abgestritten. Welche Spiele wurden denn getestet? In dem Artikel ist das, jedenfalls für mich, nicht wirklich ersichtlich.

Was aber stimmt, ist, dass AMD in neuen Games oft vorne liegt, mal sehen wie sich das noch auswirkt, wird wohl wie fast immer sein, AMDs Karten halten länger und ich werde mir eh eine 6900xt oder 6800xt kaufen.
AMD liegt in AMD-Titeln vorne. In den beiden aktuellsten Titeln Cyberpunk & Outriders liegt Nvidia vorn.
Ich weiß selbst, dass Cyberpunk buggy as hell ist, aber in letzter Zeit kamen nunmal keine anderen größeren Titel raus.
 
Wir sind endlich bei einem Gleichstand bei den GPUs angekommen und das kann nur positiv für uns sein.
Joa, wenn man ALLES außer der Rasterization-Performance und Effizienz außer Acht lässt, dann kann man das so sagen.

Man könnte Argumente nennen, die dem widersprechen:

- mehr Rasterization-Performance jenseits von WQHD --> 4K-Performance
- DLSS (für viele ein Killerfeature; seit neuem UE4-Patch auch für VR-Games verfügbar)
- deutlich bessere RayTracing-Performance (wenn verfügbar ein Gamechanger)
- NVENC (für Streamer; für Leute mit einer Oculus Quest); deutlich besser als AMD VCE
- machine-learning features: Nvidia Broadcast, RTXVoice, camera background-removal*
- CUDA (für manche Anwendungen relevant)
- schneller GDDR6X-Speicher
- deutlich bessere Mining-Performance** (natürlich nicht für jeden relevant)

* In Webcam-Konferenzen "der King" sein oder als Streamer keinen Greenscreen benötigen. :D

** Gibt tatsächlich auch Gamer, die ein paar Euro im Monat mit ihren Karten verdienen wollen, wenn sie sowieso nichts macht, bzw was man hat, das hat man halt, also warum nicht - im Winter spart das sogar - ohne Witz - Heizkosten :ugly: (= Winterargument)

---

Vorteile von BigNavi:

- günstiger
- effizienter
- recht viel VRAM
- kleineres Netzteil reicht
- besser verfügbar (mit Fragezeichen)
- gute Rasterization-Performance bis WQHD
- Produkt des Underdogs

Also ja, kann man machen. Beides gute Produktreihen. Man muss halt für sich gucken, was man haben will.

Für mich war der Drops eigentlich gelutscht, als ich gecheckt habe, dass meine Oculus Quest mit NVENC auf Nvidia-Karten deutlich besser läuft, als mit AMD VCE bzw Radeon ReLive. Das war halt mein Totschlagargument. Der Rest, s.o., ist halt ein Bonus. Freue mich, dass Cyberpunk 2077 trotz maximaler Settings und vollem RT bombig gut läuft. Habe aktuell noch mit recht wenig Aufwand an wenigen Tagen ca 20€ durch Idle-Mining (in Form von Bitcoin über NiceHash) "verdient". :ka:

https://www.computerbase.de/thema/grafikkarte/rangliste/

im Schnitt ist die 6900xt hier schneller.

Also das müsste eigentlich reichen, um jeden zu überzeugen, dass die Karten ziemlich ebenbürtig sind.
Warum das bei einigen nicht ankommt, kann sich jeder selbst beantworten.
Weil Computerbase die übelsten AMD-Fanboys versammelt hat und die natürlich gefüttert werden müssen. Computerbase und Hardware Unboxed sind zwei Vereine, die man in Sachen Grafikkarten einfach nicht ernstnehmen kann. Mit Cherrypicking und Scheuklappen kommt man eventuell auf den Schluss, dass BigNavi gleich schnell oder schneller sei als Ampere, aber in der Gesamtbetrachtung ist das halt vollkommener Unsinn.
 
Zuletzt bearbeitet:
Kann man auch umgkehrt formulieren:

Nvidia hat weniger Rasterization-Performance jenseits --> 4K also FAST ÜBERALL
dlss UND RTX als einzelne Punkte naja, wenn man's nötig hat.
den Rest kenn ich nicht mal.
Ich nutze meine Gpu zum Zocken und das wird die RDNA2 sicher länger leisten als die Speicherkrüppel

Ach
da waren ja noch "Vorteile" von AMD versteckt.

Vorteil von Nvidia:
Geld für die Lederjacke

ob die RX oder die RTX schneller ist, sieht man wenn man seine Games testet.
Viele sehr bekannte und beliebte Marken laufen halt auf AMD schneller zum Beispiel

World of Warcraft
Walhalla
Dirt
Batllefield
usw.

Nvidia kann Raytracing besser hat aber zu wenig Leistung als das man davon lange was hat und leider auch zu wenig Speicher um lange brauchbar zu sein.
Da kann man seine tolle Nvidiakarte natürlich immer an den Nvidianachwuchs verklaufen aber wo bleibt dann für den Käufer der Masterace-Bonus ???
 
Zuletzt bearbeitet:
Nvidia hat weniger Rasterization-Performance jenseits --> 4K also FAST ÜBERALL
Kommt komplett auf den Nutzer an.

Ich spiele zB mit so viel SuperSampling (=Renderscale), wie die Grafikkarte es aushält.
Dabei kommt dann logischerweise deutlich mehr als gerendertes WQHD bei raus.
Denk mal drüber nach. :gruebel:

Viele sehr bekannte und beliebte Marken laufen halt auf AMD schneller zum Beispiel

World of Warcraft
Walhalla
Dirt
Batllefield
Öh, ok, was für ne geile Auswahl an Games.
Braucht man dafür, abgesehen von AC:Valhalla, überhaupt BigNavi/Ampere?
Diese Titel kannste fast auch auf einer Ryzen-APU zocken. :fresse:
Wen interessiert, wer hier ein paar Prozent FPS mehr hat?
Valhalla... ok geschenkt. Ist halt ein, wenn nicht der, AMD-Titel.

dlss UND RTX als einzelne Punkte naja, wenn man's nötig hat.
DLSS ist halt ein eigenständiges Feature.
Wie ich sagte, DLSS2.1 ist jetzt auch für VR in der Unreal Engine 4 verfügbar, die recht breit genutzt wird.

RayTracing-Titel gibt es teilweise auch ohne DLSS und anders herum gibt es DLSS-Titel ohne RayTracing.

Vgl:
Death Stranding (nur DLSS2.0)
Dirt 5 (nur RayTracing)

den Rest kenn ich nicht mal.
Ich nutze meine Gpu zum Zocken und das wird die RDNA2 sicher länger leisten als die Speicherkrüppel
Ok und nur weil du Features nicht kennst, sind sie sinnlos und für jeden ist ne BigNavi besser oder was?

Nvidia kann Raytracing besser hat aber zu wenig Leistung als das man davon lange was hat und leider auch zu wenig Speicher um lange brauchbar zu sein.
Da kann man seine tolle Nvidiakarte natürlich immer an den Nvidianachwuchs verklaufen aber wo bleibt dann für den Käufer der Masterace-Bonus ???
Das hättest du dir auch sparen können.
Und Speicherkrüppel ist auch relativ...

Die RTX3080-Nutzer, die ich kenne sind sehr zufrieden und die profitieren auch von schnellem GDDR6X und haben keinen krüppeligen GDDR6-Speicher. ;)
 
In 4K nicht und genau das wird hier von allen AMDlern vehement abgestritten. Welche Spiele wurden denn getestet? In dem Artikel ist das, jedenfalls für mich, nicht wirklich ersichtlich.


AMD liegt in AMD-Titeln vorne. In den beiden aktuellsten Titeln Cyberpunk & Outriders liegt Nvidia vorn.
Ich weiß selbst, dass Cyberpunk buggy as hell ist, aber in letzter Zeit kamen nunmal keine anderen größeren Titel raus.
In 4k ist eine 3090 nicht zu schlagen.
In QHD und vor allem im High Fps Gaming haben die Radeons derzeit aber klar die Nase vorn.
Die 80er ist derzeit nicht Fisch nicht Fleisch.
 
In QHD und vor allem im High Fps Gaming haben die Radeons derzeit aber klar die Nase vorn.
https://www.computerbase.de/2021-04...hnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

3% auf CompBase nennst du klar?

Hier ist die Geforce 3090 5% in WQHD schneller.
Klar vorne ist da gar nix auch bei solch großen Performancevergleichen nicht.


Klar die Nase vorne ist einfach gelogen, aber das machst du ja die ganze Zeit hier.
Full HD 3%, WQHD 0,5% schneller. 6800xt gegen 3080.
 
In QHD kassiert meine 6800XT doch schon die 90er, da brauch es keine 6900.

Gears 5 QHD Balanced.jpg
SOTR QHD.jpg
WDL QHD.jpg
ACO QHD.jpg
TimeSpy.jpg
FS Extrem.jpg
BL3 QHD.jpg
 
In QHD kassiert meine 6800XT doch schon die 90er, da brauch es keine 6900.
So deine also. Und meine 3060 kassiert eine Radeon 6900XT in Cyberpunk mit DLSS und RTaytraycing. :lol:
Du hast einfach ein Problem und identifizierst dich mit deiner Hardware, in WQHD nehmen sich AMD und Radeon gar nix, das habe ich oben schon belegt mit mehr als 15 Quellen.
Da ist es mir völlig rille was du da an Screens hochlädst.
 
Zuletzt bearbeitet:
In QHD kassiert meine 6800XT doch schon die 90er, da brauch es keine 6900.

Anhang anzeigen 1362023

GPU-Score: 21 516 Punkte
Geht für ne FE klar oder?

Anhang anzeigen 1361531

1619462832021.png

So viel zum Thema...
Habe aktuell nur den TimeSpy parat (ist ja WQHD).
Extreme wäre in 4K und dürfte sich damit deutlich absetzen.

Wie dem auch sei.
Deine 6800XT ist halt wie immer ein Golden Sample.

Selbst die wassergekühlte und hochgeprügelte 6900XT von IgorsLab ist aber langsamer!

Deine 6800XT: 21447
Igors 6900XT: 20710
Meine 3090: 21516

--> Und ich hab nur ne FE und nichtmal eine Asus Strix oder so. :schief:

1619462760514.png

Also wenn du was als Referenz nimmst, dann eine durchschnittliche Karte.
Ansonsten kannst du gern deine tolle Karte gegen ein anderes Golden Sample von Ampere antreten lassen.

Also lass mal deine pauschalen Aussagen.
Es ist halt lächerlich und jeder weiß es.

Und meine 3060 kassiert eine Radeon 6900XT in Cyberpunk mit DLSS und RTaytraycing.
Ist halt echt so. :top:
 
Zuletzt bearbeitet:
Zurück