• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Cyberpunk 2077 Patch 1.2: Raytracing auf Radeons noch langsam

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077 Patch 1.2: Raytracing auf Radeons noch langsam

Mit Update 1.2 für Cyberpunk 2077 wird Raytracing auf Radeon-RX-6000-Grafikkarten aktiviert - doch wie gut läuft das? Nach ersten User-Berichten fehlt es RX 6800 und Co. vor allem an einem Turbo wie DLSS - AMDs Äquivalent FSR ist bekanntlich noch nicht fertig.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Cyberpunk 2077 Patch 1.2: Raytracing auf Radeons noch langsam
 

Matty86

Komplett-PC-Aufrüster(in)
Gestern Abend mal getestet mit der 6800 ohne XT.

In WQHD (Ultra Settings) mit RT Ultra rund 20 fps, mit RT niedrig rund 30 fps ^^
 

HairforceOne

Software-Overclocker(in)
Es fehlt halt definitiv noch die DLSS alternative. :D

Cyberpunk bringt ohne RT schon die Grafikkarten zum verzweifeln, mit RT wirds dann nicht wirklich besser. :ugly:
Bis auf 1-2 Sachen die mir aber auch bei vielen anderen RT-Spielen etwas "meh" aufgefallen sind ist RT aber wirklich schick in Cyberpunk. :daumen:
 

P2063

Software-Overclocker(in)
Raytracing läuft auf JEDER Karte die es kann langsam, auch bei Team Grün, das hat doch nix mit den Radeons im speziellen zu tun. Wenn dann sollte man ohne DLSS vergleichen. Ich bin mit meiner 6900XT sogar tatsächlich positiv überrascht, UHD max settings kommt man auf 11-15fps und mit 75% dynamischer Auflösung ca 25fps. Da hab ich nach den ersten Gerüchten eine wesentlich schlimmere Diashow erwartet, in WQHD sollte mit den 6800/6900er Karten jeder flüssig mit Raytracing spielen können.
 

Matty86

Komplett-PC-Aufrüster(in)
Raytracing läuft auf JEDER Karte die es kann langsam, auch bei Team Grün, das hat doch nix mit den Radeons im speziellen zu tun. Wenn dann sollte man ohne DLSS vergleichen. Ich bin mit meiner 6900XT sogar tatsächlich positiv überrascht, UHD max settings kommt man auf 11-15fps und mit 75% dynamischer Auflösung ca 25fps. Da hab ich nach den ersten Gerüchten eine wesentlich schlimmere Diashow erwartet, in WQHD sollte mit den 6800/6900er Karten jeder flüssig mit Raytracing spielen können.

Wie ich oben geschrieben habe, mit der 6800 ~20 fps ^^ Habs aber nur in dem Wohnkomplex von V getestet ;)
 

cloudconnected

Komplett-PC-Aufrüster(in)
War ja klar.

Also erstma ließ sich der Patch überhaupt nicht bei mir installieren

1617094868384.png


Für RTX fehlt es einfach noch an Rohleistung.
 

onkel-foehn

Software-Overclocker(in)
Zweifellos, abseits von Full HD kaum benutzbar. Daher sind ja Kniffe wie DLSS so wichtig – umso unverständlicher ist, dass AMD das nicht längst fertig hat, denn Zeit war seit der DXR-Spezifikation reichlich.

MfG
Raff
Moin Moin Raff !

Aber so was von !!

"Tatsächlich hat AMD mit der Radeon Software Adrenalin 2020 Edition 21.3.2 erst gestern neue Radeon-Treiber an den Start gebracht. Darin wird zwar Raytracing erwähnt, aber nur bei Dirt 5 und nicht bei Cyberpunk 2077."

Und dies wäre nicht zumindest eine "Notiz" wert ?!?

MfG Föhn. :-D
 

seriesx

Komplett-PC-Aufrüster(in)
Zweifellos, abseits von Full HD kaum benutzbar. Daher sind ja Kniffe wie DLSS so wichtig – umso unverständlicher ist, dass AMD das nicht längst fertig hat, denn Zeit war seit der DXR-Spezifikation reichlich.

MfG
Raff
Amds Upscaling wird wohl kaum besser als das checkerboard auf den Kosnolen. DLSS wird weit vor Amds Lösung liegen. rdna 2 ist nutzlos für RT. Die 7000 Series wird kaum an ampere kommen schon gar nicht wenn DLSS dann schon in der 3 runde ist.

aber rt ist eh eine enttäuschung da ist gutes hdr viel beeindruckender am oled.:love: sowas geht aber am pc leider nicht
 

Testo250

Kabelverknoter(in)
Kenne mich da nicht so aus aber mittlerweile gibts zumindest einen PC Monitor mit OLED .
Der LG UltraFine Display OLED Pro 32EP950-B kostet aber 3700€
Edit: und hat nur 60Hz und kein freeSync oder Gsync
 

nibi030

Software-Overclocker(in)
Amds Upscaling wird wohl kaum besser als das checkerboard auf den Kosnolen. DLSS wird weit vor Amds Lösung liegen. rdna 2 ist nutzlos für RT. Die 7000 Series wird kaum an ampere kommen schon gar nicht wenn DLSS dann schon in der 3 runde ist.

aber rt ist eh eine enttäuschung da ist gutes hdr viel beeindruckender am oled.:love: sowas geht aber am pc leider nicht
warum soll das nicht gehen? Hab meinen 77er am PC :ugly: und RT in Cyberpunk war schon sehr nett anzuschauen
 

Pu244

Lötkolbengott/-göttin
Kein Wunder, die einzige Karte, die damit fast keine Probleme hat, ist die RTX 3090 und auch da muß man auf DLSS zurückgreifen, wenn man auf 4K besteht. Da AMD gut ein Drittel langsamer ist, war nichts anderes zu erwarten.

Zweifellos, abseits von Full HD kaum benutzbar. Daher sind ja Kniffe wie DLSS so wichtig – umso unverständlicher ist, dass AMD das nicht längst fertig hat, denn Zeit war seit der DXR-Spezifikation reichlich.

Das ganze wird bei Nvidia wohl auch einige Zeit gebraucht haben. Hinzu kommt, dass die meisten (inklusive mir), die Tragweite von DLSS und Raytracing nicht verstanden haben. Am Anfang war DLSS einfach nur ein zusätzlicher AA Modus, die gab es wie Sand am Meer und Raytracin eine unwichtige Spielerei (toll, man kann auch Dinge in Pfützen spiegeln, wenn sie nichtmehr im eigentlichen Sichtfeld zu sehen waren), die Leistung ohne Ende gefressen hat.

Erst nachdem ich gesehen habe, wie gut das Upscaling funktioniert und bei Cyberpunk 2077, dass Raytraing mehr als nur eine Spielerei ist. Von daher ist es nicht unwahrscheinlich, dass AMD die Prioritäten anders gesetzt hat.

Auch sollte man nicht vergessen, dass sich GPUs weit über 4 Jahre in der Entwicklung befinden (meines Wissens sind es sogar etwa 6 Jahre). AMD wird wohl erst in der nächsten Generation auf die Tensorkerne reagieren können, wenn sie die bei der Titan V ernst genommen haben (was z.B. bei mir nicht der Fall war).
 

manimani89

BIOS-Overclocker(in)
Amds Upscaling wird wohl kaum besser als das checkerboard auf den Kosnolen. DLSS wird weit vor Amds Lösung liegen. rdna 2 ist nutzlos für RT. Die 7000 Series wird kaum an ampere kommen schon gar nicht wenn DLSS dann schon in der 3 runde ist.

aber rt ist eh eine enttäuschung da ist gutes hdr viel beeindruckender am oled.:love: sowas geht aber am pc leider nicht
oled und gaming ja das thema habe ich auch hinter mir 3x kaputte panels in 3 jahren reichten wir. nutze jetzt einen sony xh 9505 der ist von der farbe sogar noch besser als mein lg oled und schwarzwert auch extrem gut für lcd aber fürs gaming niewieder oled. und hdr ist auch so eine sache da tut sich der oled sowieso schwer da er deutlich dunkler ist als andere tvs
 

tallantis

Software-Overclocker(in)
Amds Upscaling wird wohl kaum besser als das checkerboard auf den Kosnolen. DLSS wird weit vor Amds Lösung liegen. rdna 2 ist nutzlos für RT. Die 7000 Series wird kaum an ampere kommen schon gar nicht wenn DLSS dann schon in der 3 runde ist.

aber rt ist eh eine enttäuschung da ist gutes hdr viel beeindruckender am oled.:love: sowas geht aber am pc leider nicht
Was du alles weißt, deine Glaskugel scheint richtig gute Bilder zu liefern. Ach, bist ja der, der schon beim Cyberpunk Patch Thema ohne Konsens nur miese Laune verbreiten wollte. :-) Da braucht man ja auch kaum auf die OLED + Gaming Thematik, mit zig statischen Elementen eingehen.

RT ist eine beeindruckende Technologie, vor allem würde sie den Entwicklern mal die Arbeit abnehmen zig Tausende Glühbirnen zu platzieren. Aber im Gaming braucht es noch ein paar Generationen bis man es sinnvoll einsetzen kann. Zumindest, wenn man volles RT will, ohne große FPS Einbußen.
 
Zuletzt bearbeitet:

Rollora

Kokü-Junkie (m/w)
Als die Turing kam und AMD kein RT konnte hieß es immer, dass AMD das Feature erst bringt, wenn es ausgereift ist und auch auf den kleineren Modellen (Massenmarkt) bringt.
Tatsache ist aber, solange FSR nicht da ist, gibts -wer unbedingt schon RT verwenden möchte- keinen Weg an Nvidia vorbei. Leider, denn es frustriert
 

geist4711

Software-Overclocker(in)
RT ist und bleibt, bis es für dies sachen WESENTLICH mehr rechenleistung gibt (so ca das 5-10 fache) ein gimmig das mehr bremst als alles andere.
wenn dann irgendwann die leistung mal um den besagten wert gesteigert wurde, dürftw auch ein DLSS überflüssig werden, ist eh ehr ein 'hingeschummel' was einem dazu noch vom hersteller abhängig macht, das dieser auch die daten vorberechnet, tut er das nämlich nicht oder nur schlecht/rudimentär, sieht das ganze mindestens genauso schlimm aus wenn nicht schlechter.
und wenn man dann später garkeine vorberechnungen mehr macht, weil zu teuer und eingestelllt, kann man den teil der hardware gleich wegwerfen. ohne DLSS könnte man mit eniger abstrichen weiter die karte nutzen.

über die brücke gehe ich aber weiterhin nicht und solange die leistung ohne DLSS dermaßen übelst ist, brauch ich auch keine grafikkarte die RT kann.
wobei mich das ganze, ich bin noch ganz bewusst bei FHD und wenn überhaupt lass ich das spiel ehr in 4k intern rendern um dann ein downscalling auf meinFHD zu machen, das bringt in meinen augen viel mehr als dieser DLSS-krüppel.......
 

owned139

BIOS-Overclocker(in)
Kein Wunder, die einzige Karte, die damit fast keine Probleme hat, ist die RTX 3090 und auch da muß man auf DLSS zurückgreifen, wenn man auf 4K besteht. Da AMD gut ein Drittel langsamer ist, war nichts anderes zu erwarten.
Muss man nicht, außer man will mehr als 30 FPS, aber das war vor RT in 4K nicht anders. Eine 1080 TI hat für 4K 60FPS auf ultra Settings auch nicht gereicht.
Heute erreicht man in 4K mit DLSS und Ultra Settings + RT bis zu 60 FPS. Wer das ohne DLSS haben will, muss genau wie früher die Settings runterschrauben.

RT ist und bleibt, bis es für dies sachen WESENTLICH mehr rechenleistung gibt (so ca das 5-10 fache) ein gimmig das mehr bremst als alles andere.
Also erst, wenn es mit 150-300 FPS ohne DLSS und 300-600 FPS mit DLSS läuft?
Warum genau benötigst du in Cyberpunk 300 FPS und wieso ist alles darunter für dich nicht spielbar?
 
Zuletzt bearbeitet:

Birdy84

Volt-Modder(in)
Kenne mich da nicht so aus aber mittlerweile gibts zumindest einen PC Monitor mit OLED .
Der LG UltraFine Display OLED Pro 32EP950-B kostet aber 3700€
Edit: und hat nur 60Hz und kein freeSync oder Gsync
Für knapp ein drittel des Geldes bekommst du einen fast doppelt so großen OLED TV, der auch noch 120Hz und adaptive Sync unterstützt.

@Topic: Das war doch zu erwarten, oder? Andere, nicht AMD-optimierte Titel laufen doch auch so (langsam).
 

ChrisMK72

PCGH-Community-Veteran(in)
Ich dachte, wer RT haben will, der kauft sich eh keine AMD Karte !?
Is doch irrelevant für die Radeons.

Man kann auch sehr gut ohne RT leben. Auch in CP.
Sieht ohne RT immer noch gut aus, was das Spiel ansich leider nicht besser macht, als es rausgekommen ist.

Ich glaube RT ist nicht das Problem von CP.

Wie hier auch schon gesagt wurde, bis RT richtig umfangreich und massig eingesetzt wird, wird's wohl noch dauern.
Also auch richtig GI, alles andere auch massiv und nicht nur so ein paar Strählchen hier und da, wo dann die Effekte auf einmal verschwinden, wenn man x Meter weit weg schaut.

Sehr umfangreich und RT in allen Bereichen in Open World Games könnte in Zukunft sicher mal toll aussehen.
Wenn es dann auch flott, ohne Einschränkungen läuft. Mit flott meine ich übrigens nicht unter 60 fps. Eher Richtung 100 fps. Um 60 herum finde ich mittlerweile je nach Spiel auch schon recht "zäh".

Und irgendwie finde ich DLSS bisher auch nicht so den burner.
Damit's richtig fluppt mit RT maxed out, muss es schon ziemlich weichgespült sein(wie heißt das ? DLSS Performance ?), was dann auch nicht mehr perfekt aussieht(blurry).

Wie gesagt, in ein paar Generationen sieht's vielleicht besser damit aus, aber so lang kann man auch ruhig ne AMD Karte nehmen, mehr Grafikspeicher für was auch immer nehmen, wenn man's braucht und RT aus lassen.

Ich seh' das so ähnlich wie den 4k/UHD Hype an.
Warten wir mal noch 2 Gens und schauen dann.

Dann klappt's bei den Highendkarten vielleicht auch mit fluffigen* fps in UHD + RT(umfangreich und maxed out).

*fluffig = 70-100fps

Bisher is das doch alles noch early adopter Spielkram.
 
Zuletzt bearbeitet:

geist4711

Software-Overclocker(in)
Muss man nicht, außer man will mehr als 30 FPS, aber das war vor RT in 4K nicht anders. Eine 1080 TI hat für 4K 60FPS auf ultra Settings auch nicht gereicht.
Heute erreicht man in 4K mit DLSS und Ultra Settings + RT bis zu 60 FPS. Wer das ohne DLSS haben will, muss genau wie früher die Settings runterschrauben.


Also erst, wenn es mit 150-300 FPS ohne DLSS und 300-600 FPS mit DLSS läuft?
Warum genau benötigst du in Cyberpunk 300 FPS und wieso ist alles darunter für dich nicht spielbar?

und für eine (wieviel tausend-euro?) -karte sind dann 4k@ BISZU60hz, ein 'tolles ergebnis'? nein, SO ist das ganze noch stark in den kinderschuhen. da bleib ich lieber bei FHD, ohne RT und DLSS und spare ne menge geld bei grafikkarte und monitor, statt dem hype hinterher zu rennen und nur für die grafikkarte soviel hin zu legen, wie für den ganzen restlichen rechner mit monitor und allem zubehör. ich hab auch noch ein reales leben und nur zum zocken, geb ich keinen monatslohn NUR für eine grafikkarte aus........

edit: für mich sind 'gute bildraten' alles ab STABILE 60hz, also 60hz minimum mit spitzen bis 120hz.
 

owned139

BIOS-Overclocker(in)
und für eine (wieviel tausend-euro?) -karte sind dann 4k@ BISZU60hz, ein 'tolles ergebnis'? nein, SO ist das ganze noch stark in den kinderschuhen. da bleib ich lieber bei FHD, ohne RT und DLSS...
Vor Turing gab es auch ohne RT keine 60 FPS in 4k, außer du hast die Settings runtergedreht, also ja, das ist ein tolles Ergebnis.
Du spielst in FHD und diskutierst über 4K? Ehm what? Wenn du doch sowieso kein 4K nutzt, warum beschwerst du dich dann? Zumal du eh keine RT fähige Graka hast.

...und spare ne menge geld bei grafikkarte und monitor, statt dem hype hinterher zu rennen und nur für die grafikkarte soviel hin zu legen, wie für den ganzen restlichen rechner mit monitor und allem zubehör. ich hab auch noch ein reales leben und nur zum zocken, geb ich keinen monatslohn NUR für eine grafikkarte aus........
Was hat der Preis der Grafikkarte jetzt genau mit der RT Leistung zutun? Du vermischt da ein paar Dinge. Die Karten sind unabhängig vom RT ziemlich teuer. Was genau ist also dein Kritikpunkt?

edit: für mich sind 'gute bildraten' alles ab STABILE 60hz, also 60hz minimum mit spitzen bis 120hz.
FPS ≠ Hz und die 60 FPS bekommst du jetzt schon mit Ultra Settings in 4K + RT. Kostet halt dementsprechend auch.

Abgesehen davon ist dein Argument, dass es sicht erst lohnt, wenn die Karten 5-10x so schnell sind wie jetzt, fernab jeglicher Realität. Das ganze dann am besten noch auf Ultra in 8K in 300+ FPS und die Karte darf maximal 300€ kosten? Da kannste lange warten :ugly:
Das wird niemals passieren und war auch in der Vergangenheit NIE der Fall.
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
und für eine (wieviel tausend-euro?) -karte sind dann 4k@ BISZU60hz, ein 'tolles ergebnis'? nein, SO ist das ganze noch stark in den kinderschuhen. da bleib ich lieber bei FHD, ohne RT und DLSS und spare ne menge geld bei grafikkarte und monitor, statt dem hype hinterher zu rennen und nur für die grafikkarte soviel hin zu legen, wie für den ganzen restlichen rechner mit monitor und allem zubehör. ich hab auch noch ein reales leben und nur zum zocken, geb ich keinen monatslohn NUR für eine grafikkarte aus........

edit: für mich sind 'gute bildraten' alles ab STABILE 60hz, also 60hz minimum mit spitzen bis 120hz.
Seltsame Argumente, ehrlich. Wären die Grafikkarten Preise nicht aktuell durch Corona und Mining so hoch, dann gäbe es eine 3080 für ~750 Euro. Meine 3080 OC hat mich Ende 2020 ~950 Euro gekostet, ok, aber das ist immernoch nicht der Preis vom gesamten Rest des Systems. Allein ein guter 4K Monitor kostet gerne mal 1000 Euro, ich habe "nur" einen der besten WQHD Monitore für ~700 Euro.

Ich spiele CP2077 in WQHD, maxed out Settings, RT Psycho, DLSS Quality mit konstant über 60 FPS.

edit: Wenn Dein Monatslohn so niedrig ist dass Du Dir gerade mal eine Grafikkarte davon kaufen kannst dann ist das traurig, aber daraus zu schließen dass "das ganze noch stark in den kinderschuhen" steckt ist typisches Blasendenken. Deine Blase ist (no offense) die eines Geringverdieners. DLSS ist "hingeschummelt", RT steckt in den "Kinderschuhen", Grafikkarten sollen billig sein und min. 4K, 60 FPS, maxed out settings bieten, bis dahin sind alle neuen Features "unbrauchbar". Wenn alle so denken würden dann gäbe es keinen Fortschritt, und damit meine ich nicht nur Grafik-Features.
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Ihr dreht ihm aber auch das Wort im Mund um, nicht ? ;)

Stimmt doch, was er sagt.

Wenn du doch sowieso kein 4K nutzt, warum beschwerst du dich dann?

Es ging doch darum, dass es noch in den Kinderschuhen steckt, sprich: Noch nicht im Mainstream angekommen. Also für die meisten noch nicht relevant.

So hab ich's zumindest verstanden.

Und im Grunde hab ich das Gleiche in grün auch geschrieben. Hab halt "early adopter Spielkram" dazu gesagt. ;)

Was hat der Preis der Grafikkarte jetzt genau mit der RT Leistung zutun?
Ja eben genau, dass es noch in der Anfangsphase steckt und noch nicht wirklich ausgiebig(also richtig gut/schön) von mainstreamkarten nutzbar. Also für die Allgemeinheit der Zocker.

Bisher isses halt noch Luxustestphase für "gut betuchte".

Meine 3080 OC hat mich Ende 2020 ~950 Euro gekostet, ok, aber das ist immernoch nicht der Preis vom gesamten Rest des Systems.
Meine 3080 TUF OC auch fast.
Und doch ... es gab mal ne Zeit, da hat man für 1250€ n "ganz guten" Gaming PC bekommen. Also komplett(evtl. zzgl. Monitor, was aber auch nich die Welt sein muss, bei ca. 150-300€).


Also @geist4711 ... bin da voll bei dir. Lass dich nich ärgern. ;) Game on ! :daumen:

Hauptsache man hat Spaß mit seinem Kram. Und ich denk mir manchmal ... wie geil muss das sein, mit sehr viel günstigerem Zeug genauso viel Spielspaß zu haben, wie Leute mit 4000€ Kisten. :D


edit: Einfach RT = off + 1080p.
edit2: Spart man auch noch Strom. ;)
 
Zuletzt bearbeitet:

owned139

BIOS-Overclocker(in)
Es ging doch darum, dass es noch in den Kinderschuhen steckt, sprich: Noch nicht im Mainstream angekommen. Also für die meisten noch nicht relevant.

So hab ich's zumindest verstanden.
Eines seiner Argumente ist, dass er in 4K keine 60 FPS ohne DLSS erreicht und bezeichnet das als schlechtes Ergebnis.
Diese 60 FPS erreichen wir überhaupt erst seit Turing. Vorher wurden immer die Settings rundergedreht.
Als nächstes behauptet er, dass es erst mit 5-10x Rechenleistung zu heute richtig gut funktioniert.
Keine Ahnung, was ihr so gezockt habt, aber ich habe jetzt schon 100+ FPS in 1080p mit RT und ~60 FPS in 4K mit DLSS.
Das 5-10x davon wäre 500-1000 FPS bzw. 300-600 FPS. Welche Grafikkarte hat das jemals unter maximalen Einstellungen in einem aktuellen Spiel geschafft? Mir fällt nicht eine ein.

Ja eben genau, dass es noch in der Anfangsphase steckt und noch nicht wirklich ausgiebig(also richtig gut/schön) von mainstreamkarten nutzbar. Also für die Allgemeinheit der Zocker.

Bisher isses halt noch Luxustestphase für "gut betuchte".
Eben nicht. Die Karten sind nicht wegen der RT-Technik so teuer, sondern wegen des Minings. Wenn sich das alles normalisiert hat, bekommst du eine 3080 für 750€. Glaubst du wirklich, dass die Karte ohne RT so viel günstiger wäre? Mit Sicherheit nicht.
Selbst die 3060 unterstützt RT und das ist keine Grafikkarte für "gut betuchte".

Es ist okay zu sagen, dass die Karten zu teuer sind, denn das sind sie, selbst wenn sie zur UVP käuflich wären. Als Grund dafür die RT-Technik vorzuschieben ist schlichtweg nicht richtig. Ich habe zwar das Geld übrig für eine 3090, aber glaubt ihr nicht, dass auch ich mich freuen würde, wenn ich "nur" 800€ hätte zahlen müssen?
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
Ihr dreht ihm aber auch das Wort im Mund um, nicht ? ;)

Stimmt doch, was er sagt.



Es ging doch darum, dass es noch in den Kinderschuhen steckt, sprich: Noch nicht im Mainstream angekommen. Also für die meisten noch nicht relevant.

So hab ich's zumindest verstanden.

Und im Grunde hab ich das Gleiche in grün auch geschrieben. Hab halt "early adopter Spielkram" dazu gesagt. ;)


Ja eben genau, dass es noch in der Anfangsphase steckt und noch nicht wirklich ausgiebig(also richtig gut/schön) von mainstreamkarten nutzbar. Also für die Allgemeinheit der Zocker.

Bisher isses halt noch Luxustestphase für "gut betuchte".


Meine 3080 TUF OC auch fast.
Und doch ... es gab mal ne Zeit, da hat man für 1250€ n "ganz guten" Gaming PC bekommen. Also komplett(evtl. zzgl. Monitor, was aber auch nich die Welt sein muss, bei ca. 150-300€).


Also @geist4711 ... bin da voll bei dir. Lass dich nich ärgern. ;) Game on ! :daumen:

Hauptsache man hat Spaß mit seinem Kram. Und ich denk mir manchmal ... wie geil muss das sein, mit sehr viel günstigerem Zeug genauso viel Spielspaß zu haben, wie Leute mit 4000€ Kisten. :D


edit: Einfach RT = off + 1080p.
edit2: Spart man auch noch Strom. ;)
Darum geht es nicht @ChrisMK72 , es geht darum dass hier jemand, der es sich schlicht nicht leisten kann, die Features als "unbrauchbar" abstempelt. Der Neid ist meiner Meinung nach in seinen Posts deutlich zu erkennen.

Würde man ihm einen Gaming PC mit einer 3060/3070/3080 schenken, glaubst Du er würde RT + DLSS nicht anschalten wenn es das Spiel unterstützt? Fakt ist doch: selbst mit einer 3060 bekommt man in FHD gute FPS mit RT + DLSS Quality.

edit: Bezüglich "1250€ n "ganz guten" Gaming PC" - aber nicht mit einem 4K Monitor, das wäre auch heute nicht machbar wenn die Grafikkarten zur UVP verfügbar wären.
 

ChrisMK72

PCGH-Community-Veteran(in)
Eines seiner Argumente ist, dass er in 4K keine 60 FPS ohne DLSS erreicht und bezeichnet das als schlechtes Ergebnis.

Ich finde das Ergebnis mancher 3090 in 4k+RT auch nicht berauschend, je nach Game, wenn man sich die Werbung ansieht und die technische Ausstattung mit 24GB GDDR6x Speicher und was dann hinten bei rum kommt.

Laut der Werbung haben wir ja schon lange echte 4k Karten. Ja klar ... je nach Geschmack möglich(selbst 8k ;) ). Aber halt etwas "lame", für meinen Geschmack, wenn man echt alles maxed out fahren will, oder zumindest das Meiste.

Ich fänd' es auch besser, wenn es ohne DLSS möglich wäre gute fps (edit: in 4k in Top AAA Titeln) zu erreichen.
Das wird auch sicher "bald" kommen. In ein paar Jahren.

Wenn sich das alles normalisiert hat, bekommst du eine 3080 für 750€.

Und das is dann mainstream ?
Bevor RT richtig Massenrelevant wird, sollte es auch gut und ausgiebig in 300€Karten nutzbar sein, finde ich.

So lange isses halt noch early adopter Luxusspielkram.

Der Neid ist meiner Meinung nach in seinen Posts deutlich zu erkennen

Ich sehe da eher gesunden Menschenverstand, der nicht jedem Werbehype hinterher rennt. Man könnte es auch Vernunft nennen.

Aber ok, ist nur nur meine unwichtige Meinung und mein Senf zu dem Thema RT + gehype.

Kann und soll sich natürlich jeder gern seine eigene Sicht zurechtlegen, passend zum Geldbeutel. ;)



edit: So ... mein Kaffee is gleich alle. Ne halbe Tasse hab ich noch Zeit. :D
 

owned139

BIOS-Overclocker(in)
Ich finde das Ergebnis mancher 3090 in 4k+RT auch nicht berauschend, je nach Game, wenn man sich die Werbung ansieht und die technische Ausstattung mit 24GB GDDR6x Speicher und was dann hinten bei rum kommt.
Hätte auch gerne 8K mit 144FPS, aber das ist wunschdenken und fernab jeglicher Realität.

Laut der Werbung haben wir ja schon lange echte 4k Karten. Ja klar ... je nach Geschmack möglich(selbst 8k ;) ). Aber halt etwas "lame", für meinen Geschmack, wenn man echt alles maxed out fahren will, oder zumindest das Meiste.
Wann hattest du jemals flüssiges (> 60 FPS) 4K maxed out?
Wir haben auch echte 4K Karten. Man kann die Settings immer so hochdrehen, dass die Karte in die Knie geht. Das wird sich auch zukünftig nicht ändern, deswegen kann man sie trotzdem als 4K Karte bezeichnen.

Und das is dann mainstream ?
Bevor RT richtig Massenrelevant wird, sollte es auch gut und ausgiebig in 300€Karten nutzbar sein, finde ich.
Die 80er Karten waren nie Mainstream. Die 60er waren es und dort bekommst du flüssige Bildraten in 1080p mit RT. Es ist also im Mainstreambereich angekommen.
 

doedelmeister

Freizeitschrauber(in)
Ich bin auch nicht so ganz überzeugt ob sich Raytracing durchsetzen wird. Kostet im Augenblick zu viel Leistung und nur bei den großen GPUs über 500€ (UVP) wirklich nutzbar. Erinnert bisschen an dieses Hairworks und PhysX vor ein paar Jahren, hat sich dann auch net durchgesetzt.
 

RavionHD

PCGH-Community-Veteran(in)
Im besten Fall ist also selbst mit der stärksten AMD GPU nur 1080P/60 FPS möglich mit leicht reduzierten RT Settings.
Die RT Leistung der 6900XT liegt letztendlich nur auf dem Level einer ~3070, also die Erwartungshaltung ist natürlich entsprechend.
 

ChrisMK72

PCGH-Community-Veteran(in)
Hätte auch gerne 8K mitr 144FPS, aber das ist wunschdenken und fernab jeglicher Realität.

Ja, genau wie RT für alle in gut und schön innerhalb der nächsten 2 Jahre.

Wann hattest du jemals flüssiges (> 60 FPS) 4K maxed out?

Is was für die Zukunft, wie geschrieben. In 2 Gens sicher möglich.

Die 80er Karten waren nie Mainstream. Die 60er waren es.

Eben.

Ich sag doch es steckt noch in den "Kinderschuhen", wie Geist auch geschrieben hat. Also noch nicht für die Masse relevant. Nix Anderes hab ich geschrieben.

Also wenn man eher vernünftige Beträge für ne einzelne GPU ausgeben möchte und an RT interessiert ist, ist es bisher noch nicht relevant, sprich: Man kann dann noch drauf verzichten.
Und in 2 Gens sieht's vielleicht schon deutlich besser aus, was die Leistungsfähigkeit betrifft. Auch für Highend 4k usw. .

Ich freu mich übrigens schon auf die 5070. Mal gespannt, was dann geht. :)
(Bin ja nicht gegen die Technik, hab ja selber ne 3080, aber einfach weil ich die Basisleistung haben wollte)

Wenn 3060er massenweise für um und unter 300€ zu haben sind, wird das aber auch immer noch kein wirklich gutes RT sein, wie es in Zukunft mal möglich sein wird, halt richtig ausgiebig, mit GI, Reflexionen, Schatten und alles reichlich durch RT berechnet. Das kommt ja auch auf die Menge der Strahlen an, die berechnet werden usw. .

Irgendwann is das sicher möglich. Wir sind aber noch in der Anfangsphase. Darum ging's doch.

Aber bisher sehen die Games halt ganz ohne RT auch immer noch sehr gut aus.
Kann man easy noch 2 Generationen mit warten, bevor man da in's RT-Thema einsteigt.


np. :)


edit:

Bezüglich "1250€ n "ganz guten" Gaming PC" - aber nicht mit einem 4K Monitor, das wäre auch heute nicht machbar wenn die Grafikkarten zur UVP verfügbar wären.
Ja, gute 4k Monitore kommen erst noch raus. ;) Einzelne Ausnahmen soll es schon geben.
Ich meinte n "guten Gaming PC" allgemein. Also womit man gut zocken kann, z.B. 1080p bis WQHD(war z.B. erstaunt, was mit ner simplen GTX 1660 Super 6GB schon machbar war, letztes Jahr, für unter 200€ Neu direkt ab Händler).


PS: So ... Kaffee is alle.
Kaffee 3.jpg
Later ! :D
 
Zuletzt bearbeitet:

ZanDatsuFTW

Software-Overclocker(in)
Ich bin auch nicht so ganz überzeugt ob sich Raytracing durchsetzen wird. Kostet im Augenblick zu viel Leistung und nur bei den großen GPUs über 500€ (UVP) wirklich nutzbar. Erinnert bisschen an dieses Hairworks und PhysX vor ein paar Jahren, hat sich dann auch net durchgesetzt.
RT kann man nicht mit PhysX oder Hairworks vergleichen, denn das waren wirklich Gimmiks mMn.
RT dagegen erleichtert die Arbeit der Entwickler ungemein, allein deswegen wird es sich durchsetzen.
Nur bis es im großen Maße eingesetzt wird, d.h. nicht oder kaum mit klassischen Raster Techniken kombiniert wird noch ein paar Grafikkarten Generation dauern.
 

I3uschi

Software-Overclocker(in)
Die RT Performance auf AMD Karten war ja zu erwarten und sollte niemanden überraschen.

DF hatte mal ein Video dazu gemacht, da sah man ja schon sehr gut, wie weit AMD zurück liegt bzgl. RT:

(Für die, die es noch nicht gesehen haben. Hab's extra an die "Fazit-Stelle" gespult)
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Da wird selbst im besten Fall mMn auch kein DLSS Pendant helfen um aufzuschließen, wobei es natürlich trotzdem dringend wünschenswert ist.

So viel auch zur Zukunftstauglichkeit bzgl. voran gegangener Kommentare.
AMD's neuste Karten werden sicherlich wegen ihrer Speichermenge etwas länger durchhalten. (Ohne RT, 3090 außen vor)
Aber da Raytracing immer mehr statt weniger wird und AMD Karten schon jetzt in dieser Disziplin nicht so gut performen, fragt man sich schon, wie soll das in 2, 3 oder 4 Jahren aussehen!?

Da nVidias Achillesferse meistens der Speicher ist, sehe ich bei beiden aber nicht wirklich viel Zukunftstauglichkeit.
(Kann oder konnte man mit wenigen Ausnahmen bei GPUs doch eh nie wirklich von sprechen)
Und bei beiden kommt halt der natürliche Spiele-Prozess dazu, die 1080Ti war auch mal eine 4k @60FPS Karte.

Aber und das finde ich sehr gut. Das "schlecht sprechen" von Raytracing sollte mit diesem Parade Beispiel wie gut RT aussehen kann, weniger werden.
Schließlich können AMD Karten User sich endlich selber mal ein Bild davon machen, am eigenen Rechner.
Da ist es auch egal ob man nun mit nur ~30FPS einmal durch die Jig Jig Street laufen kann, diesen (Augen) Porno muss man einfach mal gesehen haben.
Ist jedenfalls eine optische Aufwertung, deutlich mehr als wenn man irgendwas von -medium- auf -ultra- stellt.

Zu guter Letzt wollte ich noch eine Lanze für den DLSS Performance Mode brechen.
Ist das wieder so ein Ding, wo das Glas halb leer ist? Sollte man den Modus besser gar nicht anbieten?
Oder ist es nicht eher beeindruckend, was man aus nativem ~720p Matsch heraus holen kann?

Klar, der Quality Modus ist besser, aber so schlecht sieht -Performance- doch gar nicht aus.
Es flimmert natürlich mehr, oder V's Charakter im Menu sieht furchtbar aus.
Aber, legt man noch den Schärfefilter drüber sieht es insgesamt gut aus und man bekommt genau das was man braucht, nämlich Performance.

Uff, wieder Wall of Text geworden... Viel Spaß an AMD'ler beim "Spiel neu erleben", wenn auch erstmal nur zum gucken. :daumen:
 

PCGH_Torsten

Redaktion
Teammitglied
Zweifellos, abseits von Full HD kaum benutzbar. Daher sind ja Kniffe wie DLSS so wichtig – umso unverständlicher ist, dass AMD das nicht längst fertig hat, denn Zeit war seit der DXR-Spezifikation reichlich.

MfG
Raff

Fehlerarmes Hinzudichten von Bildinhalten an Stelle von aufwendiger, exakter Berechnung ist nicht erst seit den DXR-Spezifikationen wünschenswert oder denkbar, sondern spätestens seit der ersten geglätten Schriftart. Aber es war nie einfach, sichtbare Artefakte zu vermeiden. Da kämpfte selbst DLSS 1 stark mit und das werden auch die AMD-Entwickler haben feststellen müssen. In einer Welt mit unbegrenzten Entwicklungsressourcen müsste die Frage dagegen eher lauten, warum man überhaupt auf DLSS-Kinderkram wie rekonstruierte Pixel beschränkt? VR-Headsets extrapolieren komplette Frames für Rotationsbewegugnen seit 2016 und für komplexere Änderungen seit 2019. Da hat man dann auch keine temporalen Artefakte innerhalb eines Bildes, sondern einfach verdoppelte Fps.
 

Malker

Komplett-PC-Aufrüster(in)
Ich bin auch nicht so ganz überzeugt ob sich Raytracing durchsetzen wird. Kostet im Augenblick zu viel Leistung und nur bei den großen GPUs über 500€ (UVP) wirklich nutzbar. Erinnert bisschen an dieses Hairworks und PhysX vor ein paar Jahren, hat sich dann auch net durchgesetzt.

Nicht durchgesetzt ist nicht ganz korrekt. Diese Dinge sind jetzt in die Effektbibliotheken übernommen worden und werden jetzt nicht mehr als exklusive Features beworben.
 
Oben Unten