News AMD: Neues Patent verspricht Raytracing-Verbesserungen [Gerücht]

Also zusammenfassend:
Eine Steigerung der Rohleistung auf das 2,3-fache (3090 zu 4090: 35,6 zu 82,6 TFLOPS FP32) – enttäuschend
1,5 Mal so viele RT-Rechenkerne mit erheblicher Effizienzsteigerung (und Taktsteigerung) – enttäuschend

AMD hat ebenfalls riesige Schritte nach Vorne gemacht.

Der Streit zwischen Rasterisierung und Pathtracing scheitert ganz klar ohne eine Zielstellung:
Soll es realistische Grafik sein? Dann ergibt Rasterisierung keinen Sinn. Der Aufwand für realistische Ergebnisse ist viel zu hoch.
Pathtracing bietet die physikalisch korrekte Simulation von Licht. Das ist rechenintensiv, aber dann automatisch "realistisch".
All die Arbeit, die da rein gesteckt wird, aus in unterschiedlichen Durchläufen aufeinander gestapelten separaten Effekten eine "ansprechende" Grafik zu bekommen, könnte mit Pathtracing in schönere Assets, besseres Gamedesign und Optimierung gesteckt werden.

Lieber hätte ich eine physikalisch reale Grafik (Beleuchtung), die dafür intern in geringer Auflösung berechnet wird, die rauscht und ein paar Artefakte hat – aber dafür die Vorteile auf Entwicklerseite sowie eben Photorealismus.

Hier hat jemand geschrieben, dass das "Hinzuerfinden" von Pixeln von einer niedrigeren Auflösung schummeln sei, weil es ja die "wahren" Informationen reduziert im Vergleich zum nativen Bild.
Da habe ich lieber ein "wahres" Bild als Grundlage, aus dem dann noch ein paar Pixel erfunden werden, als ein Bild mit komplett geschummelter Beleuchtung – dafür nativ in jedem Pixel.

Mir ist klar, dass wir noch nicht ganz da sind. Aber ich finde den Weg über Pathtracing + KI-Bereinigung die beste Lösung zum Ziel Photorealismus.
 
Der Streit zwischen Rasterisierung und Pathtracing scheitert ganz klar ohne eine Zielstellung:
Soll es realistische Grafik sein? Dann ergibt Rasterisierung keinen Sinn.
Einspruch. Es gibt Beispiele wo den Leuten nicht einmal der Unterschied zwischen regulär und RT auffällt, nur eben mit dem Unterschied, das regulär weit weniger leistungshungrig ist.
Der Aufwand für realistische Ergebnisse ist viel zu hoch.
Aktuell, nein, da etablierter als RT.
Pathtracing bietet die physikalisch korrekte Simulation von Licht. Das ist rechenintensiv, aber dann automatisch "realistisch".
Nö, sieht man an CP2077 PT, sieht sehr künstlich, "übertrieben" aus. Realistisch ist es dann, wenn man nicht mehr sieht das es PT ist. ;-)
All die Arbeit, die da rein gesteckt wird, aus in unterschiedlichen Durchläufen aufeinander gestapelten separaten Effekten eine "ansprechende" Grafik zu bekommen, könnte mit Pathtracing in schönere Assets, besseres Gamedesign und Optimierung gesteckt werden.
Grundsätzlich ja aber da sind wir noch meilenweit von HW entfernt, die das wirklich sinnvoll ersetzen kann. Genau darum geht es auch. Man soll mehr in HW investieren damit man da hinkommt, nicht in AI Workarounds, dass irgendwie jetzt schon nutzen zu können, Mehrwert fraglich.
Lieber hätte ich eine physikalisch reale Grafik (Beleuchtung), die dafür intern in geringer Auflösung berechnet wird, die rauscht und ein paar Artefakte hat – aber dafür die Vorteile auf Entwicklerseite sowie eben Photorealismus.
Mangelnde HW kann man nur bedingt mit solchen AI Workarounds umgehen. Wenn du das für die Zukunft willst, dann musst du auch dafür sein, dass das Hauptaugenmerk auf HW-Innovation gelegt wird, ansonsten wird das noch sehr lange dauern.
Hier hat jemand geschrieben, dass das "Hinzuerfinden" von Pixeln von einer niedrigeren Auflösung schummeln sei, weil es ja die "wahren" Informationen reduziert im Vergleich zum nativen Bild.
Da habe ich lieber ein "wahres" Bild als Grundlage, aus dem dann noch ein paar Pixel erfunden werden, als ein Bild mit komplett geschummelter Beleuchtung – dafür nativ in jedem Pixel.
Das schrieb nicht jemand, das ist per Definition die Definition von "verlustbehaftet"
Mir ist klar, dass wir noch nicht ganz da sind. Aber ich finde den Weg über Pathtracing + KI-Bereinigung die beste Lösung zum Ziel Photorealismus.
Das geht nur wenn man alle mitnimmt und nicht nur ein paar wenige, mit propritären Lösungen, die sich die Mondpreis-GPUs überhaupt leisten kann, womit sich der Kreis zum FSR wieder schließt.

MfG
 
Da wir ja selbst bei nativ 4k (bzw 3840x2160p) noch Kantenglättung benötigen außer man guckt auf 7" Switch Bildschirm wird so oder so in 95% der Fälle TAA eingesetzt. Ebenfalls "verlustbehaftet" da man nicht nur oft Ghosting erhält sondern Bildschärfe eher abnimmt und 2160p Bild eher wie 1440-1600p wirkt ohbe künstliche Nachschärfung.

DLSS/FSR ist halt nicht nur Upscaler sondern auch Art Kantenglättung. Kann häufig besser in Spielen funktionieren als olle TAA. Sonst würde man in Test nicht von besserer Bildruhe sprechen.
Natürlich kann auch DLSS/FSR verhunzt werden.

Man geht also so oder so Kompromiss ein weil man erst mal bessere Kantenglättungsmethode finden muss die nicht noch zusätzlich viel Leistung zieht.

Dann kommt es halt darauf an wie Spiel aufgebaut ist was andere Effekte angeht. Game mit dynamischen Tag/Nachtwrchsel wird halt von RT-GI und Verschattung eher profitieren als mit vorgefertigter Lichtberechnung. Vorab es in Szenen hinzuzufügen geht halt eher nur bei gleichbleibender Beleuchtung.


Eine Komponente reicht halt nicht aus um gutes Ergebnis zu erzielen. Deswegen ist es durchaus nicht verkehrt die RT Leistung auch bei AMD zu erhöhen.
Allein weil es später Entwicklern durchaus Arbeit abnehmen kann ohne Szene zu aufwendig zu erstellen.
 
Also jeder, der mal einen Unreal Engine Editor oder eine andere Game Engine benutzt hat, weiß im Grunde, das es sowas wie "realistische" Grafik garnicht gibt. Das ist ein komplettes Kasperltheater als Baukasten und hat mit Realismis garnix zu tun. Egal wieviel Rechenleistung auf irgendwelche Effekte verschwendet wird, es ist immer ein Kasperltheater was dabei herauskommt. Alles andere ist Marketinggeblubber.
 
Also chill_eule hat erst letzte Seite ermahnt das OT hier zu unterlassen. Preisdiskussionen haben nichts mit dem Thema zu tun.

Die letzten Beiträge habe ich soeben ausgeblendet, wenn sich jetzt nicht etwas besser am Riemen gerissen wird gibts als nächstes Punkte.
 
Nur sind wir bei Spielen eben mit deutlich weniger Farbtiefe unterwegs. Die meisten Monitore mit hoher Herzzahl haben nicht mal 8bit, oder eben nur 6bit mit Farbkompensation #Taschenspielertricks.
Du darfst ruhig mit dem rechnen was du da auch selbst verwendest, jedenfalls wenn du die Realität abbilden willst und nicht nur ein Scheinargument versuchst zu erzwingen.
8 Bit pro Primärfarbe (rot, grün und blau) = 24 Bit pro Pixel. Aber danke für dein eigenes Strohmannargument deinen Diskussionsbeitrag.

Und wenn ich "mit dem rechnen würde, was ich selbst verwende", wären wir bei meinem UHD-Monitor mit 10-bit-Farbtiefe pro Primärfarbe und 120 Hz bei HDR pro Stunde bei ca. 13 Terabyte:
3840 x 2160 x 10 bit x 3 Primärfarben x 120 Bilder pro Sekunde x 3600 Sekunden = 107.495.424.000.000‬ bit =
13.436.928.000.000 Byte = 13,4 TeraByte = 12,2 TebiByte pro Stunde
 
Einspruch. Es gibt Beispiele wo den Leuten nicht einmal der Unterschied zwischen regulär und RT auffällt, nur eben mit dem Unterschied, das regulär weit weniger leistungshungrig ist.

Aktuell, nein, da etablierter als RT.

Nö, sieht man an CP2077 PT, sieht sehr künstlich, "übertrieben" aus. Realistisch ist es dann, wenn man nicht mehr sieht das es PT ist. ;-)

Grundsätzlich ja aber da sind wir noch meilenweit von HW entfernt, die das wirklich sinnvoll ersetzen kann. Genau darum geht es auch. Man soll mehr in HW investieren damit man da hinkommt, nicht in AI Workarounds, dass irgendwie jetzt schon nutzen zu können, Mehrwert fraglich.

Mangelnde HW kann man nur bedingt mit solchen AI Workarounds umgehen. Wenn du das für die Zukunft willst, dann musst du auch dafür sein, dass das Hauptaugenmerk auf HW-Innovation gelegt wird, ansonsten wird das noch sehr lange dauern.

Das schrieb nicht jemand, das ist per Definition die Definition von "verlustbehaftet"

Das geht nur wenn man alle mitnimmt und nicht nur ein paar wenige, mit propritären Lösungen, die sich die Mondpreis-GPUs überhaupt leisten kann, womit sich der Kreis zum FSR wieder schließt.

MfG
Da sind noch ein, zwei Punkte:
- am Beispiel von CP2077: Reflexionen und indirekte Beleuchtung sind in der Pathtracing-Version viel realistischer (ja, alles spiegelt! Guckt mal aufmerksam im flachen Winkel auf Betonflächen oder nasse Flächen wie sie in CP häufig zu sehen sind)
- meine Meinung ist, dass der Fokus wie jetzt (hauptsächlich wird ja die Hardwareve in großen Schritten verbessert; gleichzeitig auch die Software) okay ist

AMD hat zu Anfang auf möglichst universelle Raytracing-Einheiten gesetzt um die Rechenleistung flexibler nutzen zu können.
Die Hardware-Einheiten können sagen, ob und wo ein Strahl eine bestimmte Koordinate/Ebene trifft oder nicht.
Das ist quasi die kleinste Operationseinheit bei Pathtracing und wird Milliarden Mal pro Sekunde benötigt.
Die nächst höhere Ebene ist der Abgleich von Strahlen mit dem BVH tree also die Technik, die es erlaubt eine Strahlberechnung sehr früh abzubrechen oder zu bündeln wenn klar ist, dass grobe Hitboxen von Objekten/Flächen nicht getroffen/getroffen werden. Das möchte jetzt auch AMD einbauen.
Die nächste Ebene wäre noch das Übersetzen von Geometriedaten in BVH Daten um dynamischere Geometrien zu ermöglichen. Das Übersetzen und Laden nimmt momentan nämlich noch sehr viel Kapazität in Anspruch und verhindert sehr komplexe Szenen.

Und zum Schluss noch ein Argument, warum Pathtracing das richtige Ziel ist: Es ist die Technik, mit der seit Jahrzehnten Kinofilme und deren Spezialeffekte gemacht werden. Und die sind nunmal photorealistisch. Es ist also technisch sehr gut möglich und man muss Schritt für Schritt dahin arbeiten (wie es AMD und nVidia und Intel ja tun), da es so einen Mammut-Fortschritt nicht in zwei Jahren geben kann.
 
Da sind noch ein, zwei Punkte:
- am Beispiel von CP2077: Reflexionen und indirekte Beleuchtung sind in der Pathtracing-Version viel realistischer (ja, alles spiegelt! Guckt mal aufmerksam im flachen Winkel auf Betonflächen oder nasse Flächen wie sie in CP häufig zu sehen sind)
- meine Meinung ist, dass der Fokus wie jetzt (hauptsächlich wird ja die Hardwareve in großen Schritten verbessert; gleichzeitig auch die Software) okay ist

AMD hat zu Anfang auf möglichst universelle Raytracing-Einheiten gesetzt um die Rechenleistung flexibler nutzen zu können.
Die Hardware-Einheiten können sagen, ob und wo ein Strahl eine bestimmte Koordinate/Ebene trifft oder nicht.
Das ist quasi die kleinste Operationseinheit bei Pathtracing und wird Milliarden Mal pro Sekunde benötigt.
Die nächst höhere Ebene ist der Abgleich von Strahlen mit dem BVH tree also die Technik, die es erlaubt eine Strahlberechnung sehr früh abzubrechen oder zu bündeln wenn klar ist, dass grobe Hitboxen von Objekten/Flächen nicht getroffen/getroffen werden. Das möchte jetzt auch AMD einbauen.
Die nächste Ebene wäre noch das Übersetzen von Geometriedaten in BVH Daten um dynamischere Geometrien zu ermöglichen. Das Übersetzen und Laden nimmt momentan nämlich noch sehr viel Kapazität in Anspruch und verhindert sehr komplexe Szenen.

Und zum Schluss noch ein Argument, warum Pathtracing das richtige Ziel ist: Es ist die Technik, mit der seit Jahrzehnten Kinofilme und deren Spezialeffekte gemacht werden. Und die sind nunmal photorealistisch. Es ist also technisch sehr gut möglich und man muss Schritt für Schritt dahin arbeiten (wie es AMD und nVidia und Intel ja tun), da es so einen Mammut-Fortschritt nicht in zwei Jahren geben kann.
Als langfristiges Ziel ist das absolut der Weg wo es hingehen muss aber bedenke, im Kino hast du riesige Rechenzentren die Tage und wochenlang brauchen um die Szenen so fotorealistisch zu rendern. Das in Echtzeit hinzubekommen ist ein sehr sehr weiter Weg und man muss sich die Frage stellen ob es zu ambitioniert ist, wenn man es nur so rudimentär nutzen kann und auch dann nur mit rechnerischen Tricksereien. Zum regulären Rendering hält das teilweise kaum auf, nicht selten nur bei Standbildern und mit der Lupe. Da stellt sich eben auch die Frage nach Aufwand und Nutzen.

MfG
 
Nö, sieht man an CP2077 PT, sieht sehr künstlich, "übertrieben" aus. Realistisch ist es dann, wenn man nicht mehr sieht das es PT ist. ;-)
Das ist nicht künstlich, das ist die Realität so wie es im Real Life eben ist.
Das normale Rasterizing ist künstlich weil man hier in Form von Cubemaps und künstlichen Lichtquellen versucht den Eindruck der Realität zu vermitteln, das ist naturgemäß deutlich weniger realistisch als Real Life Bounce Effekte.
Grundsätzlich ja aber da sind wir noch meilenweit von HW entfernt, die das wirklich sinnvoll ersetzen kann. Genau darum geht es auch. Man soll mehr in HW investieren damit man da hinkommt, nicht in AI Workarounds, dass irgendwie jetzt schon nutzen zu können, Mehrwert fraglich.

Mangelnde HW kann man nur bedingt mit solchen AI Workarounds umgehen. Wenn du das für die Zukunft willst, dann musst du auch dafür sein, dass das Hauptaugenmerk auf HW-Innovation gelegt wird, ansonsten wird das noch sehr lange dauern.
Die Hardwareinnovationen der letzten Jahre sind immens gewesen, nicht nur die reine Rohleistung ist massiv gestiegen, auch innovative Hardware wie Tensor Cores für Bildbearbeitung, RT Cores für Raytracing und OPA für Bilderzeugung (https://developer.nvidia.com/docs/d...vmedia_understand/OpticalFlowAccelerator.html) sind neu.
Das sind alles Hardwareinnovationen.
Das schrieb nicht jemand, das ist per Definition die Definition von "verlustbehaftet"
Das ist doch irrelevant, wichtig ist das Endergebnis am Bildschirm.
Zum regulären Rendering hält das teilweise kaum auf, nicht selten nur bei Standbildern und mit der Lupe. Da stellt sich eben auch die Frage nach Aufwand und Nutzen.
Das ist halt wiederum Unsinn und kann nur von jemanden kommen der Spiele mit ordentlicher RT Implementierung noch nicht live gesehen hat.
Der Unterschied zur Non RT Fassung ist da immens.
 
8 Bit pro Primärfarbe (rot, grün und blau) = 24 Bit pro Pixel. Aber danke für dein eigenes Strohmannargument deinen Diskussionsbeitrag.

Und wenn ich "mit dem rechnen würde, was ich selbst verwende", wären wir bei meinem UHD-Monitor mit 10-bit-Farbtiefe pro Primärfarbe und 120 Hz bei HDR pro Stunde bei ca. 13 Terabyte:
3840 x 2160 x 10 bit x 3 Primärfarben x 120 Bilder pro Sekunde x 3600 Sekunden = 107.495.424.000.000‬ bit =
13.436.928.000.000 Byte = 13,4 TeraByte = 12,2 TebiByte pro Stunde
Exakt genau das! Wird jetzt klar warum hier nach mehr hardwareseitiger Leistung verlangt wird, statt nur nach Softwaretricks? Dass man die Leute erst aus der Reserve locken muss um sowas bildlich zu machen...

Ich bin gespannt wie schnell AMD aus diesem Patent auch etwas greifbares macht. Für gewöhnlich dauert sowas ja etwas. Wann soll die RX8000er Gen starten? Weiß man da schon näheres?
 
Zuletzt bearbeitet:
Exakt genau das! Wird jetzt klar warum hier nach mehr hardwareseitifer Leistung verlangt wird, statt nur nach Softwaretricks? Dass man die Leute erst aus der Reserve locken muss um sowas bildlich zu machen...

Ich bin gespannt wie schnell AMD aus diesem Patent auch etwas greifbares macht. Für gewöhnlich dauert sowas ja etwas. Wann soll die RX8000er Gen starten? Weiß man da schon näheres?
Na erstmal müssen sie die anderen Karten releasen ?
Wer weiß was Nvidia noch im Köcher hat.
Es wäre AMD zu wünschen wenn sie damit Erfolg haben. Konkurrenz belebt das Geschäft.
 
Ja, es wäre uns allen zu wünschen. Noch vor knapp 10 Jahren kamen die Karten von Nvidia und AMD im halbjährlichen Rhythmus. Das hat Spaß gemacht. Im Sommer hat Nvidia vorgelegt und im Winter AMD. Zudem noch zu ganz anderen Preisen. Highend für 350€ ganz normal. Zwei Jahre später waren wir dann bei 550€. Wo sind wir jetzt? Bei einer absoluten Frechheit!

Nvidia wird sich die Butter nicht vom Brot nehmen lassen, da können wir uns sicher sein. Nur wie groß der Sprung sein wird den AMD als nächstes macht, das wird richtig spannend.
 
Mittlerweile kommt die Softwareentwicklung der Hardware eh nicht hinterher. Große Games sind teils 5-6 Jahre in Entwicklung. Einfach weil Aufwand immer größer wird für jede kleine optische und spielerische Verbesserung.

Was nützt es alle 6-12 Monate neue GPU und CPU nachzuschieben?

Selbst bei Konsolen sind neue Engine und Techniken kaum mehr rechtzeitig fertig. Sind bald 3 Lebensjahr und viele Entwickler können Hardware immer noch nicht nutzen. Auch UE5 und Co werden immer später fertig. Wie willst denn da hinterherkommen?

Kann alles in riesen Resourcenverschwendung enden.

Da der Konsolenmarkt gewisse "Basis" ist kannst auch da mit PC Hardware nicht weit davonziehen. Stromaufnahmen und Abwärmen werden immer größer. Kästen und Gehäuse wachsen woe die Chipgrößen.
Passt dann auch nicht zum Rest der Wirtschaftslage auf der Welt.

Muss eher um Effizienz gehen. Spielspaß werden viele Leute eben nicht an Pixelanzahl messen. Haben Zelda auf Switch oft nicht weniger Spaß als an theoretischen 8k/RT Version von Cyberpunk.

Eher fehlen neue Spielideen die neu fesseln. Alles war gefühlt irgendwie schon da oder entwickelt sich eher zurück (NPC,Gegnerverhalten, Physik).
Bringt es oft nichts es nur mit Hardware zu erschlagen weil man es auch umsetzen muss.
Viele Games wirken generisch weil gutes Artdesign fehlt und nicht weil die Pixelschupser zu wenig Leistung haben.

Software und Hardware muss Hand in Hand gehen.

Einzig Hardwarepreise sind halt komplett überzogen. Da stimme ich zu.
 
Ja, es wäre uns allen zu wünschen. Noch vor knapp 10 Jahren kamen die Karten von Nvidia und AMD im halbjährlichen Rhythmus. Das hat Spaß gemacht. Im Sommer hat Nvidia vorgelegt und im Winter AMD. Zudem noch zu ganz anderen Preisen. Highend für 350€ ganz normal. Zwei Jahre später waren wir dann bei 550€. Wo sind wir jetzt? Bei einer absoluten Frechheit!

Nvidia wird sich die Butter nicht vom Brot nehmen lassen, da können wir uns sicher sein. Nur wie groß der Sprung sein wird den AMD als nächstes macht, das wird richtig spannend.
Exakt. Das Problem ist eigentlich auch das umlabeln, Die Mids sind jetzt die neuen Highs und die neuen Mids die damaligen Lows. Da ist man also ohne Leistungszuwachs einfach eine Preiskategorie höher gerutscht und um das zu rechtfertigen, hat man einfach mal eine neue und unnötig teure GPU geschaffen, siehe 4090, mit ihren anfänglich weit über 2000 €+.

Das ist nur noch irre und eigentlich ist es schade, dass es anscheinend noch genug user gibt, die diesen Preiswucher mitmachen. Im Verhältnis zur Mehrleistung, steht das jedenfalls schon lange nicht mehr.

MfG
 
@KuroSamurai117

Ich stimme dir größtenteils zu, allerdings nicht bei dem Punkt dass ein Zelda gebau so viel Spaß macht wie andere Games. Leider weiß ich nicht wie man diesen Stil nennt in dem das letzte Zelda erschienen ist, aber den gibt es ja auch bei anderen Spielen und das finde ich ganz scheußlich. Mich macht das total fertig. Warum statt wie bei Mario Grashalme und Pflanzen andeuten, denen aber keine Textur und tiefe geben? Dieses leere ich lass 3D wie 2D aussehen ist für mich derart schlimm, dass ich meinen Kindern, für die ich die Switch ja gekauft habe verweigere dabei zuzuschauen. Ernsthaft, ich finde das derart störend, dass ich die Handlung nicht wahrnehme, weil in mir die ganze Zeit dieser Störfaktor tobt. Das obwohl ich aus der NES Zeit komme.

Ja, Hardware und Software sollten Hand in Hand gehen. Das kostet aber Optimierungszeit. Allerdings sind so Situationen wie deine das Problem. Du möchtest was neues, was anderes. Das ist ein großer Grund, warum die Spieleschmieden selbst bewährtes nicht mehr abliefern können. Vielleicht hast du einfach schon zu viel gespielt? Wer die ganze Welt schon drei Mal gesehen hat, der freut sich auch weniger auf die nächste Urlaubsreise. Die meisten Monteure wissen was ich meine.
Da ticke ich wieder anders. Mir reicht ein klassisches UT, BF, Siedler oder sonstiges vollkommen aus, allerdings in moderner Grafik. Sprich alter Wein in neuen Schläuchen schmeckt mir ganz gut.
Exakt. Das Problem ist eigentlich auch das umlabeln, Die Mids sind jetzt die neuen Highs und die neuen Mids die damaligen Lows. Da ist man also ohne Leistungszuwachs einfach eine Preiskategorie höher gerutscht und um das zu rechtfertigen, hat man einfach mal eine neue und unnötig teure GPU geschaffen, siehe 4090, mit ihren anfänglich weit über 2000 €+.

Das ist nur noch irre und eigentlich ist es schade, dass es anscheinend noch genug user gibt, die diesen Preiswucher mitmachen. Im Verhältnis zur Mehrleistung, steht das jedenfalls schon lange nicht mehr.

MfG
Das umlabeln bei zusätzlichen preisaufschlägen. Das ist ja die größte Frechheit. Die aktuelle Mittelklasse kostet bald so viel wie noch vor kurzem die Oberklasse und hat den Chip der Einstiegsmodelle.
 
Das umlabeln bei zusätzlichen preisaufschlägen. Das ist ja die größte Frechheit. Die aktuelle Mittelklasse kostet bald so viel wie noch vor kurzem die Oberklasse und hat den Chip der Einstiegsmodelle.
Exakt und dann wird es natürlich schwierig, wenn ein Bob mit der Leistung der Oberklasse argumentiert aber bei dem Gros der User dann eher eine 4060 oder weniger zu finden ist. Klar braucht man dann DLSS und Co, um den Leistungsschwund durch das umlabeln zu kaschieren.

MfG
 
@Cleriker

Dass es genug Leute gibt mit anderen "Grafikstandard" ist klar. Mir wäre Switch 2 auch schon vor 1 Jahr lieber gewesen. Breite Masse kauft solche "Zelda" Games doch millionfach wo manches Blockbuster auf anderen Systemen nur träumen können.

Wir gaben aber nicht mal auf PS5 oder Xbix Series den Stand von optisch vesten Ganes einer Gen davor erreicht. Thirds entwicklen immer noch Spiele die unter Niveau von TLoU 2, Gears 5, RDR 2, Uncharted 4 usw liegen.
Reicht mehr Hardwarepower einfach nicht aus um es anzuheben.

Zeiten wo Games 2-3 Jahre Entwicklung gatten und an neue Hardware angepasst werden konnten oder gar weit vorraus waren sind vorbei.
Spiele die jetzt schlecht optimiert sind laufen auch in 4-5 Jahren oft nicht rund.

Was Gameplayideen angeht. Manche Indieproduktionen haben bessere Ansätze als die großen AAA "Nummer Sicher" Projekte.
Sicher hab ich nicht zu viel gespielt wenn es selbst auf Xbox 360/PS3 schon Games mit besserer KI gab als in modernen Produktionen. Auch Phsysik und Zerstörung war da alles besser umgesetzt. Wenn Zelda auf Switch bessere Physik hat als 95% der anderen Plattformen dann sieht man wo der Entwicklerfokus liegt.
Sicherlich nicht daran Wrlt glaubhafter und realistischer zu machen. Stattdessen werden Mapsgrößen immer aufgebläter mit 0815 Sammelkram.
Anstatt gute 10-15 Stunden Games zu produzieren die ganze Spiel über gut unterhalten.
 
Zuletzt bearbeitet:
Muss eher um Effizienz gehen. Spielspaß werden viele Leute eben nicht an Pixelanzahl messen. Haben Zelda auf Switch oft nicht weniger Spaß als an theoretischen 8k/RT Version von Cyberpunk.
Sehe ich im Grundsatz auch so, deswegen verstehe ich das Pixel gezähle von DF und Co nicht und warum genau das ständig in den Konsolenthreads gepostet wird, obwohl das doch angeblich nicht zählt?
Eher fehlen neue Spielideen die neu fesseln. Alles war gefühlt irgendwie schon da oder entwickelt sich eher zurück (NPC,Gegnerverhalten, Physik).
Oder du bist einfach übersättigt. ;-)
Ich denke die Idee und Konzepte gibt es schon aber es sind Risikoinvestments, wenn man so etwas im AAA Bereich "ausprobiert", viele wollen dann doch eher CoD x.xx und Fifa zocken.
Bringt es oft nichts es nur mit Hardware zu erschlagen weil man es auch umsetzen muss.
Viele Games wirken generisch weil gutes Artdesign fehlt und nicht weil die Pixelschupser zu wenig Leistung haben.

Software und Hardware muss Hand in Hand gehen.
Ähm, könnte man meinen, war in der Vergangenheit definitiv nicht so, da hat die SW die Hardware mitgezogen, so dass man quasi für jedes neue Spiel neue HW kaufen konnte.
Einzig Hardwarepreise sind halt komplett überzogen. Da stimme ich zu.
Definitiv. Gab doch kürzlich eine Vergleichstabelle bei PCGH, wo man die midgen GPUs von Nvidia gegenübergestellt hat, wo fast alle relevanten Daten von gen zu gen gedowngraded wurden aber die Preise zogen an.

MfG
 
Deshalb ist es ja wichtig dass AMD aus diesem Patent auch was gutes heraus holt. Besser gestern als heute. Zwar sind mir so viele shader dass selbst RT vernünftig laufen würde immer noch am liebsten, aber wenn es hilft Nvidia einzuholen, dann her damit. Denn erst wenn beide wieder auf ähnlichem Level sind, gibt's für uns die besten Preise und die Entwickler brauchen sich nicht entscheiden wie sie ihr Spiel auslegen wollen. Sprich, es geht in allen Belangen voran.
 
Deshalb ist es ja wichtig dass AMD aus diesem Patent auch was gutes heraus holt. Besser gestern als heute. Zwar sind mir so viele shader dass selbst RT vernünftig laufen würde immer noch am liebsten, aber wenn es hilft Nvidia einzuholen, dann her damit. Denn erst wenn beide wieder auf ähnlichem Level sind, gibt's für uns die besten Preise und die Entwickler brauchen sich nicht entscheiden wie sie ihr Spiel auslegen wollen. Sprich, es geht in allen Belangen voran.
Ja ich sehe das aber auch kritisch, weil man viel Zeit und Geld in RT Beschleunigung investiert und den Nutzen finde ich bis jetzt noch nicht so überragend. Cyberpunk beispielsweise sieht für mich sehr unrealistisch, comic-haft aus. Technisch zwar durchaus beeindruckend aber wenn ich mir anschaue was man dafür investieren muss um es in der Form genießen zu können steht für mich Aufwand und Nutzen in keinem Verhältnis. Dann lieber deutlich mehr Rohleistung für alle Spiele und RT erst dann, wenn es die Hardware gescheit darstellen kann, ohne Kompromisse und Einschnitte.

MfG
 
Zurück