Minecraft RTX... - Das sagen die PCGH-Redakteure dazu

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Minecraft RTX... - Das sagen die PCGH-Redakteure dazu

Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die wirklich persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "Minecraft RTX..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Minecraft RTX... - Das sagen die PCGH-Redakteure dazu
 
Wenn endlich eine 3070/3080 in meinem geplanten PC werkelt (oder eben etwas halbwegs Äquivalentes von AMD), wird die Raytracing-Power gegenüber Turing sicher noch mal ein gutes Stück zulegen. Fände es dann großartig, Klassiker wie Half-Life, Unreal, Mafia, Jedi Knight oder Gothic 2 mit dieser Technik noch einmal genießen zu können - auch wenn das vermutlich ein Traum bleiben wird ...
 
Also ich war immer Raytracing gegenüber skeptisch, aber die Minecraftdemo von Digital Foundry hat mich überzeugt, dass es die Zukunft ist. Was da allesmöglich ist, das haut mich echt um. Gleichzeitig ist aber die Leistung noch lange nicht da. So schön die Effekte sind, das temporale Aliasing ist furchtbar und nicht auszuhalten. Wenn ein Schatten einfach mehrere Frames zum verschwinden braucht dann ist die Technik noch nicht so weit.

Trotzdem, für Spiele mit recht statischen Lichtquellen wie Minecraft im Creative Mode sicher ideal. Jetzt können Künstler darin wunderschöne gothische Kirchen bauen die jeden echten Kirchenbauer der Vergangenheit vor Neid erblassen lassen würde.
 
Erst mal: Interessant zu lesen, dass manche Themen unter den Redakteuren doch sehr unterschiedliche Meinungen hervorbringen.
Kommt ehrlich rüber. Also Lob an alle Beteiligten. :daumen:

Ohne jemand für seine Vorlieben, oder Abneigungen zu kritisieren, warum auch ? , denn es sind ja Meinungen, geb' ich nur kurz meinen Senf dazu. :D

Minecraft ist erst mal nix für mich. Solche Spiele würde ich im shop gleich weiterklicken, da diese Klötzchengrafik einfach nicht mein Geschmack ist.
Zudem kritisiere und boykottiere ich gern mal bestimmte Sachen, wie den Microsoft shop, oder Nvidia's Turing, wo ich mir lieber mehr Grundleistung bei faireren Preisen, anstatt Demofähigkeiten für RT gewünscht hätte.
Dementsprechend hab ich auch damals lieber zu einer gebrauchten 1080ti, als zu einer 2080/ti gegriffen.

Dennoch hab ich mich etwas mit Minecraft RTX beschäftigt, einfach weil ich neugierig bin, was mit der Technik da geht und ich muss sagen: ich find's spannend.
Für mich sieht dieses Spiel inkl. RT(bzw. pathtracing) wie ein anderes Spiel aus und zwar als Lob gemeint.
Ohne Lichteffekte sieht es wie ein altes Bild aus, was zu Leben erweckt wird, so bald man "das Licht anknipst".
Finde den Unterschied schon erstaunlich und in Details auch spannend, was man mit den Lichteffekten machen kann.
Auch wie sich Farb- und indirekte Lichteffekte auswirken, finde ich schon echt toll.
Respekt!

Bisher hat das für mich alles zwar noch "Demo-Charakter", da es in meinen Spielen aktuell noch keine Auswirkungen hat und die bisher überzeugenden AAA Titel inkl. RT recht überschaubar bleiben, aber trotzdem stehe ich der Technik an sich positiv gegenüber, auch wenn man bestimmte andere Dinge natürlich kritisieren kann und sollte.

Für mich stellt sich die Frage, ob Nvidia es für eine größere Zielgruppe schafft, bezahlbare GPUs mit fairem Preis und ausreichend Speichermenge zu liefern, damit RT sich auch abseits der Topzahler(Enthusiasten) weiter verbreitet.

Wie wird es z.B. mit der RT-Leistungsfähigkeit von einer möglichen RTX 3060/70 aussehen ?

Wird eine mögliche 3080 alle Voraussetzungen mitbringen, die Karte auch inkl. RT sagen wir zumindest 5 Jahre zu nutzen ?
Und klappt einem beim Preis nicht gleich die Kinnlade runter ? ;)

Fragen, an die ich auch denke, wenn ich mir die Möglichkeiten der Lichteffekte anhand eines aufgehübschten Klötzchenspiels ansehe. :) Denn was nützen Möglichkeiten, wenn sie sich nicht weit in Spielen verbreiten und auch von vielen genutzt werden können ?

Mal sehr gespannt, wie es ab 2021 mit RT weitergeht, in Spielen die dann damit kommen werden und neuen GPUs dafür. :)
 
So unterschiedlich und interessant die jeweiligen Blickwinkel der Redakteure auch sind, manchmal irritieren einen Betrachter wie mich die dann doch die sehr technik-aversen Einstellungen. Man muss Minecraft per se nicht mögen oder mit dem Spielprinzip warm werden (wie auch ich), denn es ging ja um die Sache der RTX Aufwertung für ein älteres Spiel. Da laut euren Artikeln Raytracing ja gekommen ist um zu bleiben, kann man der weiteren Verbreitung trotz aller Widrigkeiten wie Bugs zu Beginn doch nur positiv gegenüber stehen. Selbst die Tatsache, dass man ggf. die erforderliche Grafikkarte nicht sein Eigen nennt tut doch der ganzen Sache dennoch keinen Abbruch, denn wie aus allem lernt man für später dazu in einer Zeit, wo ich dann vielleicht doch Raytracing nutzen kann, egal ob über AMD oder Nvidia :huh:

Ich zum Beispiel fänd die Beleuchtung auch in eher langsamen Spielen wie Life is Strange wahnsinnig interessant!
 
Phil@PCGH schrieb:
Zu letzeren zählt auch der hohe Grafikspeicherbedarf mit zugeschaltetem RTX, der mich darüber nachgrübeln lässt, ob die Entwickler eventuell die gesamte Voxelstruktur im Grafikspeicher ablegen mussten, um mit dieser dann das Raytracing berechnen zu können. So eine Voxelstruktur braucht viel Speicher, grade wenn sie wie in Minecraft dynamisch ausfallen muss. In dieser Hinsicht ist Minecraft eventuell gar nicht so ein gutes Beispiel für Path-Tracing.
Minecraft speichert Chunks schon im Voraus, weil es sonst zu starken Nachladeruckeln kommen würde. Das Pathtracing und das DLSS-Guided wurde von der KIT (UNI) übernommen (Studentenentwicklung unter Pratika von Christop Scheid bei Nv, siehe Q2VKPT), wobei man sich dort für ein Frameratenziel entscheid (60fps) und Microsoft/Majong eher die Sichtweite einschränkt (soweit ich weiß auf Wunsch von Nv, lange Balken halt...). Ich glaube das es in dem Fall keine gute Entscheidung war. Minecraft würde wohl auch mit 30fps zurechtkommen, was die Sichtweite klar anheben würde oder sogar höhere Ausgangsauflösungen ermöglichen könnte, was "Minecraft RTX im Nebel" wohl etwas mehr kaschieren könnte. Natürlich braucht auch der Chunksupdate inklusive DLSS Rekonstruktionsfilter Platz und Minecraft war was den Speicherbedarf bei entsprechender Sichtweite angeht, schon immer eine Speicherschla*pe. Mit der Voxelstructur (Mesh) hat das nichts zu tun. Die kostet nur wenig.

Letztlich muss man sich fragen, ob die aufwendige Optimierungsarbeit bis ins Detail und das "tot-treibern", den RT-Impact wirklich abfangen kann. Man verliert bisher was man sich die letzten Jahre an visuellem "Luxus" angeschafft hat. Wenn man nicht mit mehr kommt, ist die Manpower und der zeitliche Ansatz für lauffähige Entwicklungen auf jeden Fall zu hinterfragen, letztlich kostet es Geld. 2 Jahre gehen nun ins Land, ohne wirklich messbare Ergebnisse für das, was man ursprünglich angekündigt hat.
 
Das ist derzeit (noch) ein Problem der implementierung bei Minecraft, in keinster weise aber Raytracing-inheränt. Das Problem ist da das wirklich alles über Pathtracing abgebildet wird und um da eine gute Leistung zu bekommen die Information über mehrere frames aufgebaut wird. Das führt natürlich dazu das wenn sich etwas ändert es noch keine vorherige Information und so von 0 angefangen werden muss.
Ist gibt da einige sehr einfache möglichkeiten das zu umgehen, zB alle beweglichen Objekte "ignorieren" - wenn ein Strahl auf sie trifft als zusatz den Strahl auch durch das Objekt durch schicken und die Hintergrund-Info Speichern damit, falls das Objekt "verschwindet", schon reichlich Information vorhanden ist. Das würde aber auch dazu führen das der Speicherbedarf nochmal steigt (und genau da haben sie derzeit das größte Problem) und die Leistung mit mehr beweglichen Objekten sinkt. Es gibt natürlich auch andere möglichkeiten, da werden sicher noch Kompromisse gemacht.

Das mit dem erhöhten Speicherbedarf ist eigentlich gar kein Problem. Von nichts kommt eben nichts. Ich würde die Schuld daher auf Nvidia schieben, denn da herrscht seit Jahren Speicherstagnation. Man hat eine zukunftsgerichtete GPU mit der Speicherkapazität der Vergangenheit in den Markt entlassen und seitdem nicht refreshed. Ganz ehrlich, langsam werde sogar ich müde, das ständig sagen zu müssen. Es braucht dringend neue GPUs (ohne RAM-Knauserei)! :-)

MfG
Raff
 
Also Ich kann ja mal schildern wie die Rezeption so in der Shader-Developer-Community der Java Edition ist, nämlich überwiegend negativ. Sowohl technisch als auch visuell gibt es vielerlei Probleme oder schlechte Design-Entscheidungen, weswegen viele von uns Devs eine solche Fassung nicht mal im Traum als "Beta" bezeichnen würden.
Kurze Auflistung von einigen Dingen die wir so festgestellt haben:
- stark begrenzte Sichtweite um Performance Probleme zu kaschieren (8 Chunks sind nichts, bei uns sind die meisten erst mit 12 Chunks aufwärts unterwegs und das bei deutlich besserer Performance)
- offenbar wurde eine "Tonemap" vergessen was in vielen Situationen zu extremem Clipping führt :lol:
- allgemein überaus schlechte Performance für in Hardware beschleunigtes RT, in vielen Fällen sind unsere Software Implementierungen auf der Java Edition mindestens gleichauf oder deutlich schneller und liefern gleichzeitig bessere Resultate ab, selbst im Alpha Status mit wenigen Monaten Entwicklungszeit (siehe Continuum RT)
- brauchbare Performance scheint komplett von DLSS abhängig zu sein, was obriges nochmals verdeutlicht
- auffällig schlechte Effekt-Implementierungen wie bei den Godrays bzw. dem Volumetric Lighting
- teils sehr auffällige Accumulation und Filtering Artifakte und Ghosting, nach einem Jahr Entwicklungszeit eigentlich inakzeptabel

Die Liste wird mir jetzt zu lang aber wer die Diskussion verfolgen will (ja die hält immer noch an), siehe einfach den shaderLABS Discord Server (=> shaderLABS ). Da gibt es das ganze in Gänze und von Leuten mit der notwendigen Expertiese um das Ganze zu beurteilen. Zusammengefasst, sowohl bei RT Shaderpacks als auch Rasterized Packs sind die Shaderpacks der Java Edition trotz deutlich beschränkterer Rendering-Pipeline einfach schlichtweg das bessere Paket ab. Selbst viele Non-RT Packs lassen den RTX Patch sehr schlecht aussehen, was vermutlich auch auf den überaus eigenartigen Visual-Style von diesem zurückzuführen ist.
 
Zuletzt bearbeitet:
Das mit dem erhöhten Speicherbedarf ist eigentlich gar kein Problem. Von nichts kommt eben nichts. Ich würde die Schuld daher auf Nvidia schieben, denn da herrscht seit Jahren Speicherstagnation. Man hat eine zukunftsgerichtete GPU mit der Speicherkapazität der Vergangenheit in den Markt entlassen und seitdem nicht refreshed. Ganz ehrlich, langsam werde sogar ich müde, das ständig sagen zu müssen. Es braucht dringend neue GPUs (ohne RAM-Knauserei)! :-)

MfG
Raff
Da bin ich auch echt mal gespannt, was die 3080 uns bescheren wird und ob man sich da mit 10 GB auf das gerade so Nötigste beschränken oder 12 oder gar 16 GB spendieren wird (wobei ich mir persönlich mehr als 12 nicht vorstellen kann). Angesichts der Aussicht, dass die 3080 ein weiteres gutes Stück näher an die 1000 Euro-Preismarke rücken könnte als es die 2080(S) bereits tat, wäre fortgesetzter Speichergeiz hier schon eine ziemliche Frechheit.
 
Das mit dem erhöhten Speicherbedarf ist eigentlich gar kein Problem. Von nichts kommt eben nichts. Ich würde die Schuld daher auf Nvidia schieben, denn da herrscht seit Jahren Speicherstagnation.
Das kannst du ihnen gerne schreiben, auf die Antwort bin ich gespannt.

Man hat mit Eingrenzung von Godrays innerhalb der Geometrie versucht, lediglich primäre und secundäre Rays zuzulassen, beim Pathtracing würden bei der Bündelung sonst sogar tertiäre entstehen. Es wäre ziemlich einfach gewesen, statt kürzerer Frametimes die Berechnungszeiten pro Frame zu erhöhen und dafür weniger Daten im VRAM zu halten. So sind 8GiB bei Qualitätspresets klar zu wenig. Nv geht es wohl vor allem um DLSS v2.0, nur in dem Fall fehlt dann tatsächlich die schnelle Anbindung von mehr Speicher.

Man schafft sich seinen Bottlenecks dann selbst.
 
Also Ich kann ja mal schildern wie die Rezeption so in der Shader-Developer-Community der Java Edition ist, nämlich überwiegend negativ. Sowohl technisch als auch visuell gibt es vielerlei Probleme oder schlechte Design-Entscheidungen, weswegen viele von uns Devs eine solche Fassung nicht mal im Traum als "Beta" bezeichnen würden.
Kurze Auflistung von einigen Dingen die wir so festgestellt haben:
- stark begrenzte Sichtweite um Performance Probleme zu kaschieren (8 Chunks sind nichts, bei uns sind die meisten erst mit 12 Chunks aufwärts unterwegs und das bei deutlich besserer Performance)
- offenbar wurde eine "Tonemap" vergessen was in vielen Situationen zu extremem Clipping führt :lol:
- allgemein überaus schlechte Performance für in Hardware beschleunigtes RT, in vielen Fällen sind unsere Software Implementierungen auf der Java Edition mindestens gleichauf oder deutlich schneller und liefern gleichzeitig bessere Resultate ab, selbst im Alpha Status mit wenigen Monaten Entwicklungszeit (siehe Continuum RT)
- brauchbare Performance scheint komplett von DLSS abhängig zu sein, was obriges nochmals verdeutlicht
- auffällig schlechte Effekt-Implementierungen wie bei den Godrays bzw. dem Volumetric Lighting
- teils sehr auffällige Accumulation und Filtering Artifakte und Ghosting, nach einem Jahr Entwicklungszeit eigentlich Inakzeptabel

Die Liste wird mir jetzt zu lang aber wer die Diskussion verfolgen will (ja die hält immer noch an), siehe einfach den shaderLABS Discord Server (=> shaderLABS ). Da gibt es das ganze in Gänze und von Leuten mit der Notwendigen Expertiese um das Ganze zu beurteilen. Zusammengefasst, sowohl bei RT Shaderpacks als auch Rasterized Packs sind die Shaderpacks der Java Edition trotz deutlich beschränkterer Rendering-Pipeline einfach schlichtweg das bessere Paket ab. Selbst viele Non-RT Packs lassen den RTX Patch sehr schlecht aussehen, was vermutlich auch auf den überaus eigenartigen Visual-Style von diesem zurückzuführen ist.
Und jetzt schnell abmelden. 4 Wochen nicht mehr auf PCGH im Forum blicken lassen und diesen Thread nie wieder einsehen. Ich hole schon mal einen Kaffee, auf die "Fr*akshow bin ich gespannt.:D
 
Und jetzt schnell abmelden. 4 Wochen nicht mehr auf PCGH im Forum blicken lassen und diesen Thread nie wieder einsehen. Ich hole schon mal einen Kaffee, auf die "Fr*akshow bin ich gespannt.:D

Solange das hier nicht wie auf den nVidia Subreddit wird wo offenbar alle kritischen Posts zum RTX Patch gelöscht werden :ugly:
 
"Minecraft RTX... ist die perfekte Kombination: Ein Spiel, das mich nicht interessiert, von einer Vertriebsplattform, die ich boykottiere, bringt ein Feature, das ich vorerst als nutzlos erachte, für ein Betriebssystem, das ich nicht nutze und GPUs, die ich nicht besitze. Da passt doch einfach alles. :) Rein technisch bestätigt es nebenbei meine Ablehnung von Raytraycing, in dem es eine reichlich antiquierte Optik mit exorbitantem Hardware-Hunger kombiniert. Klar, einige der erzielten Effekte ließen sich ohne Raytraycing nur mit noch größerem Aufwand realisieren, aber für mich zählt am Ende das Gesamtergebnis und da haben reine Rasterizer schon zehnmal Ansehnlicheres bei einem Zehntel der Hardware-Anforderungen auf den Bildschirm gezaubert. [Quelle: PC Games Hardware]"

Beste Meinung die ich gelesen habe und ihr auch zustimme.

Vor ein paar Wochen war ich zwar überrascht wie gut Minecraft aussah bei einer Demo für die XSX aber mir ist Leistung auch wichtiger als diese Lichteffekte die sogar eine 1200€-GPU in die Knie zwingen. Da mag ich dann lieber HDR beim Fernsehen und der Konsole. Bin da echt mal gespannt auf die ersten Tests der PS5 und der XSX ;-)
 
Solange das hier nicht wie auf den nVidia Subreddit wird wo offenbar alle kritischen Posts zum RTX Patch gelöscht werden :ugly:
Wer, wenn nicht Nv selbst lebt GPP? Negative Berichterstattung unerwünscht, für die nächsten 5 Jahre. Epic setzt es doch wunderbar um.

Was wir nicht vergesssen sollten bei all der Euphorie oder dem Frust ist, dass es eine Beta ist, also mir spielt der Treiber auf dem Laptop ein Schnäppchen, vermutlich weil das Teil nur OEM schluckt (Omen 17 v. HP). Aber letztlich will man so mehr Aufmerksamkeit und deine Mithilfe, die Beweggründe sind erstmal nicht die schlechtesten. Ob man für Nv buffen will wieder eine ganz andere Frage. Gibt ja genug die das wollen.
 
Solange das hier nicht wie auf den nVidia Subreddit wird wo offenbar alle kritischen Posts zum RTX Patch gelöscht werden :ugly:
Ist halt wie überall im Leben. Der Ton macht die Musik.
Wenn sich ein Post halt nur dahin erstreckt, dass alles Gülle, unnötig, schlecht und was weiss ich noch ist, dann hat das mit konstruktiver Kritik (die immer und überall gerne gesehen ist) halt einfach nichts zu tun.

Ansonsten war von anfang an klar, dass das Projekt von der Modding- Klientel mit Argusaugen verfolgt wird und auch klar, dass es, dadurch dass es in Konkurrenz zu so einigen (auch shader-) Errungenschaften tritt, den üblichen Weg des wie man es in der Bundeswehr nannte "Fuchses" (damit ist nicht der Panzer gemeint), gehen muss.

Ansonsten spiegelt die Meinung der Redaktion sehr schön die Fülle an unterschiedlichen Sichtweisen auf das Thema wider. Denn den meisten Leuten ist das Thema Grafik schlichtweg egal.
Grafik ist einfach da und wird immer besser und alles wird immer performanter dargestellt, so der Tenor.

Durch welche Techniken, Errungenschaften etc. dies erreicht wird, ist für 99% der Spieler völlig irrelevant. Auch ist man ja mit der Implementation noch keineswegs am Ende des Weges.

LG
Zero
 
[...] die Beweggründe sind erstmal nicht die schlechtesten [...]
Mein konkreter Beweggrund ist tatsächlich zu zeigen dass das nicht so ein riesen Wunderwerk ist wie nVidias Marketing das anpreist und dass es eben selbst für Beta-Standards (zumindest bei uns) dann doch ein relativ schlechtes Resultat ist (insbesondere wenn man die Entwicklungszeit beachtet). Bei uns in der Community hat sich inzwischen schon sehr viel Frust über nVidias Marketing und all den implizierten Falschinformationen die dort so verbreitet werden aufgestaut (à la für "echtes Raytracing" braucht man RTX usw.). Viele Leute haben eben nicht so ein tiefes technisches verständnis (was an sich ja auch nicht schlimm ist) und nVidia scheint das besonders bei der RTX Kampange für sich ausnutzen zu wollen. So ziemlich seit Turing gelauncht würde müssen wir regelmäßig Leute darüber aufklären das es Raytracing schon vor RTX gab u.Ä.. Die meisten verstehen das und wie sie vom Marketing in die Irre geleitet wurden und dann gibt es noch die paar anstrengenden Gesellen die das nicht wahrhaben wollen, fröhlich Falschinformationen verbreiten und Leute mit Jahren an Erfahrung und Fachwissen in dem Bereich belehren wollen :lol:.
 
Durch welche Techniken, Errungenschaften etc. dies erreicht wird, ist für 99% der Spieler völlig irrelevant. Auch ist man ja mit der Implementation noch keineswegs am Ende
Muss sich Nv mit den "Errungenschaften der Zeit vor RT" vergleichen. Ja das müssen sie, weil sonst RT für eine Ausrede herhält.

Frage: Siehst du hier echte Reflektionen und Spielgelungen in Realtime? Ja.
Frage: Sehen sie "naturgetreu" aus. Ja.
Frage: Auf welcher Basis? Non RTX.

Das ist also die Messlatte! Da muss man Thorsten einfach Recht geben. Eigentlich ist für Neuerungen, wie man immer mal lesen kann, in dem Fall geht es ihm wohl um die gesamte Community. Er spricht es immer direkt aus, auch wenns einem nicht immer passt, bei wenig Gehype und Euphorie, ziemlich nüchtern.

Bild "teso_1lxjx3.jpg" anzeigen.

https://abload.de/img/teso_2h0k0k.jpg

Wie du wahrscheinlich siehst, ist das Teso online, Auszug aus einem UHD@60fps Frame, auf einer schnöden 250 Euro Karte und einer "Uralt-Engine".

Frage: Beides (RT/SSR) braucht also Aufwand bei der Optimierung? Ja.
Frage: Beides braucht RT Hardware? Nein!

Speicherbedarf und @UHD nativ: 3,8 GiB!!!! VRAM und 8 GiB RAM. CPU mit vier Kernen, wobei zwei nur angesprochen werden.
 
Zuletzt bearbeitet von einem Moderator:
Die Technik von Raytracing toll, in einem eher Casualgame aber fehl am Platz, weil der typische Minecraftspieler keine 2080ti hat und der typische 2080ti Besitzer kein Minecraft suchtet. So ist es halt ne nette Techdemo.
 
(ohne RAM-Knauserei)! :-)

Ich weiß jedenfalls das ich 100%tig keine 3080 mit nur 8 GB kaufen werde. :nene: :daumen2:
Die könnten sie sehr gern behalten, so interessant ich die neue Technik auch finde.

Eine 3080Ti will ich mir nicht leisten, falls wie zu erwarten über 1000€.
Dann muss ich eben weiter warten, mit meiner gebrauchten 1080Ti, oder doch mal Richtung AMD schielen, falls die ihren Sprüchen endlich mal Taten folgen lassen, von wegen Highend Gamer-GPU.
Shice auf G-sync.
 
Zurück