Intel Xe: Hinweise auf Raytracing-Support

Zeig mal bitte, wer hier im Thread soetwas gesagt hat "RT ist heute schon überall und super nutzbar"!


Vermutlich bezieht er sich auf mich und die Äußerung:
Sorry aber DAS hat mit der Realität gar nichts zu tun. Zwischen nutzbar, performant oder nicht nutzbar liegt dann doch ein gewaltiger Unterschied.

Was daraus gemacht wird, ist allerfeinste Diskussionskultur. Dass man sich da noch wundert, Gegenwind zu erfahren ist schon lustig.
 
War das n Trend ?
Der aktuelle Trend heißt wohl eher WQHD.
Kommt auf die Zielgruppe an, der große Mob hat wahrscheinlich weder von 4K noch von RT was gehört. Da gehts ja schon eher um die (/uns) Nerds.

Der 4K-Trend war schon da aber kam nie wirklich in Fahrt einfach weils die Hardware nicht gab und/oder extrem teuer war (mein 4K-TFT aus 2014 wo das Trend war kostete 1600€ oder sowas und ne Grafikkarte die flüssig 4K konnte gabs damals nicht wirklich, heute gehts ja einigermaßen wenn man ne 2080(Ti) nutzt).

Aktuell würde ich als "Trend" eher highFPS-Gaming sehen, die 144Hz-TFTs sind ja wie Pilze aus dem Boden geschossen, 240er und gar 480er kommen ja schon nach ("Trendkombination" mit 4K noch unbezahlbar, deswegen kommt WQHD^^).

RT hat denkie ich zumindest aktuell noch keinen echten Trendcharakter, dafür gibts halt zu wenig davon und die Verbreitung ist nahe Null. Wenn die NextGen-Konsolen kommen und da RT genutzt wird bei abertausenden leuten UND die Effekte dann auch noch einen echten Mehrwert bieten und passabel laufen dann könnte es wirklich zum Trend kommen.
 
omega™;10184765 schrieb:
Nichtsdestotrotz kann ich als Besitzer eines 4K Monitors die Regler bedienen und bei Bedarf die Auflösung ändern.

Das stimmt natürlich.

Bis RT mal wirklich sinnvoll und breit umgesetzt wird vergehen noch locker 5 Jahre aber man wäre ja blöd die Kuh nicht jetzt schon zu melken.

Wann sollen denn early adopter und Enthusiasten aufspringen, wenn es in 5 Jahren sinnvoll und breit umgesetzt ist ?
Müsste doch langsam mal der Fall sein. Zumindest jetzt mit der kommenden Gen, von AMD, Nvidia. Bei Intel ... mal schaun, was da wie kommt.

Kommt auf die Zielgruppe an, der große Mob hat wahrscheinlich weder von 4K noch von RT was gehört. Da gehts ja schon eher um die (/uns) Nerds.

Ja, stimmt schon.
 
Also wenn ich Schaffe/Poly/hardwarehighländer so lese, ich such jetzt keinen Raus ist jedes Spiel das RT Unterstützt auch mit einer 2060 ohne Probleme performant nutzbar, so verstehe ich Ihn

Das sagt er meiner Meinung nach nicht. Vielmehr ist es so, das er sich an der seiner Meinung nach, wie auch meiner Meinung nach zu scharfen Kritik daran. Ich glaube für viele ist es auch ein Nvidia Bashing, gegen RT zu wettern. Ist jetzt nichtngsläufig auf diesen Thread bezogen.

RT kostet viel Leistung und wird auch noch in begrenzten Umfang verwendet, aber so fängt es eben an. Ist der normale Lauf der Dinge!

Aber stand heute, sieht RT in den 3 bis x Spielen einfach schon gut aus.

Ich persönlich gehöre auch eher zu denen, die lieber mit RT spielen, als in 4k. Das gibt mir mehr an Grafikqualität. Klar am besten wäre die Wollmilchsau die Eier legt. So 4K 144Fps mit mehr RT ;)

Bei RT sehe ich in erster Linie mal wieder etwas das die Qualität abseits von Auflösung und Bildwiderholrate verbessert.

omega™;10184750 schrieb:
Wenn man jetzt nicht gerade die Leistung anhand von 5 Spielen betrachtet mag das stimmen. Nimmt man jedoch deutlich mehr als 5 Spiele als Vergleichswert heran, dann stimmt das nicht mehr so ganz. Dann ist die RX 5700 XT vom Preis-Leistungs-Verhältnis her klar der Gewinner.

Nein, flasches Thema angeschnitten ;)
Spaß bei Seite.

Ich würde mir eher eine 2070S für 500 Euro kaufen, als eine 5700XT und das obwohl ich wohl nahezu alle Benchs kenne. Das auch nicht weil ich pro Nvidia wäre. Aber Nvidia momentan einfach mir mehr bietet. Auch Leistung, bei der 2070S. Aber das hängt Tatsache sehr an der Spielauswahl. So gibt es sogar Spiele bei denen die 570=XT an der 2080 kratzt, wobei es anders herum auch SPiele gibt, da kann die 5700XT sich nicht mal von einer 2060S absetzen.

Der Durchschnitt sagt 2070S. (natürlich nur meinen Informationen zufolge) ;)
 
Wann sollen denn early adopter und Enthusiasten aufspringen, wenn es in 5 Jahren sinnvoll und breit umgesetzt ist ?
...die sind doch schon drauf? :schief:

Vermutlich bezieht er sich auf mich und die Äußerung:
Was daraus gemacht wird, ist allerfeinste Diskussionskultur.

Mir unterstellen dass ich mich auf irgendwas völlig anderes beziehen würde ist natürlich die weitaus bessere Diskussionskultur. :fresse:
 
Lies meinen Beitrag (und augenscheinlich nicht nur meinen) doch noch ein paar mal langsam und aufmerksam durch, damit du ihn auch gänzlich verstehst, bevor du wieder Dinge sagst die einfach keinen Sinn ergeben.

Für mich ergibt dein Beitrag halt eben wenig Sinn, weil ob du in 4K oder UHD spielen kannst, schlicht und ergreifend davon abhängt, wieviel die GPU für andere Dinge außer purer Auflösung schon am Rackern ist.
Also stelle die Details runter und ziehe dafür die Auflösung hoch, wenn dir das lieber ist, so ists schon immer gewesen und so wird es auch immer sein, egal ob nun DXR RT dazukommt oder nicht.
Das ist im Endeffekt auch nichts anderes als die bisherigen Features die nach und nach dazugekommen sind und sich dann unabhängig von der Auflösung durchgesetzt haben.
Das Ergebnis ist letztendlich ein Kompromiss und wird auch immer ein Kompromiss bleiben.
Man kann nicht alles auf einmal haben - das ist unmöglich.

Oder rechnen die RT-Recheneinheiten dann für die klassischen Renderer, wenn man Raytracing ausschaltet? Nein?

Natürlich nicht, tun viele andere Bestandteile einer GPU allerdings auch nicht, wie zum Beispiel zusätzliche Logik die FP64 ermöglicht.

Dann kosten diese Einheiten in dem Moment Fläche die nicht genutzt wird, bzw. die man anders für klassischen Rechenwerke hätte verwenden können. Jetzt verstanden?

Habe ich doch überhaupt nicht bestritten.
 
...die sind doch schon drauf? :schief:

Naja, bei einer eventuellen 3080 könnte ich mir vorstellen, dass das RT, was gerade so in Entwicklung ist, in Spielen und bald kommt(Cyberpunk und co.), da in WQHD schon ganz gut läuft, ohne die Auflösung reduzieren zu müssen.
Ich glaub so Sachen wie DLSS sind eigentlich eher für 4k erfunden worden, da dort sonst gar nix gehen würde, Richtung RT(edit: will ja nicht jeder 1000+ € für ne GPU ausgeben).

Mal schaun, was die nähere Zukunft Richtung Ende 2020/Anfang 21 so bringt. :)
 
Wenn Minecraft vollständig und zu 100% mit Raytracing berechnet wird, ist es dann schon "Fotorealismus"? Was macht Fotorealismus denn überhaupt aus?

Im Gegenteil, Fotorealismus ist von so vielen Dingen abhängig, da ist die Raytracing-Beleuchtung noch nicht mal auf dem ersten (oder zweiten, ... oder 5ten) Platz. Und was manche User (du bist jetzt nicht gemeint) auch nicht verstehen: Für hohe Auflösungen (4k, 8k) brauch man nicht mal einen Monitor mit einer ebenso hohen nativen Auflösung. Stichwort Downsampling. Aber manche feiern ja stattdessen eher RTX mit Upsampling.

Um zu deinem "Fotorealismus" zurück zu kommen: Das wollen wir doch alle. Warum? Genau, Immersion. Genau deswegen hätte ich aktuell lieber höher aufgelöste Texturen (= Grafikkarten mit mehr VRAM), weil deren Einfluss auf die Immersion sehr viel größer ist (und es im Gegenzug auch noch kaum Leistung kostet). Ich hätte gerne die Rechenleistung für [interne] höhere Auflösungen, weil das "Kantengekrissel" (bzw. Kanten allgemein) die Immersion sehr stört. Immer und überall, ob Licht oder Schatten. Das sind Dinge die das Auge und das Gehirn sofort als "Störung" bzw. negativen/positiven Faktor wahrnimmt - annähernd in allen Situationen.

;))

Frag Schaffe, der behauptet ja Upsapling schaut besser aus als wenn es nativ dargestellt wird...

100% Zustimmung mit dem GPU Speicher, ich glaube auch, das wir davon mehr hätten wenn der GPU Speicher nicht so extrem knapp bemessen wäre
 
Ich sehe diese Sichtweise als einen Denkfehler.

Erstmal: "Seltsame" Beleuchtung gibt es vielleicht hier und da, ist aber keine systembedingte Voraussetzung für "Non-Raytracing".

Wenn Minecraft vollständig und zu 100% mit Raytracing berechnet wird, ist es dann schon "Fotorealismus"? Was macht Fotorealismus denn überhaupt aus?

Im Gegenteil, Fotorealismus ist von so vielen Dingen abhängig, da ist die Raytracing-Beleuchtung noch nicht mal auf dem ersten (oder zweiten, ... oder 5ten) Platz. Und was manche User (du bist jetzt nicht gemeint) auch nicht verstehen: Für hohe Auflösungen (4k, 8k) brauch man nicht mal einen Monitor mit einer ebenso hohen nativen Auflösung. Stichwort Downsampling. Aber manche feiern ja stattdessen eher RTX mit Upsampling.

Um zu deinem "Fotorealismus" zurück zu kommen: Das wollen wir doch alle. Warum? Genau, Immersion. Genau deswegen hätte ich aktuell lieber höher aufgelöste Texturen (= Grafikkarten mit mehr VRAM), weil deren Einfluss auf die Immersion sehr viel größer ist (und es im Gegenzug auch noch kaum Leistung kostet). Ich hätte gerne die Rechenleistung für [interne] höhere Auflösungen, weil das "Kantengekrissel" (bzw. Kanten allgemein) die Immersion sehr stört. Immer und überall, ob Licht oder Schatten. Das sind Dinge die das Auge und das Gehirn sofort als "Störung" bzw. negativen/positiven Faktor wahrnimmt - annähernd in allen Situationen.

Raytracing hinegen fällt idR erst sekundär auf. Und hier kann ein gutes künstliches Licht sogar "schöner/angenehmer" empfunden werden. Natürlichkeit ist zwar "echt" (bzw. aktuell ja auch nur "echter"), aber nur deswegen ist es nicht auch automatisch angenehmer/schöner. Und gerade beim Licht ist es extrem Aufwendig zu berechnen, und hat dafür dann am Ende auch nur einen "relativ" geringen Einfluss auf das Bild, und damit die Immersion. Und da gibt es noch einige andere Dinge die die Immersion idR deutlich mehr beeinflussen. Zb. die Interaktion mit der Umwelt, oder deren physikalisches Verhalten. Nicht die "echte" Spiegelung auf dem Wasser, sondern das Verhalten von Wasser allgemein. Und so weiter.

Eine Laterne deren Licht mit Raytracing strahlt ist ja schön und gut, wird aber u.U. gar nicht im Eifer des Gefechts als "echt" bzw. besser empfunden. Und wenn man mit seinem Auto/Panzer an eben dieser Laterne hängenbleibt, interessiert einen die Lichtberechnung gleich noch weniger. Stichwort Interaktion mit der Spielwelt. Wie gesagt, nimm Minecraft (Vanilla, also komplett ohne Mods!). Selbst mit komplettem Raytracing, was es zweifelsfrei sehr viel schicker macht, ist es noch fast genau so weit von "Fotorealismus" entfernt wie ohne RT.

Raytracing ist ein Feature was schon jetzt eine enorme Rechenleistung kostet, aber bei der Grafik - und auch wenn es vollständig implementiert/vorhanden ist (in 5 oder 10 Jahren?) - eigentlich "nur" das I-Tüpfelchen bringt.

Das ist zumindest meine Meinung. Die kann einem passen, muß aber nicht. :D (dieser Hinweis ging auch nicht an dich, Rollora ;))

JEder gewichtet, die Unterschiedlichen Bildverbessrungen halt anders!
Eine korrektere Beleutchtung ist mir mehr Wert, als jetzt gerade 4k. In Summe ist eben so, das es an allen Ecken und Kanten noch fehlt zu Fotorealismus.

Bei den Texturen bin voll bei dir ;)


Ich finde es schön, das es jetzt sachlicher zugeht! Viel angenehmer und auch dsa der eine, oder andere etwas genauer ausführt was er womit meint. Das macht es viel nachvollziehbarer!
 
Möglich, auch wenn ich da nicht ganz so pessimistisch unterwegs bin - die Hardwareumsetzungen von RT (schon vorhanden oder demnächst vorhanden) sind wesentlich ambitionierter und vmtl. auch in der breiteren Verfügbarkeit (über Konsolen) demnächst da. Daher denke ich dass es etwas schneller gehen könnte wie mit anderen Techniken in der Vergangenheit.

Aber schön zu sehen, dass es tatsächlich noch meinungen gibt die noch zurückhaltender sind als meine in der Hinsicht, auch wenn ich jetzt wohl um meinen Titel als Oberdauerbasher bei den "RT ist heute schon überall und super nutzbar" - Vertretern fürchten muss. Der könnte jetzt an dich gehen. ;)

:P
Dank den Konsolen wird es sicher schneller gehen nur wird die kommende Generation dann bis ~2028 das Mass der Dinge sein.
Logisch wird es wieder Ausreisser geben aber die Aussage(n) war ja die Rede von einer sinnvoll und breiten Umgesetzung in Spielen. (Ich hoffe jeder weiß was gemeint ist wenn man von von "breiten und sinnvoll" redet).

Was den Titel angeht :daumen:
Glaube ich aber nicht. Ich bin kein Mod und nicht so present wie Du. :D
 
Aber stand heute, sieht RT in den 3 bis x Spielen einfach schon gut aus.

Mal ganz unvoreingenommen (darf jeder gerne mitmachen):

Wenn man einen Screenshot wähltz in dem keine Wasserpfützen oder sowas vorkommen wo man natürlich sofort an Reflexionen RT erkennt - kann man wirklich anhand dieses Beispiels unten erkennen, ob RT an oder aus ist? Ich habe einen beliebigen Reviewscreenshot genommen und das "RTX on/off"-Logo von Nvidia darin schwarz gemacht. Seid ehrlich, ohne nachzusehen bzw. den Screenshot zu googlen: Ist Raytracing hier an oder aus?
rtx.png


Ich will damit nicht sagen dass RT keinen Mehrwert bringt (bevor mir das wieder angedichtet wird), nur mein Eindruck ist, dass man RT eben an den charakteristischen Stellen eines Spiels wie Wasserpfützen gut erkennt und da siehts auch toll aus aber in den restlichen 95+% des Spiels keinen erkennbaren Unterschied im Spielgeschehen macht. Deswegen sehe ich persönlich (noch) den Nutzen als sehr sehr begrenzt. Das wird sich sicherlich ändern mit schnellerer HW und entsprechend mehr Nutzung von RT aber aktuell? Naja.

Auflösung
RTX ist aus. Das RTXon-Bild sowie die Quelle ist hier:
http://game2gether.de/wp-content/uploads/2019/02/Metro-Exodus-Screenshot-8.png
 
Zuletzt bearbeitet:
Also wenn ich Schaffe/Poly/hardwarehighländer so lese, ich such jetzt keinen Raus ist jedes Spiel das RT Unterstützt auch mit einer 2060 ohne Probleme performant nutzbar, so verstehe ich Ihn

Dann zitiere doch mal den entsprechenden Absatz, das erspart dann deine tendenziöse Interpretation dazu.
Aber ja, jedes Spiel, welches bisher rausgekommen ist, lässt sich in Full HD mit einer 2060 inkl. RT vernünftig spielen, mit Ausnahme von Control, hier muss man DLSS zuschalten, wenn man ultra will.
Ich habs selbst ausprobiert, geht definitiv. In Call Of Duty kratzt man an der 100 FPS Marke.
Youngblood lässt sich mit ner 2060S sogar in 4K + DLSS spielen und man hat das bessere Bild als 4K Nativ +RT und fast 100 Frames.
Wer da sagt, das lässt sich nicht spielen, der wills einfach nur schlechtreden, sry aber is so, oder er informiert sich einfach nicht.
Kann man ja machen, aber dann muss man sich nicht wundern, dass Gegenwind kommt.

Doch hast du, als er gesagt hat, RT kostet Fläche die er gerne für mehr klassische Recheneinheiten verwenden würde, wahr dein Kommentar, schalte halt RT ab... Die Antwort war völlig sinnbefreit...
Do

Ja, das ist das einzige was er tun kann, etwas anderes bleibt ihm nicht übrig, genau wie bei allen anderen Features die in der Vergangenheit schon Transistoren verblasen haben.
Wie zum Beispiel auch das beliebte Async Compute, Compute-Shader, T&L, Shader, Tesselation, usw. usf.
In Turing ist auch noch viel mehr enthalten, von dem keiner spricht, oder auch in Vega. Interessanterweise hat sich bei Vega niemand darüber beschwert, sondern da wurde ein riesiger knapp 500mm² Chip permanent verteidigt, was der alles an zukunftsträchtigen Features implementiert habe. Da kam niemand auf die Idee und sagte man habe mit GCN-Next und NGG zu viel neues gebracht und es nicht einfach nur den klassischen Shadercount hochgetrieben.

Aber wenn man intelligenterweise einen Teil des Chips für wichtige Technologien opfert, dann schadet man auf einmal den Nutzern die kein Raytracing wollen.
Was soll man da anderes antworten als ihnen zu raten es abzuschalten? Sollen sie doch eine Petition eröffnen, in der sie Grafikkarten ohne Zukunftstechnologien fordern...
Wir sind hier nicht bei wünsch dir was. Manchmal hat man das Gefühl die Forenuser wären die besseren Entwickler und wüssten besser was notwendig ist.

Aber du verkürzt auch hier wieder den Zusammenhang, ich habe das was du da sagst nirgends bestritten.
Natürlich kosten die RT Cores Fläche.
 
Zuletzt bearbeitet:
Mal ganz unvoreingenommen (darf jeder gerne mitmachen):

Wenn man einen Screenshot wähltz in dem keine Wasserpfützen oder sowas vorkommen wo man natürlich sofort an Reflexionen RT erkennt - kann man wirklich anhand dieses Beispiels unten erkennen, ob RT an oder aus ist? Ich habe einen beliebigen Reviewscreenshot genommen und das "RTX on/off"-Logo von Nvidia darin schwarz gemacht. Seid ehrlich, ohne nachzusehen bzw. den Screenshot zu googlen: Ist Raytracing hier an oder aus?
Anhang anzeigen 1078141

Hab versagt. Bei 50% Trefferquote. :heul: ;)
(peinlich)
 
Youngblood lässt sich mit ner 2060S sogar in 4K + DLSS spielen und man hat das bessere Bild als 4K Nativ +RT und fast 100 Frames.

Stimmt nicht. Zeig doch mal.

Gern:

Intel Xe: Hinweise auf Raytracing-Support

Aber ich warte immer noch auf die 6 Releasten Spiele mit RT 2019, ich würde jetzt stand hier sagen die Zahl war erfunden da du mir die nicht aufzählen kannst, 6 Spiele aufzuzählen sollte nicht so schwer sein, oder?

Ich glaube du bist der einzige der behauptet upscaling ist die Grafikquali besser als wenn cih es nativ berechnen lasse.
 
RT ist gut für Entwickler, weil man damit die Beleuchtung in der Szene in fast Echtzeit simulieern kann und es dann leichter fallen sollte die Beleuchtung zu faken so wie das bis jetzt der Fall ist. RT ist ja gar nicht geeignet in jeder Situation eingesetzt zu werden. Spiele wollen wie Filme aussehen und Filme werden ja auch nicht nur von der Sonne beleuchtet. Daher ist auch beim Kunden Raytracing im richtigen Moment und in der richtigen Dosierung wichtiger. Always On auf alles und dann bricht Quake 2 auf 40fps runter ist genau der falsche Weg.
 

Na, sag ich doch, stimmt nicht.;) Hast es jetzt also auch noch selbst belegt.

Ich glaube du bist der einzige der behauptet upscaling ist die Grafikquali besser als wenn cih es nativ berechnen lasse.

Ne, unter anderem Digital Foundry.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ich sehe diese Sichtweise als einen Denkfehler.

Erstmal: "Seltsame" Beleuchtung gibt es vielleicht hier und da, ist aber keine systembedingte Voraussetzung für "Non-Raytracing".

Wenn Minecraft vollständig und zu 100% mit Raytracing berechnet wird, ist es dann schon "Fotorealismus"? Was macht Fotorealismus denn überhaupt aus?

Im Gegenteil, Fotorealismus ist von so vielen Dingen abhängig, da ist die Raytracing-Beleuchtung noch nicht mal auf dem ersten (oder zweiten, ... oder 5ten) Platz. Und was manche User (du bist jetzt nicht gemeint) auch nicht verstehen: Für hohe Auflösungen (4k, 8k) brauch man nicht mal einen Monitor mit einer ebenso hohen nativen Auflösung. Stichwort Downsampling. Aber manche feiern ja stattdessen eher RTX mit Upsampling.

Um zu deinem "Fotorealismus" zurück zu kommen: Das wollen wir doch alle. Warum? Genau, Immersion. Genau deswegen hätte ich aktuell lieber höher aufgelöste Texturen (= Grafikkarten mit mehr VRAM), weil deren Einfluss auf die Immersion sehr viel größer ist (und es im Gegenzug auch noch kaum Leistung kostet). Ich hätte gerne die Rechenleistung für [interne] höhere Auflösungen, weil das "Kantengekrissel" (bzw. Kanten allgemein) die Immersion sehr stört. Immer und überall, ob Licht oder Schatten. Das sind Dinge die das Auge und das Gehirn sofort als "Störung" bzw. negativen/positiven Faktor wahrnimmt - annähernd in allen Situationen.

Raytracing hinegen fällt idR erst sekundär auf. Und hier kann ein gutes künstliches Licht sogar "schöner/angenehmer" empfunden werden. Natürlichkeit ist zwar "echt" (bzw. aktuell ja auch nur "echter"), aber nur deswegen ist es nicht auch automatisch angenehmer/schöner. Und gerade beim Licht ist es extrem Aufwendig zu berechnen, und hat dafür dann am Ende auch nur einen "relativ" geringen Einfluss auf das Bild, und damit die Immersion. Und da gibt es noch einige andere Dinge die die Immersion idR deutlich mehr beeinflussen. Zb. die Interaktion mit der Umwelt, oder deren physikalisches Verhalten. Nicht die "echte" Spiegelung auf dem Wasser, sondern das Verhalten von Wasser allgemein. Und so weiter.

Eine Laterne deren Licht mit Raytracing strahlt ist ja schön und gut, wird aber u.U. gar nicht im Eifer des Gefechts als "echt" bzw. besser empfunden. Und wenn man mit seinem Auto/Panzer an eben dieser Laterne hängenbleibt, interessiert einen die Lichtberechnung gleich noch weniger. Stichwort Interaktion mit der Spielwelt. Wie gesagt, nimm Minecraft (Vanilla, also komplett ohne Mods!). Selbst mit komplettem Raytracing, was es zweifelsfrei sehr viel schicker macht, ist es noch fast genau so weit von "Fotorealismus" entfernt wie ohne RT.

Raytracing ist ein Feature was schon jetzt eine enorme Rechenleistung kostet, aber bei der Grafik - und auch wenn es vollständig implementiert/vorhanden ist (in 5 oder 10 Jahren?) - eigentlich "nur" das I-Tüpfelchen bringt.

Das ist zumindest meine Meinung. Die kann einem passen, muß aber nicht. :D (dieser Hinweis ging auch nicht an dich, Rollora ;))

Bei derzeitigen Beleuchtungen finden extrem viele "Tricks" statt, aber es ist erst im direkten Vergleich mit gutem Raytracing offensichtlich. Was etwa ganz häufig vorkommt ist eine Lampe die einen Raum beleuchten soll, aber statt loka auch nur annähernd korrekt zu beleuchten sieht man sofort, dass der ganze Raum künstlich zusätzlich beleuchtet ist und aus der Lampe ein eher ungewöhnliches Licht rauskommt.
YouTube
Zugegeben sind die tricks schon sehr fortgeschritten, aber bei GUT implementiertem RT (das ist derzeit noch in keinem Spiel wirklich der Fall), ist der Unterschied groß und wenn man sich mal dran gewöhnt hat, sogar fast wie Tag und Nacht.
Schneller sieht man das natürlich, wenn man Raytracing statt der noch statischen Beleuchtung in Spielen verwendet:
YouTube
YouTube
Ich beschäftige mich viel mit Fotografie, deshalb fällt es mir vielleicht eher auf, wenn ein Bild bessere Beleuchtung hat, wie eine höhere Auflösung.

Mit RT meine ich nicht einfach nur die korrekte Beleuchtung und schöne Spiegeleffekte. In weiterer Folge sind es auch die weiteren Effekte auf den Texturen, etwa den Gesichtern, Augen etc.
Das geht natürlich durch Rastern auch näherungsweise. Aber vieles geht durch RT einfach genauer, korrekter - und in weitester Folge sogar "sparsamer". Je mehr "Tricks" wir brauchen und aneinanderreihen, desto mehr Aufwand ist es an den genannten "Fotorealismus" ranzukommen. Ab irgendeinem Punkt ist RT sogar schneller.
Die Frage ist halt: sollte man nicht gleich alle Resourcen auf den RT Ansatz werfen, um den Punkt wo RT schneller ist als Beleuchtung durch Rasterizing früher herbeizuführen.

Und keine Sorge, ich nehme deine Meinung weder persönlich, noch als Meinungsmache. Ich selbst habe von 2005 weg im Bereich der GPGPU mit Raytracing-Algorithmen gearbeitet und auch an diversen Forschungsarbeiten mitgearbeitet. Ich bin halt gewisser Fan davon. Und eben weniger von dem Auflösungswahn, wo es mir immer schwerer fällt die Unterschiede festzustellen. Und dann... was wenn wir mal das perfekt scharfe Bild haben? Dann werden wir alle merken: ok cool, ich muss also für ein 8K Display ein Monatsgehalt hinblättern. Für die dementsprechende Grafikkarte auch alle 2 Jahre. Aber letztlich ist der Grafische Fortschritt außer "schärfer" ausgeblieben.

Im Übrigen ist Fotorealismus auch ein gewisser Feind. Ich finde ihn nicht nur super. Aber jedes Spiel das realistischer aussieht, soll sich auch realistischer anfühlen. Ein realistisch aussehendes Spiel, das seltsame Spielmechaniken hat, wirkt irgendwie "komisch". Denken wir an die 90er zurück: da gabs viele enorm kreative Spiele. Heutzutage würden viele davon gar nicht mehr so gut funktionieren: bei perfekter Grafik würde uns plötzlich genau diese aus der verspielten Fantasywelt rausreißen.

RT wird übrigens auch in 10 Jahren noch nicht vollständig integriert sein, sondern eine Hybridlösung bleiben. Lediglich mehr Aufgaben und Genauigkeit wird Raytracing zukommen. Aber um echtes RT mit 80 Samples oder so hinzukriegen, vielleicht nicht nur Beleuchtung und Reflexion, auch Kollisionsabfrage in einer ähnlichen Form usw usf. Aber wir bräuchten noch 100x mehr Leistung als wir es heute haben, damit das ordentlich läuft. Und das bezogen auf FHD. Wie es dann mit UHD oder 8K aussieht kann man sich ja leicht ausrechnen
 
Zuletzt bearbeitet:
Na, sag ich doch, stimmt nicht.;) Hast es jetzt also auch noch selbst belegt.



Ne, unter anderem Digital Foundry.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wo habe ich es wiederlegt, sein Argument war, er möchte satt den RT Kernen lieber klassische Rechen kerne, deine Antwort war:
Schalte RT halt ab, da bekommt er die Fläche zurück oder wie??


Also nachdem du mir die 6 Spiele mit RT die 2019 Ihren Release hatten nicht aufzählen kannst, hast du mal wieder einfach eine Zahl erfunden, wie so oft, warum geh ich überhaupt noch auf deine Fake zahlen ein, gute frage
 
Zurück