Raytracing: Nvidia schaltet DXR ab der Geforce GTX 1060/6G frei

und auch hier bei BV

nvidia-neu-9-pcgh-png.1038326


das sind 100% mehr Frames oder hast du eine Null vergessen und zudem nichtmal die TI sondern die 2080

Es sind 60% mit unterirdischem DLSS in BF V gegen eine "lahme" Referenz 1080TI. Ohne DLSS (oder mit optisch schönerem Upscaling auf der 1080Ti) sind es laut Graph wohl Richtung 25-30%...

Der arme Scully... Da hat er so vehement im "AMD-Karten DXR tauglich" behauptet, DXR läuft ohne RT-Cores und Tensor Cores nicht ansatzweise brauchbar (außer auf der Zauber-Titan V) und dann bringt Nvidia so etwas, ohne Scully und dem Ich-dreh-mir-alles-zurecht Werbetexter bescheid zu geben. Da blamieren die armen beiden sich noch mehr, als sie es sonst aus eigener Kraft hinbekommen und müssen noch mehr rudern, haken schlagen und sich in die Tasche lügen... Das Durchlesen des Liveticker-Threads mit Werbetexters verzweifelten "Beiträgen" hat schon für Erheiterung gesorgt.


Das ganze ist absolut zu begrüßen, riecht aber dennoch nach Verzweiflungstat. Jetzt ist AMD am Zug, Vega dürfte dank AC, FP16/INT8 etc. schneller sein als Pascal und Polaris kann gegen die direkte Konkurrenz mit deutlich höherer Rohleistung punkten.
 
Der arme Scully... Da hat er so vehement im "AMD-Karten DXR tauglich" behauptet, DXR läuft ohne RT-Cores und Tensor Cores nicht ansatzweise brauchbar (außer auf der Zauber-Titan V) und dann bringt Nvidia so etwas, ohne Scully und dem Ich-dreh-mir-alles-zurecht Werbetexter bescheid zu geben. Da blamieren die armen beiden sich noch mehr, als sie es sonst aus eigener Kraft hinbekommen und müssen noch mehr rudern, haken schlagen und sich in die Tasche lügen... Das Durchlesen des Liveticker-Threads mit Werbetexters verzweifelten "Beiträgen" hat schon für Erheiterung gesorgt.

Das ganze ist absolut zu begrüßen, riecht aber dennoch nach Verzweiflungstat. Jetzt ist AMD am Zug, Vega dürfte dank AC, FP16/INT8 etc. schneller sein als Pascal und Polaris kann gegen die direkte Konkurrenz mit deutlich höherer Rohleistung punkten.

@ AlphaSec .... damit hatte er auch völlig recht - lies mal hier (ist ja vollkommen logisch, ohne RT in HW = Hardware GPU Einheiten) –60% (minus) Leistung !!!

Fazit: Nvidia bringt ein Mehrwerk für all seine bestehenden 'Pascal' GTX Kunden und ältere Grafikkarten ohne RT Cores ....

DXR .... läuft mit 'LOW' RT Settings & wenigen Ray Counts, auch auf alten Pascal 'GTX' GPU's >>> volle RayTracing & DXR Leistung gibt's bei 'RTX' Turing Generation !!!

Nvidia - DXR Supported GTX GPU's haben .... => Basic RT Effects - Low Ray Count => und eben keine höheren HW "RTX & DXR RayTracing 'Turing' GPU Features"

Die Performance zählt .... 'DXR' Pascal vs. < 'TURING' RTX (mit RT & Tensor-Cores) Scores !!!

With this driver, GeForce GTX GPUs will execute ray tracing on shader cores. Game performance will vary based on the ray-tracing effects
and on the number of rays cast in the game, along with GPU model and game resolution. Microsoft DXR and Vulkan APIs games are all supported.


dxr-supported-gpus-basic-rt-effects-low-ray-count-png.1038333


AMD 'DXR' Treiber wird nicht's nicht geben .... AMD User brauchen dass nicht >>> ;o) und NAVI GCN - hat wohl auch kein RT (ist ja nicht Gext-Gen .... von 2022)

Ray-Tracing ergibt für AMD's VP / Chefentwickler David Wang zur Zeit absolut keinen sinn .... zumindest nicht auf veralteten AMD GCN Hardware. Das wurde ja so Offen von AMD kommuniziert, Ende 2018.

>>> AMD plant vorerst kein Raytracing - >>DXR ergibt nur Sinn, wenn es alle Grafikkarten beherrschen<< - GameStar

>>> AMD plant laut David Wang, zuständig für die Radeon Technologies Group, aktuell keine Unterstützung für Raytracing in Spielen über DXR (DirectX Raytracing) !!!

Doch laut einer Aussage von AMD-Vizepräsident David Wang, der die Radeon Technologies Group führt, gibt es zumindest bei AMD aktuell keine Pläne für eine derartige Unterstützung. Dazu sei es erst notwendig, dass die gesamte Produktreihe der Grafikkarten dazu in der Lage sei, vom kleinsten zum größten Modell, sprich also eine neue Mikroarchitektur.

AMD will Raytracing erst dann unterstützen, wenn sie eine Grafikkarten-Serie produzieren können, in der alle Modelle es beherrschen.

Diese Feststellung dürfte allerdings laut 'wccftech' auch daran liegen, das die nächste GPU-Generation Navi vom AMD nicht einmal mehr ein Jahr entfernt ist und entsprechend nicht auf Raytracing vorbereitet sein dürfte. Die 2019 erwartenden Mittelklasse-Radeons der Navi-Generation (High-End-Modelle von Navi werden erst 2020 erwartet) werden so gut wie sicher keine dedizierten Raytracing-Einheiten besitzen - und im Software-Modus ist die Performance von Raytracing allen Erfahrungen nach viel zu niedrig.

Um Raytracing mit brauchbarer Leistung in allen GPUs einer neuen Serie bieten zu können, dürfte AMD laut dem Bericht wohl bis zum Navi-Nachfolger warten (müssen), der früher einmal Kuma genannt wurde und auf den sich AMD nun nur noch unter Next-Gen beruft.

Inwiefern Wang hier auch die Pläne des ehemaligen Grafikchefs Raja Koduri verändert hat, ist unbekannt. Ohne Unterstützung von AMD wird Raytracing in Spielen also die nächsten zwei oder drei Jahre Nvidia vorbehalten bleiben. Ob das reicht, um DXR in dieser Zeit für viele Entwickler interessant zu machen, bleibt abzuwarten.
 

Anhänge

  • DXR Supported GPU's - Basic RT Effects - Low Ray Count.png
    DXR Supported GPU's - Basic RT Effects - Low Ray Count.png
    1,3 MB · Aufrufe: 284
Zuletzt bearbeitet:
Aha, kannst du lesen? BF V

profitiert Battlefield 5 dagegen kaum: Die Fps steigen in 1440p (Raytracing-Einstellung nicht spezifiziert) von knapp 60 auf gut 60 Fps

Es ist mit oder ohne RT Cores genauso schnell
Ok, habe den Graphen gesehen. Das ist schon lächerlich. Aber in BF V haben sie die Reflektionen so richtig zurückgeschraubt und das Licht kann nicht so oft abprallen wie in den Innenräumen, deswegen bringen RT-Kerne weniger auf die Platte.
GTX 1080 Ti: 11,47 TFlops
RTX 2080: 10,6 TFlops

GTX 1080 Ti hat mehr Rechenleistung, ist trotzdem langsamer..
 
Auch dort sind es nur gut 20% weniger Fps. Die Achsen muss man schon beachten.

Trink erstmal nen Kaffee

Glaub nicht das ich anhand des Graphen n Kaffee brauche um zu erkennen, das bei annähernd selber Chipfläche GTX1080ti /RTX 2080 letztere um Längen überlegen ist mit ihren Int8 Einheiten, wenn es um Raytracing geht
 
>>> volle RayTracing & DXR Leistung gibt's bei 'RTX' Turing Generation !!!

Kann man denn jetzt mit einer RTX 2080 in WQHD bei BF5 bei maxRT Details flüssig spielen ? Oder ist das immer noch eine Diashow ? Oder sind das alles FullHD Zocker ?

Die Spiele müssen RT eben richtig unterstützen. Nur ist Metro wohl im Moment das einzige das es halbwegs hinkriegt.

Sind denn noch mehr Spiele mit vollwertigen RT in der Pipeline oder wartet man da jetzt erstmal wieder 6 Monate ?

Kein guter Tag für Turingfanboys. Nichts gegen nVidia versteht sich ;)
 
Bin ich froh, das ich mir noch eine GTX 1080 Ti vor dem Launch von Turing gegönnt hatte. RTX das war wohl "NIX". :D:D

Wieviel die RT Cores bringen hängt von der Szene ab und wie viele Strahlen verschossen werden.
Das ist bei GI in Metro viel, ergo bringt es auch einen drastischen Zuwachs, bei Battlefield werden in der maximalen Einstellungen 40% des Bildes mit Raytracing abgetastet und wenn viele Spiegelungen zu berechnen sind, siehst du auch dort einen relativ hohen Performanceimpact.
Das hatte man ja damals bei den Tests TitanV vs. Titan RTX/2080 Ti bereits herausgefunden, dass es szenenabhängig ist.
Da stehen teilweise durchaus +50/60% auf der Uhr und anfänglich als die Strahlen noch gegen Geometrie verschossen wurde die gar nicht dargestellt wurde, war der Unterschied irgendwo bei 100% Mehrleistung.
Es lief auf meiner Titan V damals im Singleplayer nur mit 10 bis 15 FPS im Blätterwald.

Na dann wird Amd wohl was im köscher haben, aus nächstenliebe macht Nvidia selten was.
Die ganze Sache ist ziemlich peinlich.

Das einzige was peinlich ist sind die immerwährenden Schmähbeiträge der AMD Sympathisanten.
Es ist doch eine super Sache wenn diese Features auch für die alte Gen freigeschaltet wird, auch wenn es teilweise massiv langsamer läuft.
So verbreitert sich die Nutzerbasis und jeder Pascal Nutzer kann es aktivieren. Das ist ein super Schritt - denn es erhöht den Druck auf AMD endlich einen DXR Treiber zu schreiben.

Wenn man sieht, wie die Leistung von RTX Features in den Games bei den Turing Grafikkarten, mit ihren extra spezialisierten RT-Kernen einbricht, will man sich gar nicht vorstellen, was DXR bei der Leistung mit den Pascal Grafikkarten in den Games anrichtet.

Wenn nur wenig Strahlen verschossen werden, dann kann man das auch mit einer Pascal GPU, siehe analog Titan V performant berechnen.

Ich bin ja schon ziemlich Nvidia-kritisch, aber dass die RT-Cores in 2 von 3 Games dermaßen wenig Mehrleistung bringen (Battlefield V +~10% bzw. Shadow of the Tomb Raider +~20%), hätte selbst ich nicht im Traum erwartet. Noch mehr verwundert aber, dass Huang die Fakten so offen/schonungslos Preis gibt. Ganz freiwillig erscheint mir das momentan nicht.

Du bist nicht nur Nvidia-kritisch sondern reagierst einfach allergisch auf den schon oft diskutierten Fakt, dass RT Cores nur in Szenen mit relativ viel Raytracing-Einsatz die gewünschte Mehrleistung auch bringen.
Man erinnert sich zurück an die hanebüchene PCGH news wo unterstellt wurde, dass die RT-Cores gar nicht existieren, bzw. gar nichts bringen oder nicht genutzt werden.
Je nach Szene wird das in Battlefield und Tombraider werden die RT Cores deutlich mehr Leistung bringen, weil Nvidia bei der Präsentation nicht die maximale Stufe genutzt hat, sondern sehr wahrscheinlich Mittel oder High, nicht ultra.
Warum? Weil die TitanV ohne RT Cores trotz Unterstützung bei Szenen in denen viel gespiegelt wurde 40% langsamer gerechnet hat.

Früher kam das Mainzelmännchen ja zwischen den Werbeblöcken und nicht darin vor... wie auch immer. Ohne Druck/Zugzwang glaube ich nicht, dass Nvidia den Kurs gefahren wäre.

Willst du jetzt behaupten, dass der Release der Crytek Demo vor ein paar Tagen Nvidia dazu bewegt hat, Raytracing für Pascal zu aktivieren?
Wenn überhaupt ist das nur eine grobe Vermutung, ohne jeden Beweis.
Ich denke viel eher dass Nvidia das gemacht hat um mehr Entwickler für das Feature zu gewinnen und die Entwicklung zu beschleunigen.
Da sieht man aber auch mal das die Turingpräsentation eigentlich zum Großteil fake war. BF5 hätte man genau so gut auch auf 1080Ti präsentieren können.

Genausogut ja nicht, das wäre dann je nach Szene nur halb so schnell gelaufen.
Der Shitstorm wegen der Leistung auf den RTX Karten war schon so groß und da willst du mir jetzt sagen, die hätten das auf Pascal präsentieren können? :ugly:

Der Ganze proprietäre Mist von den Entwicklern und Herstellern soll weg bleiben. MS DXR, die Engine des Spiels und Ende.

Proprietär? Directx12 hat am PC Markt bezüglich aktuelle Games mit aktuellen Technologien eine Verbreitung von 99,999% usw., wieso sollen dann Schnittstellen wie DXR bitte wegbleiben?
DXR wird sich wie jede Directx Erweiterung verbreitet, ganz unabhängig von den Konsolen, welche wie die XBOX auch teilweise Directx12 nutzen.
Langfristig sollen alle XBOX Spiele auch am PC spielbar sein.

Mmh, das ist ja mal der Hammer wie NVIDIA mal wieder die Kunden verarscht hat. Man braucht ja dringend die RT Cores.... nicht....

Wo hat Nvidia jemals behauptet dass man für geringfügiges Raytracing eine Beschleunigung durch die RT Cores erzielt?
Jetzt überleg mal wieso sich die Frames in Metro bei GI verdoppeln. Weil man die RT-Cores nicht braucht?:schief:

Ich denke mal, da kommt ne richtig starke Umsetzung vom AMD auf Basis von mGPU, was die RTX Karten von Nvidia alt aussehen lassen wird.

Wo man jahrelang Multi GPU bei AMD stiefmütterlich behandelt hat und die Frametimes grundsätzlich bei Multi GPU jenseits von Gut und Böse liegen, kommt für einen Ansatz, der die entstehenden Latenzen zwischen GPUA und GPUB massiv erhöht, das Multi GPU Wunder?
Wie kann man als Entwickler eigentlich nur an sowas ernsthaft glauben?:hmm:

Lol, als Besitzer einer RTX-Karte käme ich mir jetzt aber verarscht vor. Zum Glück hab ich mir keine gekauft :D

Eigentlich überhaupt nicht, denn es läuft auf Turing ja je nach Szene in Battlefield schon massiv schneller und ist in Metro doppelt so performant.
Dabei weiß man gar nicht welche Einstellungen Nvidia verwendet hat um RT auf Pascal zu zeigen. Bei Battlefield V weiß man schon dass die nicht die ultra Einstellung verwendet haben.

RTX ist bis jetzt nicht gezogen, ergo muss man die Verbreitung steigern. Gleichzeitig kann man aber nicht 50 Entwickler finanziell unterstützen. Das müssen die von alleine machen. Ergo schaltet man DXR für alle frei um die Entwickler zu animieren es in ihre Games einzubauen und RTX Käufer haben dann die (nicht immer, aber oft) überlegene Performance. Und Performance verkauft sich dann, wenn sie konsistent ist und nicht nur in zwei Games.

Ich denke die Performance wird unter maximalen Settings eigentlich immer recht deutlich überlegen sein.
Letztendlich wird es nur darauf angekommen wie es die Spielehersteller implementieren. Wenn nur ein paar low res Reflektionen mit 15% abgetastetem Bild berechnet werden oder so ähnlich, dürfte sich Turing nicht absetzen können.

Und das was Crytek da gezeigt hat, läuft sowieso auf jeder Grafikkarte (was klasse ist).

Das was Crytek da gezeigt hat, ist eine Demo und kein fertiges Spiel, das kann man überhaupt nicht vergleichen.
Zumal bei Kameraschwenks die nicht vorberechnet sind Denkpausen ergeben, bei Szenenwechsel sind das sogar mehrere Sekunden, in denen sich das Voxelgitter aufbauen muss.

Na und DLSS ist sowieso tot. Jeder, der sich halbwegs mit Bildbearbeitung auskennt, hat inzwischen herausgefunden, dass simples Upscaling+Schärfefilter gleich performt

So ein Unfug kann ja auch nur von dir kommen.

Ich glaube nicht, dass Nvidia da noch viel investiert. Man wird es als Buzzword noch ne Weile mitschleifen, aber das war's dann.

Die Entwicklung kann man da nicht absehen, aber AI basierte Kantenglättung ist ein Zukunftsansatz der nicht einfach wieder verworfen wird, das kann ich mir überhaupt nicht vorstellen.

Aha, kannst du lesen? BF V

profitiert Battlefield 5 dagegen kaum: Die Fps steigen in 1440p (Raytracing-Einstellung nicht spezifiziert) von knapp 60 auf gut 60 Fps

Und jetzt überlege mal, wieso die Raytracing-Einstellung nicht spezifiziert ist, andere aber bereits mehrfach Titan V mit 2080 Ti verglichen haben und die Ergebnisse deutlich zugunsten der 2080 Ti ausfielen.

RayTracing in Battlefield V laeuft (mit guten Frameraten) auch auf der Titan V | 3DCenter.org

56 zu 81 FPS und das unter RT=Hoch, nicht mal unter Ultra.

Wer weiß vielleicht werden in BF V die Raytracing Kerne überhaupt nicht genutzt?!

Natürlich werden sie genutzt, je nach Szene bringt das auch einen riesen Impact.
 
Zuletzt bearbeitet:
Annähernd selbe Chipfläche?471 zu 545....

Es ist doch eine super Sache wenn diese Features auch für die alte Gen freigeschaltet wird, auch wenn es teilweise massiv langsamer läuft.
So verbreitert sich die Nutzerbasis und jeder Pascal Nutzer kann es aktivieren. Das ist ein super Schritt - denn es erhöht den Druck auf AMD endlich einen DXR Treiber zu schreiben.

Ja bei zwei Spielen die ich nicht spiele, fühle ich schon den kalten Atem im Nacken....
 
und auch hier bei BV

attachment.php


das sind 100% mehr Frames oder hast du eine Null vergessen und zudem nichtmal die TI sondern die 2080

Von 45 auf 62 sind nicht 100% mehr frames.

DLSS reduziert die Renderauflösung und sieht bescheiden aus, da würde die 1080ti auch mehr frames schaffen (kannst bei BF V die interne Renderauflösung ja mal auf 50% stellen).

Wieder mal auf eine nV Folie reingefallen was?
Außerdem muss für DLSS das ganze auf 4K laufen, was wohl nicht optimal für die 1080ti mit DXR ist. BF V macht die Anzahl der Rays ja abhängig von der Auflösung.
 
Zuletzt bearbeitet:
Hat Nvidia am Ende vllt. doch Angst vor Navi, dass sie erst Freesync und nun ihr Steckenpferd RTX auf Pascal freischalten müssen?

Für den Endkunden ist am Ende natürlich beides gut, aber irgendwie macht sich Nvidia da ja etwas lächerlich mit! Erst ist Freesync "Mist" und "funktioniert nicht", dann schalten sie es doch frei, weil die Kunden keinen Bock mehr haben 200€ Aufpreis für einen Monitor mit Nvidia Sticker zu bezahlen. Dann erzählen sie letztes Jahr noch "wir haben ganz tolle neue Kerne auf unsere tollen neuen Karten gepackt, mit denen ihr Raytracing in Echtzeit kriegt" und nun wollen sie das auf den alten Karten ohne die neuen Kerne schaffen, was selbstverständlich absolut gar nichts mit Cryteks eindrucksvoller Demo zu tun hat. Für mich dieselbe Lüge wie Intels "läuft nicht auf den alten Boards"-Aussage - offensichtlicher Beschiss am Kunde und am Ende wird's noch gefeiert. Als Käufer eines G-Sync Monitors und einer teuren RTX Grafikkarte wäre ich echt sauer...

Juhu, der Werbebot ist wieder da.:schief:

Ja, hab die ganzen Verstöße gegen Forenregeln 4.4 und 4.6 auch schon mehrfach gemeldet, aber irgendwie scheint das keinen zu interessieren... obwohl die User wohl langsam allgemein seine Beiträge nicht mehr lesen können (bzw. wollen).


Grüße!
 
Ok, habe den Graphen gesehen. Das ist schon lächerlich. Aber in BF V haben sie die Reflektionen so richtig zurückgeschraubt und das Licht kann nicht so oft abprallen wie in den Innenräumen, deswegen bringen RT-Kerne weniger auf die Platte.
GTX 1080 Ti: 11,47 TFlops
RTX 2080: 10,6 TFlops

GTX 1080 Ti hat mehr Rechenleistung, ist trotzdem langsamer..

Also 60 FPS zu 60 FPS würde ich jetzt nicht unbedingt langsamer nennen ;-)
 
Anscheinend läuft die Vermarktung von Rtx und damit auch der Verkauf der RTX Karten sehr schlecht für Nvidia, ansonsten hätten Sie diesen Schritt nicht gemacht.
 
Raytracing geht auch wunderbar mit der Cryengine und einer Vega 56.
http://www.pcgameshardware.de/Raytr...ch-Demo-Cryengine-auf-Radeon-Vega-56-1277611/
Hardware- und Nachrichten-Links des 14./15. Maerz 2019 | 3DCenter.org
Ich bin gespannt wenn erste Spiele auch auf AMD mit Raytracing laufen, und sichtbar wird dass die RT-Cores von Turing gar nicht so extrem wichtig sind.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Abgesehen davon das RT an sich kaum Mehrwert bei den wenigen Games bietet wo es jetzt läuft.
Die kann man auch gut ohne RT spielen.
 
Zuletzt bearbeitet:
Als Käufer einer teuren Pascal-GTX und eines FreeSync-Monitors geht mir das aber eigentlich ganz gut rein. Dann wird SotTR vielleicht ja doch direkt mit RT gezockt. Zumindest ausprobiert wird es.

Deshalb meine ich ja... allgemein für den Endkunden ist das gut, aber die G-Sync/RTX Käufer haben nicht nur tief in die Tasche gegriffen, sondern zum Dank auch noch einen an den Hinterkopf gekriegt.


Grüße!
 
Schade aber, dass Global Illumination nicht wirklich nutzbar ist.

Jup, das ist aber auch kein Wunder wenn das komplette Bild beleuchtet wird.
Das zeigt sehr gut, wie wichtig die RT Cores sind.

Die Graphen sind doch eh fürn Arsch, so langsam ist nur das Ref.Design der 1080ti. Das hat schon seinen Grund warum die so schwammig gehalten wurden.

Ja genau, die 5% des Referenzdesigns, machen den Unterschied.:schief:
Selbst in Battlefield 5 sind das ohne bekannte Einstellungen 30% mehr Performance auf der RTX 2080 inkl. RT und du kannst dir sicher sein, dass szenenabhängig die Leistung nicht 30% besser, sondern oftmals viel deutlich besser ausfällt.
Das kennen wir bereits von Benchmarks zwischen Titan V und 2080 Ti.

Für den Endkunden ist am Ende natürlich beides gut, aber irgendwie macht sich Nvidia da ja etwas lächerlich mit! Erst ist Freesync "Mist" und "funktioniert nicht", dann schalten sie es doch frei, weil die Kunden keinen Bock mehr haben 200€ Aufpreis für einen Monitor mit Nvidia Sticker zu bezahlen. Dann erzählen sie letztes Jahr noch "wir haben ganz tolle neue Kerne auf unsere tollen neuen Karten gepackt, mit denen ihr Raytracing in Echtzeit kriegt" und nun wollen sie das auf den alten Karten ohne die neuen Kerne schaffen, was selbstverständlich absolut gar nichts mit Cryteks eindrucksvoller Demo zu tun hat. Für mich dieselbe Lüge wie Intels "läuft nicht auf den alten Boards"-Aussage - offensichtlicher Beschiss am Kunde und am Ende wird's noch gefeiert. Als Käufer eines G-Sync Monitors und einer teuren RTX Grafikkarte wäre ich echt sauer...

Ziemlich einseitige Sicht auf die Dinge, wenn man mich fragt. Adaptive Sync ist ohne klar vorgegebene Mindeststandards auch ein ziemlicher Mist, das sieht man zum Beispiel an den Samsung Freesync Displays die keine praktikable Range bieten und permanent bei Nutzung flackern, egal ob man da eine Nvidia oder AMD Karte mit betreibt.
Es hat also schon seinen Sinn auf hohe Standards für ein Feature zu setzen, aber manche User wollen eben einfach nur das Checklistenfeature abhaken. Wie das dann läuft, ist egal.
Und natürlich läuft Raytracing durch die RT Cores wesentlich schneller, aber um RT zu berechnen braucht man sie nicht zwingend, ich wüsste nicht wo Nvidia jemals etwas anderes behauptet hätte und den Zusammenhang zur experimentiellen Crytek Demo stellt in erster Linie PCGH her.
Wahrscheinlich existiert der real überhaupt nicht, denn die Demo wurde erst vor kurzem fertiggestellt und lässt sich überhaupt nicht mit einem Spiel vergleichen. Tatsache ist, dass es solche Demos schon lange gibt.
 
Zuletzt bearbeitet:
Deshalb meine ich ja... allgemein für den Endkunden ist das gut, aber die G-Sync/RTX Käufer haben nicht nur tief in die Tasche gegriffen, sondern zum Dank auch noch einen an den Hinterkopf gekriegt.


Grüße!

Du kannst G-Sync nicht mit RTX vergleichen. G-Sync lief ab Tag eins fast mit jedem Spiel problemlos. Davon ist RTX Jahre entfernt. AMD hat Jahre gebraucht, trotz Konkurrenzdruck, ihr Freesync System vernünftig zum laufen zu kriegen.

Ich hab damals etwa 150€ G-sync Aufschlag gezahlt und bin damit keineswegs unglücklich. Ich würde es wieder machen.
 
Deshalb meine ich ja... allgemein für den Endkunden ist das gut, aber die G-Sync/RTX Käufer haben nicht nur tief in die Tasche gegriffen, sondern zum Dank auch noch einen an den Hinterkopf gekriegt.

Bei G-Sync ist es ärgerlich für die Leute, aber andererseits war es auch ein bisschen blöd, dem so nachzugeben, wenn man sich potenziell darüber später aufregen würde. Trotzdem haben sie nichts verloren und G-Sync hat ja wohl ein paar keine Vorteile, auch wenn die wohl heute nicht mehr so ins Gewicht fallen. Bei den Karten sehe ich das anders. Die waren teuer, aber sind auch schneller und bieten immer noch einen hohen potenziellen Vorteil für die Zukunft gegenüber den Vorgängern. Ich bin mal gespannt, wie die RT-Entwicklung weitergeht, könnte mir aber gut vorstellen, dass das schnell ein Standardfeature wird und fände das sinnvoller als die x-te Variante von AO oder irgendwelchen Schattenerweiterungen. Wenn da alle erstmal auf DXR setzen spricht auch nichts dagegen, dass alle zukünftigen Karten das können, die Frage ist nur wie schnell.
 
Raytracing geht auch wunderbar mit der Cryengine und einer Vega 56.
Ja, inklusive wunderbaren Ghosting.

und sichtbar wird dass die RT-Cores von Turing gar nicht so extrem wichtig sind.
In Metro Exodus bringen die RT-Cores bloß einen enormen Leistungsschub. Wer braucht schon Leistung? Schauen wir uns doch einfach wieder Diashows an!

Abgesehen davon das RT an sich kaum Mehrwert bei den wenigen Games bietet wo es jetzt läuft.
Hast du RT schon mal live und in Farbe gesehen? Insbesondere bei Metro Exodus? Sehr wahrscheinlich nicht, sonst würdest du nicht so einen Quatsch schreiben den du nur aus Standbildern und totkomprimierten YouTube Videos ableitest.
 
Zurück