Raytracing: Nvidia schielt auf die Blockbuster

YouTube
Wie misst man denn, ob Spiegelungen akkurat sind, ohne die vergleichende Referenz vorliegen zu haben?
Letztenendes haben die das im post- processing gelöst. Du hast das Ergebnis der Screen- Space- Reflections musst dieses dann per RT um Präzision herzustellen nur noch einmal pro Pixel abtasten.
Gibt es die typischen Screenspace Fehler, also Artefakte oder der zu spiegelnde Bereich liegt außerhalb der Projektionsmatrix, werden in die "unsicheren" Bereichen weitere Strahlen verschossen und um entsprechende Informationen ergänzt.

Wie gesagt- an sich ein super Ansatz, weil im Hybridansatz immer das schnellste Raytracing zu erreichen ist, wenn man sowenig raytraced als nötig. Ich glaube auch, dass ohne diesen Ansatz eine Szenerie, wie sie in Control gezeigt wurde, nicht in der demonstrierten Geschwindigkeit ablaufen könnte, vor allem, weil da so ziemlich alles an raytraced Effekten zusammenläuft, die man so haben kann.

Ich mein das sieht in 1440P jetzt nicht direkt wie eine Ruckelorgie aus, oder?
YouTube

Jo, das stimmt. Ich bezog es eher auf die tatsächlichen Settings und die Ausstattung an Hardware und Peripherie, die man dann zu Hause hat. Manche schalten gerne irgendein Upscaling zu oder verzichten auf Auflösung, andere benutzen einen DCI 4k Monitor :D
Das ist klar- Geschmäcker sind da verschieden. Deswegen finde ich das Spielen am PC nachwievor genial, da man sich das System genau nach seinen Bedürfnissen zusammenschustern kann.

Ich würde eher fragen, warum Änderungen in Engine A Engine B betreffen sollten. Es wird aus dem Satz nicht klar, worauf er sich genau bezieht, er wird aber über sein eigenes Spiel interviewt, daher würde ich das nicht als allgemeingültige Prognose auffassen.
Wenn es dann doch nur am Treiber liegt und so passiert - mea culpa.
Weil sich ja an der Art und Weise Strahlen zu verschießen nichts ändert. Wenn treiberseitig etwas geändert wird, scheint man einen effizienteren Übergabeweg bzw. algorithmus gefunden zu haben, die Strahlen zu sortieren bzw. die Beschleunigungsstrukturen upzudaten.
Lassen wir uns überraschen. Aber letztenendes stimmt es- Es muss nicht zwingend auf die andere verfügbare Software zutreffen. Durch eine Effizienzsteigerung im Treiber ist die Wahrscheinlichkeit aber durchaus hoch, dass auch die andere Software den neuen Kniff nutzen könnte.

Das sieht man so aber nicht in dem Diagramm und lässt sich so daraus auch nicht schlussfolgern. Vergleicht man Customlösung gegen Customlösung schrumpft die Differenz deutlich, ein Spiel ist nicht "in modernen Spielen" und alles was Du jetzt geschrieben hast, hat oben gefehlt.
Dann nehmen wir noch einen low- level API- ler:
rage.JPG

Was Du dort sehen kannst ist übrigens auch, dass AMD durch ihre starke Computeleistung dort ebenfalls immer weiter zulegt... was übrigens auch der technische Grund für das relativ positive Altern der Karten ist. In Compute waren AMD Karten immer überdurchschnittlich stark. Und dahingehend verschiebt sich der Fokus moderner Engines.
Aber klar- Auch das ist kein Beweis, sondern nur eine Tendenz.

Als T&L rauskam ging es heiß her ;).
Na klar- Vor allem, weil die erste Demo, die rauskam (ich glaub das war was mit Strand und Palmen) meiner Erinnerung nach ebenso schlecht lief, wie die ersten RT Demos ;)
Wie gesagt- Alles business as usual...

LG
Zero
 
Zuletzt bearbeitet:
Letztenendes haben die das im post- processing gelöst. Du hast das Ergebnis der Screen- Space- Reflections musst dieses dann per RT um Präzision herzustellen nur noch einmal pro Pixel abtasten.
Gibt es die typischen Screenspace Fehler, also Artefakte oder der zu spiegelnde Bereich liegt außerhalb der Projektionsmatrix, werden in die "unsicheren" Bereichen weitere Strahlen verschossen und um entsprechende Informationen ergänzt.

Wie gesagt- an sich ein super Ansatz, weil im Hybridansatz immer das schnellste Raytracing zu erreichen ist, wenn man sowenig raytraced als nötig. Ich glaube auch, dass ohne diesen Ansatz eine Szenerie, wie sie in Control gezeigt wurde, nicht in der demonstrierten Geschwindigkeit ablaufen könnte, vor allem, weil da so ziemlich alles an raytraced Effekten zusammenläuft, die man so haben kann.

Das kann so nicht sein, es werden ja Objekte, die außerhalb des Screenspace liegen, direkt ausgeblendet, wie das bei SSR eben so ist. Wäre in so einem Fall die Reflexion über RT ergänzt worden, würden die Objekte nicht fehlen. Insbesondere scheint sich die Methode nur auf Objekte transparenten Teilen zu beschränken. Ich würde eher sagen, dass bestimmte Objekttypen nur per Screenspace reflektiert werden. Ich halte das aber in Anbetracht des Leistungsgewinns für eine sinnvolle Lösung.

Ich mein das sieht in 1440P jetzt nicht direkt wie eine Ruckelorgie aus, oder?
YouTube

Es sieht gut aus, ich bin auf ausführliche Technikanalysen gespannt. Und wenn das Gameplay was taugt, kauf ich's mir sowieso auch.


Weil sich ja an der Art und Weise Strahlen zu verschießen nichts ändert. Wenn treiberseitig etwas geändert wird, scheint man einen effizienteren Übergabeweg bzw. algorithmus gefunden zu haben, die Strahlen zu sortieren bzw. die Beschleunigungsstrukturen upzudaten.
Lassen wir uns überraschen. Aber letztenendes stimmt es- Es muss nicht zwingend auf die andere verfügbare Software zutreffen. Durch eine Effizienzsteigerung im Treiber ist die Wahrscheinlichkeit aber durchaus hoch, dass auch die andere Software den neuen Kniff nutzen könnte.

Da kann ich nicht mit spekulieren, man weiß ja nichts.

Dann nehmen wir noch einen low- level API- ler:
Anhang anzeigen 1049568

Was Du dort sehen kannst ist übrigens auch, dass AMD durch ihre starke Computeleistung dort ebenfalls immer weiter zulegt... was übrigens auch der technische Grund für das relativ positive Altern der Karten ist. In Compute waren AMD Karten immer überdurchschnittlich stark. Und dahingehend verschiebt sich der Fokus moderner Engines.
Aber klar- Auch das ist kein Beweis, sondern nur eine Tendenz.

Für solche Benchmarks brauchst Du gar nicht so weit reisen
https://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Tests/Benchmark-Review-1274185/2/

hier steht dann auch der Takt bei.
Vor allem war die Leistung im CPU Limit von AMD immer miserabel. Schon zu DX11 / Mantle Zeiten hat man gesehen, was passieren kann, wenn man die Bremse löst, das jüngste Update für Hitman 2 zeigt das in den CPU intensiven Szenen auch wieder schön.
Aber ja, LL-Apis liegen Turing besser, möchte und mochte ich nicht abstreiten.

Bzgl. "adaptive Shading" in Wolfenstein 2: Sind die Darstellungsfehler eigentlich mittlerweile gefixt?

Rage 2 nutzt übrigens die Apex Engine mit ihrem eigenen GI. Das ist ziemlich subtil und günstig, sorgt aber wie in Just Cause 3 dafür, dass das alles nicht ganz so trist und monoton aussieht. Ist leider kein RT, daher hat sich keine Sau dafür interessiert und man (ich) findet absolut gar nichts zu der Technik dahinter.
Beim Suchen ist mir dann auch aufgefallen, dass SOTR im Gegensatz zu ROTR kein Voxel-AO mehr mitbringt.... versteh einer die Welt.
 
Als T&L rauskam ging es heiß her ;).
Aber: Längst nicht so massiv und bashend wie heute.

Und dabei war T&L zu Beginn eine noch größere Shitshow als DXR heute:
Hardware T&L did not have broad application support in games at the time (mainly due to Direct3D games transforming their geometry on the CPU and not being allowed to use indexed geometries), so critics contended that it had little real-world value. Initially, it was only somewhat beneficial in a few OpenGL-based 3D first-person shooter titles of the time, most notably Quake III Arena. 3dfx and other competing graphics card companies contended that a fast CPU would make up for the lack of a T&L unit.

Witzig irgendwie die Parallele:
ATI's initial response to GeForce 256 was the dual-chip Rage Fury MAXX. By using two Rage 128 chips, each rendering an alternate frame, the card was able to somewhat approach the performance of SDR memory GeForce 256 cards, but the GeForce 256 DDR still retained the top speed.[4] ATI was developing their own GPU at the time known as the Radeon which also implemented hardware T&L.

Wobei ATI mit dem R100 ja immerhin ein halbes Jahr später nachgezogen hat. Bei DXR dauert es ja offensichtlich gute zwei Jahre.

Ich frage mich ja, ob die ganzen Leute wie hoffgang, Mahoy & Co einfach nur nicht alt genug sind, um die Transformation von SW-T&L zu HW-T&L mitbekommen zu haben. Wobei es ja nicht nur T&L war, sondern jeder große Umbruch wie Tessellation, programmierbare Shader, jede DirectX Version und, und, und. Jedes Mal war es das Gleiche und es ist jetzt bei DXR auch wieder das Gleiche. Verstehe einfach nicht, wie man da jetzt so rum bashen kann. :ka:

Außer man weiß es wirklich nicht, weil man erst 12 ist und das die erste GPU ist. Das würde auch vieles mehr erklären :hmm:
 
Digital Foundry "Tech Preview Geschwurbel" zu Control.
YouTube

Für mich zusammengedampft ist übriggeblieben:

- Sie finden es toll, dass man ingame per Tastendruck DXR An/Aus schalten kann, um direkt zu vergleichen - haben es dann aber wohl vergessen zu benutzen? :freak:

- Bei Remedy scheinen sie DXR zur Verfeinerung und/oder Beschleunigung schon bestehender Voxel-GI zu benutzen. Verglichen wurde mit Quantum Break, ich kann mich nicht erinnern, ob das Zeug da dynamisch oder prebaked war, muss ich mal bei Gelegenheit nachschauen. Der Ansatz erinnert so erst mal an das was Crytek präsentiert hat, nur eben auf GI beschränkt. Eine gute Sache finde ich.

- Die contact-hardening Shadows irritieren mich ein wenig, gibt es doch schon drölfzig Varianten von.

- So ganz klar ist mir die GI-Geschichte nicht. Stellenweise ist kein Unterschied vorhanden, dann fehlen da irgendwie Lichtquellen oder Bereiche sind zu dunkel.. - alles in Allem kann man dazu irgendwie nichts sagen. Ich wäre ja wie in Depp vor den Lampen hergelaufen, hätte versucht sie aus zu schießen oder mit Zeugs zu bewerfen um irgendwie zu schauen, ob sich da was ändert. Naja, wenn im fertigen Spiel diverse Räume auseinanderfallen, wird es wohl was zu sehen geben :<

- Optisch den deutlichsten Unterschied wird wohl die RT-Reflexion hervorrufen. Auf Boden und an Scheiben sehr deutlich zu sehen, bei den Rohren hat die YT Kompression glaube ich alles getötet, was mal eine Reflexion gewesen sein wollte.

- Alles wirkt sehr weich an den Kanten - Gott bitte lass sie nicht wieder irgendeinen Temp-Antialiasing-Upsampling-Murks eingebaut haben.

- In den Kommentaren schreibt einer was von einer Veröffentlichung erst 2020, konnte dazu nichts finden, überall steht weiterhin 2019 :D
 
Das kann so nicht sein, es werden ja Objekte, die außerhalb des Screenspace liegen, direkt ausgeblendet, wie das bei SSR eben so ist. Wäre in so einem Fall die Reflexion über RT ergänzt worden, würden die Objekte nicht fehlen. Insbesondere scheint sich die Methode nur auf Objekte transparenten Teilen zu beschränken. Ich würde eher sagen, dass bestimmte Objekttypen nur per Screenspace reflektiert werden. Ich halte das aber in Anbetracht des Leistungsgewinns für eine sinnvolle Lösung.
Doch- Die Objekte fehlten deshalb, weil der Debris- Shader bei battlefield V außerhalb der Geometrie- Pipeline läuft. Und wo keine Geometrie, kann Raytracing nichts spiegeln.
Deswegen mussten sie auf ein Screenspace Verfahren zurückgreifen.

Das war ein Opfer dessen, dass das Spiel eben nicht mit RT im Hinterkopf entwickelt wurde.

Ich habe mir zudem grad das DF Video zu Control angesehen. Auch hier muss ich sagen, dass wenn die wilden Vermutungen stimmen, das einfach geniale Wege sind, um die benötigte Strahlenmenge weiter auf das Wesentliche zu konzentrieren.

Genau so muss es in einem Hybriden Verfahren laufen, will man nicht alles doppelt und dreifach berechnen. Und anhand Control kann man auch sehr schön erkennen, wozu RT fähig ist, wenn man es ein wenig früher in der Implementation berücksichtigen kann.

Und das ist immer das was ich garnicht oft genug betonen kann. Wenn man heute sieht zu welchen möglichen und unmöglichen Shadertricks und Performanceoptimierungen die Entwickler rasterbasiert fähig sind, von denen sich vorher sowas zu Anfangszeiten keiner irgendwie hat träumen lassen, dass das möglich wäre, dann kann man sich in ungefähr ausmalen, mit welchen Tricks findige Köpfe Raytracing bereits heute so einsetzen können, das etwas deutlich besseres als mit jeder Rasterengine rauskommt.

Wir stehen da noch ganz am Anfang aber selbst jetzt sind die Entwicklungs- und Erkenntnissprünge schon immens.

LG
Zero
 
Zuletzt bearbeitet:
Doch- Die Objekte fehlten deshalb, weil der Debris- Shader bei battlefield V außerhalb der Geometrie- Pipeline läuft. Und wo keine Geometrie, kann Raytracing nichts spiegeln.
Deswegen mussten sie auf ein Screenspace Verfahren zurückgreifen.



LG
Zero

Ok, dann wäre das im Video gesagte schlicht falsch. :(
 
Ok, dann wäre das im Video gesagte schlicht falsch. :(

Bezüglich Battlefield V gibt es leider viele Dinge, die Technik betreffend, die "falsch" in den Umlauf gelangt sind. Wie z.B zum Release der Übersetzungsfehler, wo der Tech- Chef bei we toned down the raytracing (weil man sich beschwert hatte, dass die Autos dort wie neu glänzen) fälschlicherweise so übersetzt hat, dass im Deutschen ein "wir haben aus performance- Gründen Raytracing- Effekte entfernt/qualitativ zurückgeschraubt."
Das hat er nie gesagt.

During the demo, certain effects did stand out as if they were exaggerated to showcase Nvidia’s RTX technology, though. Windows in the Rotterdam map were perfectly reflective and paint on the cars was mirror-finished.

DICE’s Holmquist assured us that ray tracing doesn’t change anything about the way art assets are handled in Battlefield V. "What I think that we will do is take a pass on the levels and see if there is something that sticks out," he said. "Because the materials are not tweaked for ray tracing, but sometimes they may show off something that’s too strong or something that was not directly intended. But otherwise we won’t change the levels—they’ll be as they are. And then we might need to change some parameters in the ray tracing engine itself to maybe tone something down a little bit."
Sprich- Wir lassen die Finger von der Levelgestaltung und dann müssen wir halt an den Raytracing Parametern drehen, um das diese unrealistisch übertriebene Darstellung (z.B. spiegelglatter hochpolierter Autos) ein wenig abzuschwächen.

Zusätzlich haben sie natürlich die üblichen Performancehog- Checks durchgeführt und eine kritische Szene dabei entschärft-
Indeed, in one specific scene, DICE dialed back the reflectivity of walls in a room to help improve performance after it was observed that ray tracing hit the frame rate too hard.

Daraus wurde dann in der Presse, dass DICE das Raytracing aus Performancegründen generell stark zurückgeschraubt haben und Effekte gekürzt hätte.
Das ging dann natürlich auch ungeprüft durch viele deutsche Portale.
Insofern- Es ist viel Mist geschrieben worden. Da hilft dann nur tiefer graben, sich in Entwicklerforen rumtreiben und selbst den Kontakt zu den Firmen suchen.

Wenn man das tut, ist man erstaunt, wieviel "Mist" oft von den News- Agenturen einfach ungeprüft von den Publikationen übernommen wird.
In den Köpfen der Leser war das natürlich nur Wasser auf die Mühlen des "Raytracing ist Mist" Hate-Trains.

LG
Zero
 
Zuletzt bearbeitet:
Der Punkt ist halt, dass viele der Kritikpunkte systemimmanent sind. Man kann nicht (und konnte noch nie) erwarten, dass mit Aufkommen einer neuen Technologie plötzlich 100% der neuen Spiele diese unterstützen. Das war noch nie so und wird noch nie so sein. Warum ist das bei RTX plötzlich ein Kriterium?

Du stimmst mir zu dass ess sinnvoll wäre auf Argumente der anderen in Gänze einzugehen... dann tu das auch bitte.
Niemand hat gefordert, dass 100% der Spiele RT unterstützen, mit solchen Behauptungen triffst du exakt den Kern meiner Kritik: Du und andere Pro Nvidia Accs, ihr setzt euch überhaupt nicht mit den Argumenten der anderen User auseinander. 100% Support, vollkommen unrealistisch, das ist jedem Diskussionsteilnehmer auch vollkommen bewusst.

Was kritisiert wird ist wie Nvidia Marketing betrieben hat.
- Es gab zu Release von Turing 3 Spiele die in absehbarer Zeit RT unterstützen würden, BF5, Anthem und Metro. Das wäre in Ordnung gewesen, wenn die Pipeline voll gewesen wäre mit AAA Titeln. War Sie nicht.
- 9 Monate nach Release von Turing! werden endlich neue AAA Titel angekündigt welche die Tech unterstützen. Diese Titel werden z.t. erst in 2020 released und damit 2 Jahre nach Turing Release.

Gleichzeitig hat Nvidia aber den Preis der Turing Karten erhöht.
Man führt ein Feature ein was auf absehbare Zeit (mehrere Jahre!!!) nur homöpathisch unterstützt wird, verlangt dafür mehr Geld und glaubt, niemand würde das kritisieren?


Siehe Mahoy mit seiner genialen "Warum baut NVIDIA nicht parallel zur RTX-Reihe eine günstigere GTX-Reihe?"-Strategie. Wann gab es das jemals? Und hätte sich irgendeine Technologie jemals durchgesetzt, wenn man so verfahren wäre? Vielleicht ja, sicherlich aber deutlich schwieriger.
Und genau an diesem Punkte trennt sich dann eurer angeblich sachliche Kritik von der Sachlichkeit und wird zum Bashing.

Nein. Er hat einen sehr guten Punkt.
Wenn Nvidia RTX in Form einer Titan in den Markt gebracht hätte, eine GTX Reihe aufgesetzt und dann der Software Zeit gegeben hätte sich an RT anzupassen, das wäre alle Fliegen mit einer Klappe erschlagen. Nvidia hat RTX bis runter zur 2060 in den Markt gedrückt, ob das sinnvoll war oder nicht und der Mehrwert von RTX Kernen ist derzeit absolut überschaubar. Wie gesagt, dass neue AAA Titel angekündigt sind ist gut, das nützt RTX Käufern der ersten Stunde seit Monaten aber garnichts. Das ist kein Bashing, sondern nüchtern betrachtete Faktenlage. RTX Kerne liegen die meiste Zeit untätig in der GPU rum und machen garnichts, es sei denn man spielt nur noch BF5, Metro SotTr, oder Quake 2 (Anthem spielt ja sowieso niemand mehr).
Spielt man Resident Evil 2, Far Cry New Dawn, Apex Legends, PUBG, DMC5, Tropico 6, Anno 1800, World War Z, Mortal Kombat 11, oder irgendeinen anderen MP Kracher bzw AAA Titel der bislang releast wurde, dann schlafen die RTX Kerne und ruhen sich aus.
Nvidia hat RTX zu früh in die Breite des Marktes gepusht anstatt es zunächst für Enthusiasten verfügbar zu machen - jetzt muss man sich eben auch eine Debatte über Nutzbarkeit und Kosten gefallen lassen.

Es würde tatsächlich der Sache sehr helfen und man käme mal tatsächlich von eurem Bashing hin zu einer sachlichen Diskussion, wenn man endlich mal merken würde, dass DXR/RTX kein Stückchen anders eingeführt wird, wie jede andere Technologie zuvor.

Kannst du das bitte mit Beispielen belegen?
Wenn ich mal zurückdenke, dann fallen mir irgendwie keine Beispiele ein in denen Hardware teurer wurde für ein Feature was am Ende fast nicht nutzbar war weil es keine Software gegeben hat.
 
Was kritisiert wird ist wie Nvidia Marketing betrieben hat.
- Es gab zu Release von Turing 3 Spiele die in absehbarer Zeit RT unterstützen würden, BF5, Anthem und Metro. Das wäre in Ordnung gewesen, wenn die Pipeline voll gewesen wäre mit AAA Titeln. War Sie nicht.
Da kannst Du aber dem nvidia Merketing keinen schwarzen Peter zuschieben. Wo haben die denn jemals behauptet, dass mehr realease- Titel verfügbar wären. Oder dass sofort welche nachfolgen werden?
Der User, der RTX Karten um des Raytracings Willen gekauft hat, wusste sehr genau, dass es wie bei jeder Neueinführung keine Softwareschwemme geben würde und es Zeit braucht, bis Software entstehen kann, die diese Technologie neben den RT angeflanschten Vergewaltigten rasterbasierten Spielen auch mit RT Option im Hinterkopf entwickelt werden können.

- 9 Monate nach Release von Turing! werden endlich neue AAA Titel angekündigt welche die Tech unterstützen.
Ja- Ein Teil tröpfelt 2019 ein und ein Teil 2020.

Diese Titel werden z.t. erst in 2020 released und damit 2 Jahre nach Turing Release.
Ja- Wenn es ein Titel sein sollte, der für Ende 2020 angekündigt wurde, dann ist dem so. Wenn etwas Anfang 2020 kommt, sind wir weit von den von Dir genannten 2 Jahren entfernt.

Gleichzeitig hat Nvidia aber den Preis der Turing Karten erhöht.
Haben sie nicht. Sie haben eine Karte RTX2080 die ebenso stark ist (in modernen Titeln stärker) als eine 1080TI zum gleichen Preis auf den Markt geworfen mit einer deutlich modernisierten Technik und einem deutlich erweiterten Featureset, ausgerichtet auf die zukünftigen Anforderungen der Entwickler.

Man führt ein Feature ein was auf absehbare Zeit (mehrere Jahre!!!) nur homöpathisch unterstützt wird, verlangt dafür mehr Geld und glaubt, niemand würde das kritisieren?
Doch- Weil die Vergangenheit gezeigt hat, dass das Einführen von neuen Features immer den gleich Shitstorm hervorruft. Da kräht aber kein Hahn danach, weil es demnach überhaupt keine großen Fortschritte mehr gäbe, wenn man den immergleichen Schreihälsen Beachtung schenken würde. An der Anzahl der angekündigten sieht man sehr schön, dass Raytracing im Gegensatz zu anderen Technikeinführungen sogar relativ schnell Traktion gewinnt.
26 angekündigte und zum Teil erhältliche Spiele innerhalb von 8 Monaten ab Release ist eine noch nie dagewesene Adaptionsrate.
Die UE4.23 Engine ist Raytracing ready mit allen Spielereien. Auch die Unity Engine ist bald so weit. Das heisst, dass man sich in Zukunft auf einen haufen RT- Spiele einstellen kann, weil die Option so gut wie "kostenfrei" für den Entwickler einfach mitgeliefert wird.

Kannst du das bitte mit Beispielen belegen? Wenn ich mal zurückdenke, dann fallen mir irgendwie keine Beispiele ein in denen Hardware teurer wurde für ein Feature was am Ende fast nicht nutzbar war weil es keine Software gegeben hat.
z.B. Adlib/Soundblaster/Gravis Ultrasound/Super-VGA Grafikkarten/Alles um 3DFX Voodoo Chips (GLide Schnittstelle), CD- ROM Laufwerke etc.
Da wars immer Zappenduster am Anfang mit Unterstützung. Das war den Leuten aber egal, weil sie einfach heiss auf neue Technik waren und sich über Innovation gefreut haben und sich zumindest ausmalen konnten, wie es mal aussieht, wenn es breiflächig unterstützt würde.

Heutzutage herrscht gerade in Deutschland absolute Technikverdrossenheit. Die Leute sind sattgefressen und bremsen den Fortschritt, wo es nur geht, weil Innovation zwangsläufig auch immer ein wenig Veränderung und "Beweglichkeit" einfordert. Damit sägen wir wirtschaftlich genau an dem Ast, auf dem wir sitzen....

Da haben uns andere Länder weit, weit überholt was die akzeptanz, Neugier und die Freude bezüglich technischer Innovation anbelangt.

Sorry fürs hijacken.
LG
Zero
 
Zuletzt bearbeitet:
Da kannst Du aber dem nvidia Merketing keinen schwarzen Peter zuschieben. Wo haben die denn jemals behauptet, dass mehr realease- Titel verfügbar wären. Oder dass sofort welche nachfolgen werden?
Der User, der RTX Karten um des Raytracings Willen gekauft hat, wusste sehr genau, dass es wie bei jeder Neueinführung keine Softwareschwemme geben würde.

Das würde ich nicht automatisch verbinden. Nach "It just works" wurde suggiert, dass Raytracing problemlos umsetzbar wäre. GLeichzeitig fehlt dem Käufer bei Turing Release eine Alternative.
1080 / 1080ti waren recht schnell vergriffen, d.h. man hatte keine Wahl, wenn man aufrüsten wollte, als zu Turing zu greifen, oder in den unteren Ebenen von Pascal zuzugreifen.


Ja- Ein Teil tröpfelt 2019 ein und ein Teil 2020.
Ja- Wenn es ein Titel sein sollte, der für Ende 2020 angekündigt wurde, dann ist dem so. Wenn etwas Anfang 2020 kommt, sind wir weit von den von Dir genannten 2 Jahren entfernt.

Richtig, es tröpfelt. Da hilft auch keine Wortklauberei, ob es am Ende genau 2 Jahre werden oder nicht. Mit Glück haben wir 2 Jahre nach Relase 10-15 Spiele mit RT. Zu diesem Zeitpunkt könnte Ampere bereits auf dem Markt sein.
D.h. RT in Turing hat sich im Grunde für keinen Käufer gerechnet und wer RT haben will, der kann mit Ampere auf einer besseren Grundlage RT mit mehr Leistung erwerben.


Haben sie nicht. Sie haben eine Karte RTX2080 die ebenso stark ist (in modernen Titeln stärker) als eine 1080TI zum gleichen Preis auf den Markt geworfen mit einer deutlich modernisierten Technik und einem deutlich erweiterten Featureset, ausgerichtet auf die zukünftigen Anforderungen der Entwickler.

Was eine Blenderei...
Eine 1070 und eine 980ti liegen leistungstechnisch ähnlich, erstere hatte einen Einführungspreis von 379$, letztere von 699$. D.h. der Kunde hat dieselbe Leistung für 40% WENIGER Kosten bekommen UND noch 2 GB Vram obendrauf. Dabei gabs modernisierte Technik, erweitertes Featureset, bessere Effizienz...
Bei Turing, wie du richtig sagst, bekommt er die GLEICHE Leistung, fürs GLEICHE Geld + Raytracing. Oh und weniger Vram.

Die 30% Mehrleistung die man in jedem Gen Sprung erwarten kann, die sind von Pascal zu Turing aber 300$ TEURER geworden.
Also wenn du es positiv findest dass Nvidia gnädigerweise dieselbe Leistung zum gleichen Preis bei Einführung einer neuen Gen präsentiert, dann muss ich meinen Hut vor der Marketingarbeit der Grünen ziehen.


z.B. Adlib/Soundblaster/Gravis Ultrasound/Super-VGA Grafikkarten/Alles um 3DFX Voodoo Chips (GLide Schnittstelle), CD- ROM Laufwerke etc.
Da wars immer Zappenduster am Anfang mit Unterstützung. Das war den Leuten aber egal, weil sie einfach heiss auf neue Technik waren und sich über Innovation gefreut haben und sich zumindest ausmalen konnten, wie es mal aussieht, wenn es breiflächig unterstützt würde.

Lustig, CD Rom wurde von interessanter Software gepusht und eben nicht andersrum. Dort hat Software die jeder haben wollte den Verkauf der Hardware beschleunigt, z.b. Rebel Aussalt 1993. Hab ich im anderen Thread bereits behandelt.

Zum Thema Glide:
Durch die von 3dfx speziell für den Voodoo Graphics entwickelte Programmierschnittstelle Glide, die Spieleentwicklern eine einfache und leistungsfähige Schnittstelle zur 3D-Hardware bot, sowie durch die Unterstützung des von Silicon Graphics etablierten OpenGL-Standards erfreute sich der Voodoo Graphics bald breiter Akzeptanz durch die Spielehersteller.
Auch hier wurde Software erstellt die den Verkauf der Hardware gefördert hat, nicht andersrum. Niemand hat ne Voodoo gekauft wenn er sie nicht hätte nutzen können..
While there were many games that used Glide, the killer application for Voodoo Graphics was the MiniGL driver developed to allow hardware acceleration of the game Quake by id Software.
Nur eines der bahnbrechendsten und wichtigsten Spiele im Shooter Genre...

Aktuell fehlt Raytracing das, was CDRom & Voodoo hatten: Einen Titel an dem man einfach nicht vorbeikommt und der in RT unfassbar gut aussieht, sodass jeder dieses Erlebnis für sich mache möchte.


Ich frage mich ja, ob die ganzen Leute wie hoffgang, Mahoy & Co einfach nur nicht alt genug sind, um die Transformation von SW-T&L zu HW-T&L mitbekommen zu haben. Wobei es ja nicht nur T&L war, sondern jeder große Umbruch wie Tessellation, programmierbare Shader, jede DirectX Version und, und, und. Jedes Mal war es das Gleiche und es ist jetzt bei DXR auch wieder das Gleiche. Verstehe einfach nicht, wie man da jetzt so rum bashen kann.
noahnung.gif

Weil du es nicht verstehen willst.
Hardware T&L ist ein so mieses Beispiel, weil erneut, Software die extrem populär war zum Verkauf von Hardware beigetragen hat. Quake 3 ist DER MP Shooter dieser Ära, man hat seinen PC extra DESWEGEN aufgerüstet.
Und ich bin alt genug dich und jeden anderen der Nvidia Bande in QIII einhändig zu besiegen.
 
Zuletzt bearbeitet:
Das würde ich nicht automatisch verbinden. Nach "It just works" wurde suggiert, dass Raytracing problemlos umsetzbar wäre. GLeichzeitig fehlt dem Käufer bei Turing Release eine Alternative.
1080 / 1080ti waren recht schnell vergriffen, d.h. man hatte keine Wahl, wenn man aufrüsten wollte, als zu Turing zu greifen, oder in den unteren Ebenen von Pascal zuzugreifen.
It just works war aber nicht auf eine problemlose Umsetzung gemünzt, sondern auf das, was diese Technik ausmacht. Also für die Spieleentwickler. Du wirfst dem System ein par Brocken hin und der Rest wird von der Technik erledigt. Das kommt, wenn man sich das Video ansieht auch unmissverständlich raus, dass "it just works auf" auf das funktionieren der Technik anspielt und nicht auf einen Softwareport oder ein nachträgliches Einfügen bei einem fertigen Spiel.
Statt händisch tausende von Fake- Lights, Light Probes etc. zu setzen, setzt man einfach an gewünschte Stelle ein RT- Licht und schon wird alles realistisch mit perfekten Schatten, Lightbounces etc. dargestellt.

Richtig, es tröpfelt. Da hilft auch keine Wortklauberei, ob es am Ende genau 2 Jahre werden oder nicht.
Doch- Weil das ein Indikator der Adaptionsrate ist. Und da zählt jeder Monat.

Mit Glück haben wir 2 Jahre nach Relase 10-15 Spiele mit RT. Zu diesem Zeitpunkt könnte Ampere bereits auf dem Markt sein.
Mit Glück haben wir aber vielleicht auch 30-40 Spiele mit RT. Die ersten Entwickler sind schon dabei ihre Spiele auf die neueste UE Engine zu heben, um bei bestehenden Titeln RT anbieten zu können.

D.h. RT in Turing hat sich im Grunde für keinen Käufer gerechnet und wer RT haben will, der kann mit Ampere auf einer besseren Grundlage RT mit mehr Leistung erwerben.
Genau und mit der Nachfolgegeneration kann er wahrscheinlich noch mehr Leistung für RT haben.

Was eine Blenderei...
Eine 1070 und eine 980ti liegen leistungstechnisch ähnlich, erstere hatte einen Einführungspreis von 379$, letztere von 699$. D.h. der Kunde hat dieselbe Leistung für 40% WENIGER Kosten bekommen UND noch 2 GB Vram obendrauf. Dabei gabs modernisierte Technik, erweitertes Featureset, bessere Effizienz...
Wie ist denn das Deiner Meinung nach überhaupt möglich, wenn nvidia den Kunden nur "aussaugen" will?

Bei Turing, wie du richtig sagst, bekommt er die GLEICHE Leistung, fürs GLEICHE Geld + Raytracing. Oh und weniger Vram.
Die 2080 hängt die 1080 TI zukünftig weiter ab. Ich glaub derzeit sind wir bei 8% Leistungsvorsprung. Durch das modernere Featureset wird sich die Lücke weiten.

Der Aufwand um Rasterbasierte Karten schneller zu machen steigt sprunghaft an und wird irgendwann da landen, wo wir bei Prozessoren heute schon angelangt sind.
Außer- und jetzt kommts- man findet eine Technik, die perfekt mit der Kernzahl skaliert.

Die 30% Mehrleistung die man in jedem Gen Sprung erwarten kann, die sind von Pascal zu Turing aber 300$ TEURER geworden.
Sowas gabs bei Zeiten von AMD mit den Karten und nVidia mit den GX2 Karten auch schon.
Die Matrox Parhelia war für 550,-€ zu haben. TNT2 Ultra auch um die 550,-€, Hercules Prophet III für 1449,-DM, Geforce 3 TI 500 für 799,-DM, Geforce 5800 Ultra 600€, 700€ für eine 8800 Ultra, Geforce 7950 GX2 für 650,-€, GTX 690 - 1000€ UVP, Radeon X850 XT-PE 600,-€, Powercolor HD 7990 Devil 13 1000,-€ usw. usf.

Ziemlich teuer mit manchmal sehr eingeengtem Nutzen bzw. wenig Geschwindigkeitsplus. Man braucht hier nicht so zu tun, als ob man für die Top- Leistung nicht schon immer einen Shitload an Geld hätte hinlegen müssen (für die letzten 20%-30%).
Und es ist mit Nichten so, dass man bei jeder Gen einen Sprung von 30% erwarten kann und konnte.

Also wenn du es positiv findest dass Nvidia gnädigerweise dieselbe Leistung zum gleichen Preis bei Einführung einer neuen Gen präsentiert, dann muss ich meinen Hut vor der Marketingarbeit der Grünen ziehen.
Nö- Sie hätten auch einfach garnichts bringen müssen, da es keine Konkurrenz gibt/gab und hätten einfach noch mehr Reibach mit alter, billig zu produzierender Technik machen können.

Lustig, CD Rom wurde von interessanter Software gepusht und eben nicht andersrum. Dort hat Software die jeder haben wollte den Verkauf der Hardware beschleunigt, z.b. Rebel Aussalt 1993. Hab ich im anderen Thread bereits behandelt.
Genau- Und so gibt es eben auch jene, die ein Metro Exodus, ein Shadow of the tomb raider und ein Battlefield mit deutlich besserer Grafik spielen wollen und diese Technologie von Anfang an begleiten.
Zum Thema Glide:

Auch hier wurde Software erstellt die den Verkauf der Hardware gefördert hat, nicht andersrum. Niemand hat ne Voodoo gekauft wenn er sie nicht hätte nutzen können..
Analog dazu die Fähigkeiten der neuen Unreal Engine.

Nur eines der bahnbrechendsten und wichtigsten Spiele im Shooter Genre...
Mal sehen wie Cyberpunk mit Raytracing einschlägt... Zudem wird es einen System- Seller, wie es ihn zu damaligen Zeiten gab sowieso nicht mehr geben können. Jedes Genre ist bereits entdeckt und überfrachtet.
Es gibt also nichts, was man zwingend haben müsste bzw. ohne den Besitz des Titels man etwas verpassen würde.
Spielt man halt einen der 3Mrd. anderen gleichartigen Titel...
Die Einmaligkeit bleibt nun mal der Generation der Computerpioniere vorbehalten.

Aktuell fehlt Raytracing das, was CDRom & Voodoo hatten: Einen Titel an dem man einfach nicht vorbeikommt und der in RT unfassbar gut aussieht, sodass jeder dieses Erlebnis für sich mache möchte.
Den wird es gemäß der Technikverdrossenheit, der Sattgefressenheit an Grafikqualität und der Anspruchshaltung nie geben können. Kann man sehr gut an den vielen Kommentaren erkennen, die klarstellen, dass sie keinen Unterschied sehen, wenn Raytracing an- oder ausgeschalten ist. Oder das Bild sogar noch schlechter finden. Da kann kommen was will. Nichts kann leute, die sich nicht begeistern lassen wollen vom Hocker hauen.

Wie gesagt- In Sachen Technikfeindlichkeit und Konservativismus ist D aktuell inzwischen fast nicht mehr zu schlagen. Da könnte sonstnochwas an Neuerungen herauskommen.
Dass entlockt dem Deutschen, wenn es sich nicht gerade um ein Ding handelt, was vielleicht als Statussymbol herhalten kann, nur ein müdes Lächeln.
 
Zuletzt bearbeitet:
Du stimmst mir zu dass ess sinnvoll wäre auf Argumente der anderen in Gänze einzugehen... dann tu das auch bitte.
Niemand hat gefordert, dass 100% der Spiele RT unterstützen, mit solchen Behauptungen triffst du exakt den Kern meiner Kritik: Du und andere Pro Nvidia Accs, ihr setzt euch überhaupt nicht mit den Argumenten der anderen User auseinander. 100% Support, vollkommen unrealistisch, das ist jedem Diskussionsteilnehmer auch vollkommen bewusst.
Und da wunderst du dich, dass man dich als angeblich "neutralen" und "sachlichen" Teilnehmer nicht ernst nehmen kann? :lol:

Was kritisiert wird ist wie Nvidia Marketing betrieben hat.
- Es gab zu Release von Turing 3 Spiele die in absehbarer Zeit RT unterstützen würden, BF5, Anthem und Metro. Das wäre in Ordnung gewesen, wenn die Pipeline voll gewesen wäre mit AAA Titeln. War Sie nicht.
Welche AAA Titel gab es denn seitdem, die kein DXR unterstützt haben?

Wenn keine Titel mehr erscheinen, können sie logischerweise auch kein DXR supporten, oder?

- 9 Monate nach Release von Turing! werden endlich neue AAA Titel angekündigt welche die Tech unterstützen. Diese Titel werden z.t. erst in 2020 released und damit 2 Jahre nach Turing Release.
Also wenn ein Titel wie Cyberpunk im April erscheint, wie kommt man da ohne eine massive Rechenschwäche auf zwei Jahre?

Nenne doch mal kurz bitte konkret die Titel, die angekündigt sind und erst zwei Jahre nach Turing Release erscheinen.
Und wo war es bei anderen Technologien anders?

Gleichzeitig hat Nvidia aber den Preis der Turing Karten erhöht.
Man führt ein Feature ein was auf absehbare Zeit (mehrere Jahre!!!) nur homöpathisch unterstützt wird, verlangt dafür mehr Geld und glaubt, niemand würde das kritisieren?
Und AMD den Preis der Vega- und Navi-Karten. Und bieten nicht mal ein neues Feature. Damit hast du ja komischerweise gar kein Problem. Warum nur? Ach, wissen wir ja, auch wenn du es nicht zugeben willst :ugly:

Nein. Er hat einen sehr guten Punkt.
Wenn du so gern mit ihm vor den Bus springst:

Bitte zeig mir die Vergleichsbeispiele mit alten Technologien wie T&L, Tesselation, Computable Shadern oder DirectX-Sprung. Mir egal, irgendeine davon. Zeig mir, wie damals ein IHV da anders gehandhabt hat und den Mahoy-Vorschlag umgesetzt.

Ach? Hat er nicht? Es war schon immer so, wie es mit RTX jetzt passiert? Ja, eben genau deshalb, ist eure "Kritik" einfach nur Bashing.

Kannst du das bitte mit Beispielen belegen?
Wenn ich mal zurückdenke, dann fallen mir irgendwie keine Beispiele ein in denen Hardware teurer wurde für ein Feature was am Ende fast nicht nutzbar war weil es keine Software gegeben hat.
Tja, muss der Opa den Enkeln wohl mal wieder vom Krieg erzählen:
The GeForce 256 was also quite expensive for the time and it didn't offer tangible advantages over competitors' products outside of 3D acceleration.
Anandtech Review:
On October 11, 1999, NVIDIA introduced their brand-new graphics chipset to the world, the GeForce 256. Just about a month later, the GeForce started appearing in cards made by, among other companies, Creative Labs and Guillemot on store shelves, as well as in the hands of online vendors. The price was and still is quite steep for a single peripheral, especially considering that we are currently in a period where a relatively powerful gaming system can be had for around $1000 - $1500.
But then again, everything is relative, right? So the actual severity of the price depends on the overall experience though, correct? If you pay $300 for a graphics card and barely get an extra 5 fps under your favorite game then the card wasn't really worth $300 to you in the first place, now was it?

Then again, if you purchase a $300 card and, immediately after firing up your favorite game, it feels like you've never even seen the title before this moment, the card quickly begins to earn its value.

For many users, the feelings they were left with after seeing what NVIDIA's GeForce could do, were sort of in limbo between the "eh, whatever" and "I have seen the light" reactions. Even in our own tests, the conclusion after reviewing the GeForce was that it's the fastest chip in its class, but nothing more. While the GeForce boasts a fairly powerful hardware transforming & lighting engine, which NVIDIA cutely dubbed their GPU, the overall experience with the GeForce ended up being nothing more than faster gameplay at 1024 x 768, but still not capable of driving higher resolutions at 32-bit color.

For the minimum $249 cost of a card based on the GeForce, many TNT2 Ultra owners found themselves truly not interested in throwing away around $300 on a card that wouldn't improve the gaming experience significantly. While it is true that games with a high polygon count would take advantage of the GeForce's hardware T&L and could potentially perform much better on a GeForce than on any other card, it is also true that we have yet to see a game of that nature and when one does become available (it's inevitable), the GeForce will also carry a noticeable lower price tag (this is also inevitable). So for the NVIDIA loyalists that spent the $300 on a TNT2 Ultra the minute it became available, was the GeForce going to be another $300 "well spent?" Not this time around, not unless NVIDIA could offer a little more for the money.

It's alright to produce a product with flaws, just don't plan on it selling as well as one that is closer to achieving that flawless state that engineers strive for. NVIDIA's GeForce had an inherent flaw; its relatively low memory clock (in comparison to a TNT2 Ultra) and single 128-bit memory bus left it with a noticeable bottleneck from the start -- memory bandwidth.
TNT2 Ultra war 229$, GeForce 299$.

Weil du es nicht verstehen willst.
Hardware T&L ist ein so mieses Beispiel, weil erneut, Software die extrem populär war zum Verkauf von Hardware beigetragen hat. Quake 3 ist DER MP Shooter dieser Ära, man hat seinen PC extra DESWEGEN aufgerüstet.
Ich verstehe es nicht, weil es Bullshit ist. Und ich weigere mich unlogischen Bullshit zu verstehen.

Und es stimmt auch gar nicht. Man merkt, dass du die Zeit gar nicht erlebt hast. Gleichzeitig zu QuakeIII erschien nämlich UT (da du es wahrscheinlich nicht weißt: Unreal Tournament) und die beiden haben sich einen Battle um den Platz 1 der MP-Shooter geliefert, ähnlich wie heute Battlefield und CoD oder PUBG und Fortnite.

UND: UT hatte nämlich genau KEINEN Support für die T&L-Funktionen der GeForce, sondern eine eigene, CPU-basierte T&L-Engine.

Ich frage mich wirklich, wie oft und wie lange wir euch noch erklären müssen, dass ihr euch über Dinge aufregt, die völlig normal so sind und immer schon so waren. So dermaßen verbohrt kann man doch nicht sein, dass man nicht langsam mal merkt sich völlig verrudert zu haben? Ach so, du wahrscheinlich tatsächlich schon. Mahoy antwortet ja lieber gar nicht mehr, nicht ohne Grund.

Eine 1070 und eine 980ti liegen leistungstechnisch ähnlich, erstere hatte einen Einführungspreis von 379$, letztere von 699$. D.h. der Kunde hat dieselbe Leistung für 40% WENIGER Kosten bekommen UND noch 2 GB Vram obendrauf. Dabei gabs modernisierte Technik, erweitertes Featureset, bessere Effizienz...
980Ti: 28nm, 1070: 16nm, RTX2080: 16nm

Vielleicht merkst du jetzt mal, was fehlt und wo das Problem herkommt. Wahrscheinlich nicht, weil es geht dir ja nicht um sachliche Kritik, sondern um NVIDIA-Bashing. Da ist es besser, Industrie-weite Probleme (wie eben die komplizierter und teurer gewordene Fertigung) zu ignorieren und einfach Äpfel mit Birnen zu vergleichen.

Aktuell fehlt Raytracing das, was CDRom & Voodoo hatten: Einen Titel an dem man einfach nicht vorbeikommt und der in RT unfassbar gut aussieht, sodass jeder dieses Erlebnis für sich mache möchte.
Was zeigt, dass du eben noch nie Metro Exodus mit RT gezockt hast ;-)

Für deine Blindheit können aber wir oder NVIDIA, sondern nur du etwas.

Und ich bin alt genug dich und jeden anderen der Nvidia Bande in QIII einhändig zu besiegen.
Immerhin, in Selbstüberschätzung bist du tatsächlich ungeschlagen, Kleiner :daumen:

Heutzutage herrscht gerade in Deutschland absolute Technikverdrossenheit. Die Leute sind sattgefressen und bremsen den Fortschritt, wo es nur geht, weil Innovation zwangsläufig auch immer ein wenig Veränderung und "Beweglichkeit" einfordert. Damit sägen wir wirtschaftlich genau an dem Ast, auf dem wir sitzen....

Da haben uns andere Länder weit, weit überholt was die akzeptanz, Neugier und die Freude bezüglich technischer Innovation anbelangt.
Wie gesagt- In Sachen Technikfeindlichkeit und Konservativismus ist D aktuell inzwischen fast nicht mehr zu schlagen. Da könnte sonstnochwas an Neuerungen herauskommen.
Dass entlockt dem Deutschen, wenn es sich nicht gerade um ein Ding handelt, was vielleicht als Statussymbol herhalten kann nur ein müdes Lächeln.
Besser hätte ich es nicht zusammen fassen können. Das schlimmste ist vor allem, dass die, die gegen dise Technikverdrossenheit angehen, hier im Forum auch noch beleidigt und diffamiert werden.

It just works war aber nicht auf eine problemlose Umsetzung gemünzt, sondern auf das, was diese Technik ausmacht. ALso für die Spieleentwickler. Du wirfst dem System ein par Brocken hin und der Rest wird von der Technik erledigt.
Statt händisch tausende von Fake- Lights, Light Probes etc. zu setzen, setzt man einfach an gewünschte Stelle ein RT- Licht und schon wird alles realistisch mit perfekten Schatten, Lightbounces etc. dargestellt.
Immer faszinierend, wie der große Vollchecker hoffgang plötzlich mit einem Posting zeigt, dass er gar nicht verstanden hat, warum und worüber er sich aufregt :ugly:

Vielleicht habe ich ihn doch etwas zu jung geschätzt. Kommt mir eher wie das verhalten eines greisen Opas vor, für den eben früher immer alles Besser war, der dann aber leider während der Hasstirade vergisst, worüber er sich eigentlich aufregt :ugly:
 
Zuletzt bearbeitet:
Besser hätte ich es nicht zusammen fassen können. Das schlimmste ist vor allem, dass die, die gegen dise Technikverdrossenheit angehen, hier im Forum auch noch beleidigt und diffamiert werden.
Das hatt ich weiter oben schonmal geschrieben, dass man das unter anderem aus Gründen der Besitzstandswahrung macht.

Denn lasse ich doch ein gutes Haar am aktuell praktizierten Raytracing, könnte es ja sein, dass das Begehrlichkeiten weckt. Dann wiederum müsste man vielleicht tatsächlich ungewohnt viel Geld in die Hand nehmen, um das ganze eben auch geniessen zu können und sich nicht abgehängt zu fühlen.

Im Rudel fühlt man sich da wohl und sobald sich mehrere Personen gefunden haben, die auf Raytracing eindreschen, hat man auch schnell seine eigene Neugier überwunden und das Gewissen wieder beruhigt. Ich kenn das nur zu gut. Bin auch nur ein Mensch und nicht frei von solchen Gefühlen.
Und Argumente für oder gegen etwas kann man sich immer genügend aus den Fingern saugen und dementsprechend Stimmung für sich selbst machen. Wird ja hier eben auch ausgiebig gemacht.
Wie Du schon sagst, die normale und über Jahrzehnte übliche Dinge werden dann auf einmal zum "Aufreger".

Dennoch - Wenn er RT nicht will, dann ist das sein gutes Recht. Dann braucht er sich aber auch nicht über die RTX Generation aufregen, die nunmal als Hauptgrund der Einführung die Unterstützung von Hardware- Raytracing hatte.
Die kann ja jeder der nicht interessiert ist, einfach auslassen. So einfach ist das. Es glauben zwar viele nicht, aber es zwingt einen tatsächlich keiner dazu Dinge zu kaufen, die man nicht will oder nicht toll findet.

Allerdings verwundert es mich immer wieder, dass es viele Kandidaten gibt, die den Unterschied von Raytracing nicht zu erkennen scheinen, dann aber mindestens 4K und 160FPS Spielen müssen, weil sie sonst Augenkrebs bekommen. Ab da wird das ganze für mich dann sagen wir mal etwas unglaubwürdig.

Und BohemianRapsod ich würde Dir gerne ein "Gefällt mir" auf Deine Beiträge geben, da sie ja auch wirklich auch Substanz liefern, aber die sind mir in Teilen zu offensiv.
Ich denke, dass dieser Thread ja nicht dazu da ist um andere zu vertreiben. Im Gegenteil. Man kann durch solch einen Thread vielleicht Missverständnisse aus dem weg räumen und vielleicht dem einen oder den anderen die Scheu vor Raytracing nehmen.
Ich finde es konstruktiv, dass man da entsprechend über die Vorwürfe spricht und dann Für und Wider abwägen kann.

Eine Diskussion kann ja ohne einen entsprechenden Mitstreiter nicht stattfinden... Meinst nicht auch?

LG
Zero
 
Zuletzt bearbeitet:
Dennoch - Wenn er RT nicht will, dann ist das sein gutes Recht. Dann braucht er sich aber auch nicht über die RTX Generation aufregen, die nunmal als Hauptgrund der Einführung die Unterstützung von Hardware- Raytracing hatte.
Die kann ja jeder der nicht interessiert ist, einfach auslassen. So einfach ist das. Es glauben zwar viele nicht, aber es zwingt einen tatsächlich keiner dazu Dinge zu kaufen, die man nicht will oder nicht toll findet.
Hat auch niemand was dagegen. Nur tut er das ja nicht einfach, sondern erzählt überall wie ******* RT ist, wie ******* NVIDIA ist, was für Abzocke, Kundenverarschung etc. pp.

Und da widerspreche man halt.

Und BohemianRapsod ich würde Dir gerne ein "Gefällt mir" auf Deine Beiträge geben, da sie ja auch wirklich auch Substanz liefern, aber die sind mir in Teilen zu offensiv.
Ist ok, muss jeder für sich wissen. Wenn du dir allerdings genauso viele Beleidigungen hättest durchlesen müssen wie ich (werde im Thread parallel schon wieder als "Troll" und Multiaccount beschimpft), dann ändert man natürlich auch seine Ausdrucksweise. Das hier sind ja die üblichen hoffgang-Sticheilen:
Du und andere Pro Nvidia Accs

Da darf er sich nicht wundern, dass es aus dem Wald heraus kommt, wie er reinbrüllt.

Finde es gut, dass du da kein "Gefällt mir" gibst. Die Kollegen rund um hoffgang geben gerade den Posting mit den krassesten Beleidigungen die meisten Likes. Gleichzeitig tun sie aber so, als wären sie um das Forenklima bemüht. Ein reiner Witz.

Danke für deine gehaltvollen und geistreichen Postings :daumen:
 
Wie ist denn das Deiner Meinung nach überhaupt möglich, wenn nvidia den Kunden nur "aussaugen" will?

Und wieder jemand der einfach nicht die Argumentation verstehen will, sondern stumpf denselben Kanon runterpredigt.
Das Argument, was der typische Pro Nvidia Second, Third, oder sonstwas Acc ums verrecken nicht verstehen will:
Nvidia hat von Pascal, zu Turing, die Preis erhöht, das unter anderem mit einem Feature, was nur homöpathisch nutzbar ist begründet.

Sobald auch bei Dir angekommen ist, dass ich die Kritik auf die Entwicklung der Preise von Pascal zu Turing bezieht, merkst du vllt selbst das Nvidia in der Vergangenheit, z.b. beim Übergang von Maxwell auf Turing, die Leistungssteigerung für einen wesentlich geringeren Aufpreis an den Kunden weitergegeben hat.

Diskussionen mit neu registrierten Accs die in dieselben argumentativen Muster verfallen wie die bekannten Nvidia Lautsprecher ergeben keinen Sinn. Entweder ihr seid irgendwann endlich in der Lage ein Argument zu durchdenken, oder ihr landet auf ignore.
Ich hab keine Lust mehr dass einfachste Zusammenhänge ignoriert werden wenn Sie nicht ins Weltbild passen, das ist keine Hardwarediskussion, das ist Kindergarten. Wenn dein ganzer Kommentar zu meiner Darlegung der Preisentwicklung bei Nvidia über die letzten Gens der von mir zitierte ist, dann ist es einfach Zeitverschwendung zu diskutieren.

Die 2080 hängt die 1080 TI zukünftig weiter ab. Ich glaub derzeit sind wir bei 8% Leistungsvorsprung. Durch das modernere Featureset wird sich die Lücke weiten.
Oh mein Gott, 8%! Das ist ja... vollkommen lächerlich. Bei der letzten Gen gabs fürs gleiche Geld 30% Leistungssteigerung, + bessere Effizienz, + mehr Vram. Aber hey, 8% sind doch super...

Welche AAA Titel gab es denn seitdem, die kein DXR unterstützt haben?
Du meinst außer denen die ich bereits aufgezählt habe... Es wird einfacher zu sein die aufzuzählen die mit RTX angekündigt sind.
Für 2019 sind das drei.
- Youngblood
- Modern Warfare remake
- Doom Eternal

Das wars für dieses Jahr. Der Rest - kein RTX.


Bitte zeig mir die Vergleichsbeispiele mit alten Technologien wie T&L, Tesselation, Computable Shadern oder DirectX-Sprung. Mir egal, irgendeine davon. Zeig mir, wie damals ein IHV da anders gehandhabt hat und den Mahoy-Vorschlag umgesetzt.
Ach? Hat er nicht? Es war schon immer so, wie es mit RTX jetzt passiert? Ja, eben genau deshalb, ist eure "Kritik" einfach nur Bashing.

Wenn du nicht verstehst dass der Markt und die Gegebenheiten sich massiv weiterentwickelt haben und du Mitte der 90er stehengeblieben sein willst - bitte. Das Quake 3 Beispiel spricht doch für sich. Binnen 8 Wochen kam ein Titel raus den alle spielen wollten, der mit der neuen Graka besser lief (nicht schöner aussah... mehr Leistung) und auf dessen Engine viele Titel in der Zukunft basiert haben. Wenn du das wirklich mit RT gleichsetzen willst und der Art wie Nvidia das heute, 20 Jahre später handhabt...

Und es stimmt auch gar nicht. Man merkt, dass du die Zeit gar nicht erlebt hast. Gleichzeitig zu QuakeIII erschien nämlich UT (da du es wahrscheinlich nicht weißt: Unreal Tournament) und die beiden haben sich einen Battle um den Platz 1 der MP-Shooter geliefert, ähnlich wie heute Battlefield und CoD oder PUBG und Fortnite. UND: UT hatte nämlich genau KEINEN Support für die T&L-Funktionen der GeForce, sondern eine eigene, CPU-basierte T&L-Engine.

Ist richtig. Und heute gibts das nichtmehr. Heute hast du keine 2 Shooter die dermaßen konkurrieren. Aber damals war Quake 3 ein Verkaufstreiber für neue Hardware und UT war es nicht. UT lief auf Hardware von gestern ausreichend, Quake lief auf der neuesten Hardware hervorragend. Das zeigt wie Software ein Verkaufsargument für Hardware ist und erneut was Nvidia mit RT heute aktuelle fehlt. Einen Kaufgrund für RT.


Was zeigt, dass du eben noch nie Metro Exodus mit RT gezockt hast
05 sm_.gif

Tja anscheinend nimmt der Markt als solches Metro Exodus nicht als RT Vorzeigetitel an. Metro Exodus mag ein tolles Erlebnis mit RT sein, aber es ist kein "Omg muss haben Spiel" das sehr viele Gamer anspricht.


Oh und was sollst du, Bohemian, anderes sein als ein Pro Nvidia Acc?
90% deiner Beiträge sind im GPU Forum und dort dann doch eher biased. Keiner der lustigen Accounts die seit kurzer Zeit hier aktiv sind diskutiert in Spieleforen, ist im Marktplatz aktiv, oder in der Kaufberatung, oder irgendwo anders als in Intel vs. Amd oder in Nvidia vs. AMD Threads. Für was soll man diese Accs denn sonst halten - sie machen ja nichts anderes.

ZeroZerp genauso - nur im GPU Forum unterwegs. Welch Zufall.
 
Zuletzt bearbeitet:
Das Argument, was der typische Pro Nvidia Second, Third, oder sonstwas Acc ums verrecken nicht verstehen will:
Nvidia hat von Pascal, zu Turing, die Preis erhöht, das unter anderem mit einem Feature, was nur homöpathisch nutzbar ist begründet.
[...]
Diskussionen mit neu registrierten Accs die in dieselben argumentativen Muster verfallen wie die bekannten Nvidia Lautsprecher ergeben keinen Sinn. Entweder ihr seid irgendwann endlich in der Lage ein Argument zu durchdenken, oder ihr landet auf ignore.
Ich hab keine Lust mehr dass einfachste Zusammenhänge ignoriert werden wenn Sie nicht ins Weltbild passen, das ist keine Hardwarediskussion, das ist Kindergarten. Wenn dein ganzer Kommentar zu meiner Darlegung der Preisentwicklung bei Nvidia über die letzten Gens der von mir zitierte ist, dann ist es einfach Zeitverschwendung zu diskutieren.
Hab's dir leider gesagt, zerozerp. Wieder nur persönliche Attacken von hoffgang, weil er deinen Argumenten nur Bullshit entgegen zu setzen hat.

Von meinem Posting ignoriert er auch den Großteil, behauptet es gäbe ja keine Konkurrenz wie Q3/UT mehr, obwohl in meinem Zitat sogar ein paar Beispiele drin stehen :ugly:

Vielleicht zerlege ich den Rest von hoffgang Selbstoffenbarung morgen. Jetzt geht es erstmal in die Sonne :cool:
 
Von meinem Posting ignoriert er auch den Großteil, behauptet es gäbe ja keine Konkurrenz wie Q3/UT mehr, obwohl in meinem Zitat sogar ein paar Beispiele drin stehen :ugly:

In Zeiten in denen PUBG, Apex und Fortnite dermaßen viele SPieler haben, ja da gibt es keine Konkurrenz mehr wie zu Q3/UT Zeiten. Damals konnteste zwischen den beiden und CS wählen, das wars mit Mainstreamshootern.
Heute - gibts wieviel? 2 Dutzend...


Hab's dir leider gesagt, zerozerp. Wieder nur persönliche Attacken von hoffgang, weil er deinen Argumenten nur Bullshit entgegen zu setzen hat.

Welchem Argument bitte? Ich würde sehr gerne auf argumentativer Basis diskutieren, was ZeroZerp leider nicht zulässt.
Ein komplexes Argument (es muss komplex sein, es wird ja von vielen offensichtlich nicht verstanden) mit einer provokativen Gegenfrage die nichts mit dem Argument selbst zu tun hat "zu beantworten" ist keine Grundlage für eine solche Diskussion. Es ist ein Warnzeichen dass höchstens Zeit und Energie verschwendet werden. Der Blödfug mit der Technikfeindlichkeit in DE... als ob RT Kritik nur hier in dieser Form passieren würde und es nicht andere Technikportale gäbe die sich ähnlich äußern...

HW Unboxed z.b.

The day will come that using RTX can be recommended in all situations. The tech looks more promising today than we originally thought, but from a first generation GPU and only the second game to include the feature, it still shouldn’t be used as a factor in buying a new graphics card. There are still very few games that have announced will support DXR. Those of you that get a good deal on an RTX GPU can enjoy this as a little bonus.
Metro Exodus Ray Tracing Benchmarked - TechSpot

Oh nein, wie kann das sein, die haben dieselbe differenzierte Meinung zu dem Thema wie ich...Skandal
 
Zuletzt bearbeitet:
Haben sie nicht. Sie haben eine Karte RTX2080 die ebenso stark ist (in modernen Titeln stärker) als eine 1080TI zum gleichen Preis auf den Markt geworfen mit einer deutlich modernisierten Technik und einem deutlich erweiterten Featureset, ausgerichtet auf die zukünftigen Anforderungen der Entwickler.
LG
Zero

Ganz ehrlich, der ganze Wumps ist zu teuer. Jegliche Rechtfertigung oder versuchte Erklärung der Hardwarepreise kann man direkt in die Tonne treten. Hardware ist einfach unfassbar teurer Luxuskram und was man dann auch noch für Plastik- und Mechanikschrott dafür bekommt - es ist einfach absurd.
 
Und wieder jemand der einfach nicht die Argumentation verstehen will, sondern stumpf denselben Kanon runterpredigt.
Das Argument, was der typische Pro Nvidia Second, Third, oder sonstwas Acc ums verrecken nicht verstehen will:
Nvidia hat von Pascal, zu Turing, die Preis erhöht, das unter anderem mit einem Feature, was nur homöpathisch nutzbar ist begründet.
Ich verstehe, worauf Du raus willst, habe aber einen anderen Blickwinkel darauf. Hätte nVidia um Deiner Seele Willen die 2080 zur 2080TI gemacht, die 2080TI zur Titan und die RTX Titan zur Titan Black, wär für Dich wohl das Leben wieder "verständlicher" gewesen.

Sobald auch bei Dir angekommen ist, dass ich die Kritik auf die Entwicklung der Preise von Pascal zu Turing bezieht, merkst du vllt selbst das Nvidia in der Vergangenheit, z.b. beim Übergang von Maxwell auf Turing, die Leistungssteigerung für einen wesentlich geringeren Aufpreis an den Kunden weitergegeben hat.
Ja das haben sie, aber ja auch Du wirst die Preisentwicklung nicht aufhalten können:
As Chip Design Costs Skyrocket, 3nm Process Node Is in Jeopardy - ExtremeTech

Bist Du wirklich so fern dem Geschehen, dass Du die ganzen Zusammenhänge einfach "ausblendest" bzw. auskoppelst?
Na dann viel Spaß in Deinem Paralleluniversum in dem Du Dich jetzt jahrelang über zu hohe Grafikkartenpreise aufregen kannst.

Diskussionen mit neu registrierten Accs die in dieselben argumentativen Muster verfallen wie die bekannten Nvidia Lautsprecher ergeben keinen Sinn. Entweder ihr seid irgendwann endlich in der Lage ein Argument zu durchdenken, oder ihr landet auf ignore.
Du bist extrem voreingenommen und hast eine völlig eindimensionale Sicht auf die Dinge und wirfst anderen vor nicht in der Lage zu sein, ein Argument zu durchdenken?
Du feuerst hier grundsätzlich nur mit Deiner eigenen Meinung um Dich. Kein Beleg, keine Zahlen, keine Quellen, garnichts.
Wie wärs, wenn Du also Deinen Ankündigungen Taten folgen lässt und mir mit Argumenten erklärst, wie Du auf die Idee kommst, dass man hier nochmal einen Kepler-Pascal Sprung hinlegen soll (bis zu 60%). Und das technisch begründet und auch wie Du das bei den explodierenden Feritgungskosten beikommen willst.

Sich hinstellen und rumheulen, dass etwas zu Teuer ist (für wen) ist lame.

Ich hab keine Lust mehr dass einfachste Zusammenhänge ignoriert werden wenn Sie nicht ins Weltbild passen, das ist keine Hardwarediskussion, das ist Kindergarten.
Den nur Du hier gestartet hast. Mehr erklären, weniger Rückzugsgefechte.

Wenn dein ganzer Kommentar zu meiner Darlegung der Preisentwicklung bei Nvidia über die letzten Gens der von mir zitierte ist, dann ist es einfach Zeitverschwendung zu diskutieren.
Du hast überhaupt nichts dargelegt, sondern ignorierst den belegbaren Fakt, dass es Generationen gab, die bei weitem nicht solche Leistungssprünge, die Du jetzt aber als Referenz für alles ranziehst gehabt haben und auch Generationen, die Sackteuer waren.


Oh mein Gott, 8%! Das ist ja... vollkommen lächerlich. Bei der letzten Gen gabs fürs gleiche Geld 30% Leistungssteigerung, + bessere Effizienz, + mehr Vram. Aber hey, 8% sind doch super...
Oh Gott- Vielleicht kommen da nochmal 30% für DLSS drauf, 7% für variable rate shading und 40% wenn sie anfangen mesh shader einzusetzen. Mal sehen, ob Du das dann immernoch zum Lachen findest oder eindlich mal über Deinen Tellerrand blickst und Dich BEVOR Du hier rumbashst mit der Architektur auseinandersetzt.


Du meinst außer denen die ich bereits aufgezählt habe... Es wird einfacher zu sein die aufzuzählen die mit RTX angekündigt sind.
Für 2019 sind das drei.
- Youngblood
- Modern Warfare remake
- Doom Eternal

Informier Dich- Du stellst gerade wieder Dein Unwissen zur Schau und Deinen Mangel an Information.

Tja anscheinend nimmt der Markt als solches Metro Exodus nicht als RT Vorzeigetitel an. Metro Exodus mag ein tolles Erlebnis mit RT sein, aber es ist kein "Omg muss haben Spiel" das sehr viele Gamer anspricht.
Dann liefere Verkaufszahlen von Metro Exodus, dann die Zahlen wieviele davon es mit RT an spielen und die Zahl der Installationsbasis von RTX karten.
Wenn Du Deine Aussage nicht belegen kannst, dann ist das nur ein nicht ernstzunehmendes Stochern im Trüben.

ZeroZerp genauso - nur im GPU Forum unterwegs. Welch Zufall.
Ist das also Deine Weltsicht? Du willst mir jetzt ernsthaft erklären, dass ich "verdächtig" sei, weil ich mich nur im GPU Forum rumtreibe?
Wieder nicht richtig recherchiert?

hoffgang, ganz ehrlich. Mit dem Post eben hast Du Dir keinen großen Gefallen getan. Und leider rückt das das, was BohemianRhapsod vorhin über Dich geschrieben hat, immer weiter in ein tatsächlich schlüssiges Licht.
Es sind nur Schaltkreise. Es geht hier nicht um Fußballmannschaften oder sonstige Dinge, wo man sich wegen Nichtigkeiten die Köpfe einschlägt.

Schade schade...

Trotzdem LG
Zero
 
Zurück