Raytracing als Kaufargument: RTX-Marktanteil steigt, PCGH-Leser bleiben skeptisch

ich will nvidia nicht kritisieren aber welche sinn das machen mit kleine turing rt zu aktivieren in control???

Gut das du das ansprichst, ist eben ein weiterer Punkt, das Frustpotential wird erheblich sein, wenn der User mit einer RTX 2060 eben solche Titel tatsächlich anwenden möchte, kann nur schief laufen für NV, da hätte man besser mal an die eigenen Kunden gedacht, statt nur auf kurzfristige Profite, aber so kennen wir sie halt. /:

Traurig ist vor allen Dingen, dass es hier noch user gibt, die ein solchen Gebaren befürworten, statt der Wahrheit ins Auge zu sehen.
 
Bei en aktuellen Karten ist das leider viel zu langsam, bis sich RT bei Gaming durchgesetzt hat dauert es nohc, die aktuellen Karten werden dann aber dafür eh zu langsam sein.
Es bringt also nichts, wenn man sich jetzt RT-Cores für die Zukunft zulegt!

Dafür dass es zu langsam ist, spiele ich aber sehr gut damit.

Ich finde Eure Pauschalurteile immer sehr eigenartig.
 
Das geht sicher, dann sieht man aber kaum einen Unterschied.
Die aktuellen RT-Cores müßten um en Faktor 10 leistungsfähiger werden, damit es wirklich sinnvoll ist!
Nein, aber es bringt dann halt nichts mehr...
Ich bin mir da nicht so sicher wie du, die Software wird sich weiter entwickeln. Sieh dir nur mal an, wie viel Rücksicht man heutzutage bei den Einstellung auf die Besitzer älterer Karten nimmt. Das auch bei den zukünftig optimierten Games keine mehr kommen, die sinnvoll von RT Gebrauch machen können, das fände ich etwas pessimistisch, aber ich kann deine Position durchaus verstehen. Ich schätze halt die Entwicklung etwas positiver ein. Die aktuelle rtx Reihe ab der 2070 super geht aber ganz sicher, wenn man woanders abstriche macht. Das muss dann jeder für sich beurteilen.
 
Ich sags nochmal Ihr nvidia-hörige und fans.... wieviel chipfläche will nvidia denn für rt opfern? wie groß soll dann der nächste chip werden... bzw... wieviel fehlt dann an anderem.. man will ja nicht langsamer als amd werden.... hat da jemand ne antwort drauf? chipfläche ist begrenzt und wenn big navi usw nix für RT opfert...ja dann? also? tolles RT für nvidia aber ansonsten langsamer? klär mich doch mal einer auf, wie das gehen soll :D

PS an die nvidiaexperten... rechnet doch mal aus, wie groß der chip werden muß um in wqhd mit rt 100 frames zu schaffen :D omg.. das ganze ist sowas von ne sackgasse für nvidia.. wenn die das machen, werden die ohne RT soo langsam..
 
Zuletzt bearbeitet:
Pauschalurteile sind, wenn man keine Begründung liefert, das haben wir aber sehr ausführlich und nachvollziehbar getan!

Keineswegs. Insbesondere wenn die Aussage, die getroffen wird, exakt durch meine First-Hand Erfahrung widerlegt wird.

Du behauptest nur immer wieder Dinge, so wie sie Dir gerade in den Kram passen. Von 'Nachvollziehbarkeit' sehe ich keine Spur.
 
Keineswegs. Insbesondere wenn die Aussage, die getroffen wird, exakt durch meine First-Hand Erfahrung widerlegt wird.

Du behauptest nur immer wieder Dinge, so wie sie Dir gerade in den Kram passen. Von 'Nachvollziehbarkeit' sehe ich keine Spur.

Also gut, dann teile uns doch mal deine tolle First-Hand Erfahrung mit, damit/wir das beurteilen können.
 
Also gut, dann teile uns doch mal deine tolle First-Hand Erfahrung mit, damit/wir das beurteilen können.

Hab ich doch schon.

Deinen Hohn kannst Du auch stecken lassen. Es ist schon recht schwer, sich noch unsympathischer als Du es tust, zu präsentieren.

Du spielst aber nicht wegen der RT-Cores gut, solltest schon mein Posting lesen/verstehen!

Ummm... Na ohne die wäre das Spiel sicher deutlich weniger gut spielbar.
 
Nvidias aggressive Preispolitik? What?

du bist doch son Experte.. antworte mir doch mal... wie groß soll denn der nächste nvidia chip werden, der RT akzeptabel in wqhd ans laufen bringt... wieviel chipfläche müssen die opfern... und wie langsam wird der chip im vergleich zu amd , wenn big navi usw das nicht macht?

kommt dann sowas wie... 4k ist amd, full hd mit rt ist nvidia? :D

LOL jetzt überlegen die nvidianer, weil es keine Antwort gibt... 7nm chip ist in der Größe begrenzt, will man noch kühlen... wenn ich viel Platz für reines RT mache, muß ich woanders sparen... das geht auf die Geschwindigkeit...also woher soll der Platz kommen? :D
 
Zuletzt bearbeitet:
Wieviel Anwendung gibt´s ein Jahr nach Markteinführung für ´ne RTX? 4 habe ich heute irgendwo gelesen.

Wieviele Anwendungen gab es dann bei Mantle oder nach ähnlicher Zeit mit Vulkan, oder Directx12?
Komischerweise waren du und deine Kollegen im 3DC, hier und anderswo immer sehr aktiv dabei Vorteile bezüglich dieser Umsetzungen für die Zukunft hin zu bewerben und das bei einer RX 480 damals schon, obwohl die Leistungsvorteile in Directx12 Spielen die RX 580 immernoch bis heute nicht an einer 1060 6G vorbeigespült haben.
Du kaufst auch prinzipiell immer AMD Karten, egal wie schlecht sie sind zu Release. Vega 64 im Blower Design und Radeon VII im lauten Axial Design und schreibst permanent davon wie gut die Karten seien und wie gut das Preisleistungsverhältnis ist, wendest aber bei Nvidia durchgehend einen völlig anderen Maßstab an. Wie gesagt, deinen permanenten Hate, muss man nicht verstehen. Software benötigt Zeit. Dennoch sind 29 Spiele schon relativ sicher angekündigt und wie viele Spiele sich schon in Entwicklung befinden, aber noch nicht angekündigt sind, fallen da mal eben komplett raus.

Alle händisch vom Vendor selbst teilprogrammiert.

Dafür bitte mal die entsprechenden Belege liefern.

Klar werden wir alle lachen.

Ja, man muss zunehmend über die PCGH_Community lachen, wie sie sich bezüglich verschiedener Themen zum Gespött macht und beständig mit zweierlei Maß misst und es selbst gar nicht merkt.
Die ganzen Raytracing Threads sind von den üblichen Verdächtigen vollgestopft, die sich immer wieder negativ darüber auslassen.
Die Turing Threads waren auch vollgestopft mit Kritikern, bis dann AMD ihre Preise und ihre Karten vorgestellt hat, und sich kaum was getan hat.:schief: Wenigstens wurde es dann wieder etwas normaler.
Aber so muss man noch bis Sommer 2020 warten. Erst dann werden die Schlechtreder verstummen.
...und die nächste drei Nodes in`s Land gegangen sind, sich die Transistorzahl verdoppelt hat, die übernächste Generation von Engines kam und die nächste Generation Coder ihr Handwerk gelernt hat... Auch AMD wird keine schnellen Wunder vollbringen können.

Würde ich auch schreiben, wenn ich mir eine Radeon VII, eine Vega 64 und zuvor eine FuryX gekauft hätte.:schief: Interessanterweise waren bei dir diese Karten immer deutlich besser als die objektive journalistische Korrespondenz.
Ich finde es interessant, dass du bei der Radeon VII mit deren 16GB V-ram argumentierst und die Zukunftssicherheit lobst und dann bei essentiellen Features wie Hardware-RT eine ganz andere Meinung vertrittst.

Die 980Ti@stock ist nach den meisten Benchmarks bereits in 1440p durchschnittlich leicht langsamer als FuryX und in >1440p dann mit gutem Abstand in fast allen Spielen. DX12 und der jetzt wohl für den 17.7. anstehende Omega2-Treiber könnten dann gut den Rest besorgen, von einer Freigabe der Übertaktung mal ganz ab. :-)

Auf die OC-Freigabe, die Benchmarks in denen die FuryX angeblich mit gutem Abstand vorne ist und den Wundertreiber wartet man bis heute noch.:schief:

Bei vollem RT mit vielen Bounces kann man auf strategisch gesetzte Lichter verzichten. RT verbraucht um so mehr Ressourcen, je mehr indirektes Licht benötigt wird, um dunkle Ecken auszuleuchten.

Indirectes Licht, bounces kosten relativ viel Leistung, wenn man sich die Berechnungen zum Beispiel in Quake2 ansieht. Aber so viel indirektes Licht, also bounces benötigt es bisher nicht für GI, da reichen 1 bis 2 aus.
Und das ist eben auch mit der ersten Generation performant darstellbar, wenn es gut implementiert ist. Und die Peformance ist gegenüber NGSS Soft Shadows auch nicht so schlecht oder PCSS in GTA5, da gibt es bekanntlich gar keine bounces.
Viel indirektes Licht wird aber mMn noch möglich sein. Man schaue sich in Control mal an was man da vollbracht hat. 3 Effekte. Mich würde da mal interessieren welcher Rechenschritt genau wieviel Rechenzeit benötigt.

Hat man z.Bsp. einen Raum, der nur durch einfallendes Sonnenlicht einer Seite beleuchtet wird, so erzeugt ein niedriges Bouncing viel zu dunkle Schatten (das ist sicher schon vielen aufgestoßen). Also müsste man die Bouncings hier erhöhen, was sehr viel mehr Ressourcen benötigt, da 5-10 Fach mehr Rechenleistung nötig.

Die dunkeln Schatten sind aber nicht per se ein Resultat von fehlenden Bounces, sonder schlicht und ergreifend der Gammaeinstellung.
Pre-backed sieht eigentlich zu 99% immer nicht wirklich akkurat und "schei*e" aus. Imho kann ich die zu dunklen Stellen per se aber nicht wirklich bestätigen und ich hab das Spiel komplett durch.
 
Zuletzt bearbeitet:
das ist nicht richtig durchdacht im moment´´ nvidia sollte schauen welche engines performant sind und erst dann über eine implementierung nachdenken.
für triple-A games wie control ist es zu früh
sehr kluge entscheidung haben sie zusammen mit epic getroffen´ unreal4 und raytracing werden bestimmt ein gutes paar´ auch auf schwächeren modellen.
die zwei stärksten karten am markt 2080ti und 2080 haben damit keine grossen schwierigkeiten´ alle anderen müssen sich aber oftmalss mit grauenhaften frameraten anfreunden
vielleicht die meisten haben kein problem damit´ grafik über alles. das ist ok´ muss jeder sselbst für sich entscheiden
jeder soll eigene meinung haben und sich nicht beeinflussen lassen von fanboys und hatern. das ist das wichtigste
das ist nur meine sicht der dinge
 
Zuletzt bearbeitet:
Wieviele Anwendungen gab es dann bei Mantle oder nach ähnlicher Zeit mit Vulkan, oder Directx12?

Mantle , Vulkan und DX12 sind Schnittstellen mit denen kein Geld verdient wird. Es ist kein Verkaufsargument wenn ein Spiel DX12 unterstützt noch hat MS davon irgendwas. Anders sieht es bei RTX und Nvidia aus. Nvidia hat RTX als das Killer Feature beworben.

Mantle , Vulkan , DX12 und RTX haben aber eins gemeinsam. Es hat Jahre gedauert bis es sich auf dem Markt etabliert hat (oder im Mantle Fall eben nicht). Bis Raytracing wirklich große Verbreitung findet wird es RTX2 geben, weiter aufgebohrte Raytracing Effekte mit denen RTX1 überfordert ist ... und so weiter.

Wer RTX haben will .. bitte schön. Muss jeder selber wissen. Die weitere Verbreitung von RTX Karten liegt aber sicher nicht am Raytracing sondern daran das die Karten ansonsten ne Menge Power haben. Wer die will kommt um Nvidia nicht herum (oder kam bis vor einigen Wochen).
 
ich denke wir sollten dankbar dafür sein´ das nvidia neuen technologien pusht
das raytracing die grafik enorm aufwerten kann´ steht ausser frage
einer muss den ersten schritt machen ´ auch wenn zu beginn nicht alles glattläuft. es ist meistens nv die bringen uns fortschritt´
 
Zuletzt bearbeitet:
Das ist einfach nur frech und behindert die Vorbereitung von RT aktiv! Wir können alle froh sein , dass AMD die Karre aus dem Dreck zieht und RT richtige Rahmenbedingungen schafft, Details wurde ja bereits genannt, so schauts aus.

Frech ist nur eines, dein Verstecken hinter der Anonymität des Internets, welches dir ermöglicht völlig ausgedachten Schwachsinn zu posten, nach Quellen braucht man ja für das Geschreibsel eh nicht fragen.

Schlecht laufen tut da gar nichts, nur die Hardware Anforderungen haben sich erhöht und die Entwickler müssen daher die Ressourcen intelligent einsetzen.
Bei Tesselation war das 2011 genauso.

So wie bei allen anderen Einführungen von Features. Ob es AMD besser macht ist reine, Spekulation.

Die Einführung von RT behindert also die Vorbereitung von RT, alles klar.
Wann merkst du eigentlich mal, dass man nicht jeden Grafikschritt nach vorne sofort kostenlos haben kann, sondern es kluge Köpfe braucht, die erstmal die Software und die Hardware dafür Entwickeln.

Entweder sollen deine Posts dich selbst aufs Korn nehmen und du ergötzt dich an den Likes der die hard fans oder du meinst diesen Schrott wirklich ernst, dann tuts mir aber leid für dich.

Heute eine Karte mit RT zu kaufen bringt halt echt nichts.

Ich frage mich immer woher deine Expertise kommt. Du nutzt einen uralten AMD Bulldozer Prozessor mit integrierter GPU und spielst überhaupt gar nichts.

Und dein Blogging hat mit Kenntnis von Tech hier auch rein gar nichts zu tun.
Bei en aktuellen Karten ist das leider viel zu langsam, bis sich RT bei Gaming durchgesetzt hat dauert es nohc, die aktuellen Karten werden dann aber dafür eh zu langsam sein.

Die aktuellen Karten sind eben nicht pauschal dafür zu langsam, wie könnte mansonst 3! Effekte mittels RT in Control berechnen, was heute schneller läuft als die erste Version in Battlefield 5.

Es kommt darauf an wie gut und intelligent die Implementierung ist.

Es bringt also nichts, wenn man sich jetzt RT-Cores für die Zukunft zulegt!

Dann hat es noch nie etwas gebracht irgendeine GPU mit neuen Features zu kaufen, denn jene GPUs werden früher oder später von schnelleren abgelöst.

Sollte AMD Ende 2019 wirklich noch eine High End GPU ohne DXR bringen, ist die Karte im Marktkontext schlicht DOA.

Wie viele Accounts willst du dir hier eigentlich noch zulegen, jedes mal erkennt man dich an deinen Ausrufezeichen, PoorVolta. ;)
 
Zuletzt bearbeitet:
Wen interessiert denn deine Meinung? Ich diskutiere hier nicht mittels meiner Meinung, sondern weitgehend ohne diese.

Ist ja schön wenn dir RT nicht zusagt, aber wieso interessierst du dich überhaupt dafür wenn du privat null zockst.

Wir haben doch jetzt schon 50, 100 und 1000 Fach die destruktiven Anti RT Meinungen der AMD Fans vernommen. Inwiefern soll hier noch irgendetwas interessantes kommen, was sich lohnen würde zu lesen?

Das kann man sich doch hier komplett sparen.
 
Zurück