Gamescom 2019: Raytracing ausprobiert bei CoD Modern Warfare und Minecraft

Ja, man könnte auch eine strategische Entscheidung hinter RT sehen. Es war ja klar, das die Leistung nicht 1:1 mit RT laufen wird. Und das schon in früher Entwicklungsphase (RT ist ja nicht seit letzter Woche bekannt, sondern seit zig Jahren!)
Man könnte also mit Aluhut auf, den Gedankengang spinnen, dass man seinen unliebsamen Marktbegleiter auf diese Weise unter Druck setzen will... sich finanziell extrem zu verausgaben.. um evtl. gar in Schieflage zu geraten.. oder andere Entwicklungen stoppen zu müssen...

Weil richtig erkannt, das Budget für Entwicklung AMD entsprechend weh getan hätte.. und bei nVidia zwar wohl nicht Portokasse ist.. aber deutlich weniger belastend...

Der Grund für RT war doch eher, dass man die Leistung der Karten kaum noch steigern konnte. Dafür braucht man noch mehr Shader und damit landet man irgendwann an einer unüberwindlichen Grenze. Das war bei GCN als Gegenbeispiel schon 4096 Shader, bei RDNA keine Ahnung und bei nV war wohl Volta das Maximum mit seinen etwas über 5000 Shadern. Da musste jetzt sofort ein neuer, großer Hype her, da man die Leistung nur noch im niedrigen, zweistelligen Prozentbereich hätte weitersteigern können.
Dass RT jedoch viel Leistung benötigt, hat nV richtig erkannt, auch wenn ich aktuell annehme, dass sie in relativ naher Zukunft vielleicht von den Zusatzkernen abweichen (außer, die Technik lässt sich auch weiterhin teuer in Profikarten verkaufen, wie jetzt die Tensor Cores, die im Gamingbereich eigenltich niemand bräuchte, da alles, was "angeblich" darauf berechnet wird, auch ohne großen Leistungsverlust von Shadern erledigt werden könnte. Einzig die Vorberechnung von DLSS auf den Hochleistungsrechnern benötigt die zusätzliche Leistung). Einfach abwarten, was AMD mit RT macht. Wird sicher auch nicht billig für uns Kunden aber wenigstens keine gewaltige Zusatzfläche, sondern Zusatzleistung, die man, falls nicht für RT verwendet, auch anders nutzen kann. Da sehe ich etwas mehr die Zukunft...
 
Sieht für mich nach wie vor wie Reshade on/off aus. Bei Minecraft sieht das aus wie ENB on/off. Zumal man Minecraft grafisch genau so mit Mods aufwerten kann ganz ohne Leistungskiller Raytracing.
RT ist nach wie vor ein nicht überzeugendes FPS Killer Grafikfeature das noch tief in den Kinderschuhen steckt und mit dieser Gen an Grafikkarten auch nichts mehr vernünftiges bei rum kommen wird.
Aber gut das Nvidia das so sehr pusht und viele Studios das einbauen. Dürfte das in kommenden Jahren zum Grafikstandard werden wie es z.B. Tesselation schon lange ist.
 
Ganz ehrlich, nur weil DU eine 1000€ GPU hast, heißt das noch lange nicht, dass die auch alle anderen haben... :daumen2:

Und es ist vollkommen richtig, dass RT bei den meisten Games die verfügbar sind nur mit niedrigerer Auflösung oder eben mit starken Abstrichen in der Performance zu "genießen" sind. Selbst Leute mit ner 2080 empfinden die Leistung nicht ausreichend.

Das hat auch nichts unbedingt mit AMD zu tun...nur weil die es (noch) nicht können. Auch viele 2060/2070 User, die nur 300-600€ zahlen (was schon zu viel für RT ist, weil kaum nutzbar), kommen überhaupt in den Genuss, da einfach Leistung fehlt.

RT sieht geil aus, keine Frage. Aber ist eben noch lange nicht salonfähig. ;)

Und ich bin mir nicht einmal sicher das er diese 1000 Euro GPU besitzt, wie gesagt gestern erzählte er mir noch, das Tomb Raider mit RT bei Ihm in WQHD mit einer 2070 mit 40 FPS läuft, warum hat er heute aufeinmal ne andere GPU? Oder hat er 10 Rechner daheim?


Ja, irgendwann wird RT sicher sinnvoll, schaut gut aus, Stand heute ist es ein nettes aber völlig überteuertes Gimmik was viel zu viel leistung kosten, wenn ich 600 Euro oder mehr für ne GPU ausgebe mag ich nciht in Full HD oder grad so in WQHD zockn..... das konnt ich früher mit viel billigeren Karten auch
 
Zuletzt bearbeitet:
Find es klasse wie Nvidia die DX12 Präsenz in kommenden Games befeuert als gäbes es kein Morgen. Hätte ich mir auch schon vor Turing gewünscht, aber da hat das Gaspedal geklemmt.
 
Müsste Werbung nicht eigentlich gekennzeichnet werden?
Ließt sich, wie vom Lederjackenhorst selbst verfasst.
Gruß Yojinbo
 
Und ich bin mir nicht einmal sicher das er diese 1000 Euro GPU besitzt, wie gesagt gestern erzählte er mir noch, das Tomb Raider mit RT bei Ihm in WQHD mit einer 2070 mit 40 FPS läuft, warum hat er heute aufeinmal ne andere GPU? Oder hat er 10 Rechner daheim?


Ja, irgendwann wird RT sicher sinnvoll, schaut gut aus, Stand heute ist es ein nettes aber völlig überteuertes Gimmik was viel zu viel leistung kosten, wenn ich 600 Euro oder mehr für ne GPU ausgebe mag ich nciht in Full HD oder grad so in WQHD zockn..... das konnt ich früher mit viel billigeren Karten auch

Er hat unzählige Computer, angeblich auch ne 2060 und ne Titan RTX... ^^
Und auch einige mit AMD-GPUs zum gegentesten und sich selbst davon zu überzeugen, wie unglaublich schlecht die doch sind. :ugly:
 
Er hat unzählige Computer, angeblich auch ne 2060 und ne Titan RTX... ^^
Und auch einige mit AMD-GPUs zum gegentesten und sich selbst davon zu überzeugen, wie unglaublich schlecht die doch sind. :ugly:

Das mit den AMD GPUS macht Sinn..... dann weiss er ja aus erster Hand wie Grottenschlecht die sind... ob er sich überhaupt traut die AMD GPUS anzumachen? So wie er immer schreibt brennt ja bei dem immensen Stromverbrauch sofort jedes Netzteil und jedes Atomkraftwerk durch.
Außerdem schmilzt sich der PC als Lava bei dieser immensen Hitzeentwicklung durch den Boden bis zum Erdmittelpunkt
 
Das stimmt schlicht und einfach nicht! Das kann er sehr wohl und macht das ab und an auch noch. Letztlich ist aber gerade das so ärgerlich. Wenn man weiß einer kann eigentlich anders, macht es aber dennoch nicht, ist das schon so eine Sache... :rollen:

Gut evt kann er es sogar, leider hab ich es noch nicht erlebt bzw. den Post wohl nicht gelesen. Aber würde mich gerne positiv überraschen lassen
 
Das stimmt schlicht und einfach nicht! Das kann er sehr wohl und macht das ab und an auch noch. Letztlich ist aber gerade das so ärgerlich. Wenn man weiß einer kann eigentlich anders, macht es aber dennoch nicht, ist das schon so eine Sache... :rollen:

Das stimmt, aber war leider einmal, wie in einem Märchen.
In letzter Zeit, finde ich, ist es schlimmer geworden.
Für mich ganz klar ein Indikator, wie dicht Ryzen und Vega der Konkurrenz auf den Fersen sind :D
Gruß T.
 
Ganz ehrlich, nur weil DU eine 1000€ GPU hast, heißt das noch lange nicht, dass die auch alle anderen haben... :daumen2:

Im Moment spiele ich amRechner mit RTX 2070. Ihr merkt aber gar nicht wie Gaussmath euch trollt mir seinen 1% Lows aka Frametimes. Über weite Strecken ist das Spiel selbst mit 2070 auf Ultra in WQHD super spielbar. Irgendwelche schlimmen Slowdowns hab ich nicht bemerkt, also am besten selbst kaufen und probieren, als irgendwelchen Provokateuren zu glauben.
 
a) Bei gleichen Settings wie man sie gewohnt ist, jede Karte in Knie geht!
b) Das durch die Einführung von RT ein Feature generiert wurde, was nun als "Must have" verkauft wird... (

Das ist ja auch der Sinn in der Marktwirtschaft, bzw. war auch in der Politik immer so.... ;)

Es wird ein Problem generiert, wo nie eines war, damit man die eigenen Lösungen besser verkaufen kann.

Natürlich wird die Kuh nur dann sinnvoll gemelkt, wenn die fertige Technik in einige Verkaufsgenerationen aufgeteilt wird...
 
Gute News.

Zusammengefasst: Sieht gut aus, kostet zuviel Leistung, wird frühestens mit Ampere interessant.
Ergo hat sich am Grundproblem von RT nix geändert, Turing RT ist nett, zu teuer und zu schwach.

Aber RT zeigt immer wieder, grade bei CoD, dass in Zukunft daraus eine wirklich wirklich erstrebenswerte Technologie werden kann.
Ob man das bei schnellen Shootern jedoch wahrnimmt wage ich zu bezweifeln, das ist wohl die Kehrseite der Medaille.
Wenn die 1080ti mal streikt, dann kann man drüber nachdenken, bis dahin sollte es dann auch genügend Titel zu kaufen geben die RT unterstützen. Ankündigungen sind, wie man an Youngblood und Asetto Corsa Comp. gesehen hat eben keine Umsetzung.
 
Zusammengefasst: Sieht gut aus, kostet zuviel Leistung, wird frühestens mit Ampere interessant..

Nein, das ist jetzt schon interessant, weil deine albernen Performancevorhersagen ohnehin nicht zutreffend sind.

Ergo hat sich am Grundproblem von RT nix geändert, Turing RT ist nett, zu teuer und zu schwach.

Ist nicht zu schwach, selbst auf einer 2070.
Bist wohl auf dem Stand 2018 und verbreitet hier deine Märchen.

Ob man das bei schnellen Shootern jedoch wahrnimmt wage ich zu bezweifeln, das ist wohl die Kehrseite der Medaille.

COD ist nicht immer schnell, es gibt auch langsame Szenen.

Ankündigungen sind, wie man an Youngblood und Asetto Corsa Comp. gesehen hat eben keine Umsetzung.

Youngblood kommt noch mit Raytracing, Asetto Corsa hat zu viele Probleme mit dem eigentlichen Spiel, welches noch massive Optimierungen benötigt.
 
Ganz ehrlich, nur weil DU eine 1000€ GPU hast, heißt das noch lange nicht, dass die auch alle anderen haben... :daumen2:
;)
Unser Polyboy hat weder das eine, noch das andere. Ausfallender, beleidigender Schwätzer eben. :nicken:

BTT
Bei Minecraft sieht das echt schön aus, was CoD angeht......:kotz:
Steckt halt noch in den Kinderschuhen. Mal sehen wie es in 5 Jahren ausschaut.
 
Nein, das ist jetzt schon interessant, weil deine albernen Performancevorhersagen ohnehin nicht zutreffend sind.



Ist nicht zu schwach, selbst auf einer 2070.
Bist wohl auf dem Stand 2018 und verbreitet hier deine Märchen.


.
nein ist kein Märchen mit der Performance... wenn du mit einer 500 plus Karte unter WQHD gerade 40 FPS bekommst ist das eine Bescheidene Performance........
das schaffe ich auch mit einer 240 Euro Graka... Du willst allen ernsten behaupten heutzutage sind bei einer so teuren Graka 40 FPS eine tolle Performance?
 
Zurück