Battlefield 5: Raytracing-Performance auf RTX 2080 Ti und RTX 2070

Wenn jemand wirklich bei 1080p spielen will hilft es evtl alle Regler auf Mittel zu stellen um auf die gewünschten 60Fps zu kommen. Wenn das auch nicht hilft wird eben in 720p gedaddelt :D

Na bei Pro und One X muss ich auch immer auf Full HD stellen (FH4, Hellblade, Gears 4, God of War) um annähernd 60fps zu erreichen. Da werden sogar noch Effekte zurückgefahren.^^
Ja, wegen dem Preis hinkt die Sache. Aber immer seltsam dass bei Grafikkrachern auf Konsolen bei 30fps immer Beifall geklatscht wird.

Die Auflösung scheint gar nicht zu sehr ins Gewicht zu fallen. In 1440p ist der Unterschied auch nicht zu hoch da die RTX Auslastung der Hardware bremst.

Wobei es vor RTX schon immer extreme Ultraeinstellungen gab. Dreh mal bei The Division die Partikelberechnung volle Kanne auf. Da bricht dir selbst eine Titan ein. Es gibt also schon vor Raytracing immer Effekte die massiv auf die Performance drücken wenn man sie aktiviert.
 
Ich möchte aber mal zurück erinnern, an die Zeit, an der die Star Wars Demo auf den Volta Rechenserver gezeigt wurden ist (der knapp 80.000€ kostet) und es gesagt worden ist, dass wir sowas im Mainstream auf lange Sicht nicht sehen werden.

Jetzt ist es da. Natürlich kostet es Unmengen an Rechenleistung, aber das man mittlerweile mit nur einer Karte ein Spiel in Echtzeit "raytracen" kann, finde ich durchaus bemerkenswert.

Zumal man auch sagen muss, dass dies die erste Generation der RTX Karten ist. Das am Anfang noch nicht alles rund läuft, sollte bei neuen innovativen Techniken eigentlich verständlich sein.

mfg.

es ist kein spiel es ist EIN effekt. und ja die star wars demo raytraced wird es noch sehr lange nicht geben.

mit tomb raider haben wir schatten rtx, mit bfv reflektionen und mit metro kommt dann beleuchtung. aber das sind auch nur 3 effekt keine full raytracing (würde man alle 3 kombinieren) von daher...abwarten

allerdings finde ich gut das nvidia die 2xxx gebracht hat und endlich wieder mit neuer technologie vorran geht
 
Gut gemacht

Habe mir selber gerade eine non Ti ersteigert. Anscheinend kauften sich viele gerade eine neue Karte.
Gut für mich

Nachtrag:
Ich lese immer über NVidias Innovation. Den Schritt in die Zukunkt und lauter so Blödsinn.

Euch ist schon klar, dass NV Raytracing nicht erfunden hat?
Dass es eine in DirectX definierte Standardisierung gibt an die sich NVidia zwecks eigen nutzen nicht (vollumfänglich) hält gibt?
Und vorallem... ...dass IHR NVidia-Kunden diesen "Vortschritt", oder eher Marktdominanz finanziert habt.

Also für den heutigen Stand könnt Ihr euch selbst auf die Schulter klopfen, bravo.
 
Zuletzt bearbeitet:
Sieht ziemlich inkonsistent aus. Warum performt die 2070 kaum langsamer (10 bis 20%) als die 2080 Ti, obwohl sie nur halbsoviele RT Einheiten hat? Auslastungsproblem? Architekturlimit?

Dass RT unabhängig von der Auflösung ist, war klar. Sind ja schließlich nicht die Shader, die die RT Effekte berechnen. Daher limitiert beides unabhängig voneinander. Die Auflösung wirkt sich höchstens mittelbar aus, wenn die RT Präzision an sie gekoppelt ist (so wohl momentan auch in Battlefield).

Alles in allem aber die erwartete Katastrophe: miese Performance, geringer visueller Mehrwert, Darstellungsfehler.
 
Zuletzt bearbeitet:
Hat mir da nicht jemand mal erzählt, dass Battlefild 5 auf einer GTX 2070 mit RT laufen wird mit spielbaren FPS, wenn man nur RT regler etwas runterschraubt?
Da lag der wohl falsch!

quote_icon.png
Zitat von Andrej
Jo, mit 10fps bist du mit den Anforderungen dabei. Wenn nichtmal eine RTX 2080 Ti 60fps bei FullHD schafft.

Ja war ne Vermutung von mir (RTX Regler zurückdrehen), die hier in diesem Fall wohl nicht zu greifen scheint ;)
Dass dies wirklich so unterirdisch wird und sich Low und Ultra kaum was gibt, hätte ich nicht erwartet.

Aber witzig, LOD und Auflösung der Spiegelungen gehen gnadenlos zurück, dennoch tut sich bei den FPS kaum was,
ähnlich auch was die Auflösung betrifft, als auch den geringen Unterschied zwischen der 70er und 80erTI.
Lässt vermuten, dass das Problem irgendwo "zwischen" den RT-Cores und der üblichen GPU-Arbeit liegt,
oder eben der Implementierung etc.


Dennoch mal Patches & Updates abwarten (Ms, NV und Dice), wobei ich da nicht so mega viel Hoffnung reinstecke,
vielleicht sind noch saubere 60fps@RTX-low drin. (Wobei mich das LOD-Gepoppe extrem stören würde)
Sehr interessant aber mal zu sehen was die andere Spiele so "leisten" werden.
Ich bin mal auf den Artikel gespannt, vor allem was, bzw. ob sich was bezüglich RT tut, sofern man andere Settings 1-2 Stufen zurückdreht.


Ich bin jedenfalls begeistert :ugly:
Hut ab, Lederjacke.

PS: Wie's ohne RT geht, macht Hitman 2 vor *lach*
Auch würde ich auf Grund eines Spiels (welches zudem eher als Beta zu bezeichnen ist), noch keine allgemeingültiges
Urteil über RT(X) bilden. Also abwarten was noch kommt, irgendwer bekommt da sicher ne gute Implementierung hin was FPS als auch Optik angeht.

Edit:
Oh mein Zitat aus deinem Post wurde hier nicht mit-zitiert.
Somit Link zu deinem Beitrag #45 für die Mitleser: Klick
 
Zuletzt bearbeitet:
Omg! Im ersten Moment habe ich den Unterschied nach dem Einschalten von RT nicht mal wahrgenommen ... :D

Also das haut bei mir jetzt nichts aus den Shorts raus. Sieht nett aber unbedeutend aus. Die Performance ist, wie zu erwarten war, grausig.

Das beste am ganzen Video ist "Man sieht nichts! Seht ihr hier irgendwas?".
Oh man, dass hat jetzt schon bei mir Kultstatus erreicht, wenn ich wieder mal Nvidia und RT in einem Kontext lese oder höre. :D

Mich hätte jetzt aber doch auch mal interessiert wie das ganze in WQHD und UHD aussieht, ob man da noch 10 FPS erreicht?
Ach, dieser ganze Hype um RT ist einfach nur Grütze gewesen. Da hätte ich bei weitem lieber mehr Performance genommen als sowas.
 
Grundsätzlich ist RT genial, nureider hat es nV zu früh herausbringen müssen. Aber erste Gehversuche mit einer neuen Technik sind halt notwendig und nicht immer befriedigend. Die Leistungseinbrüche sind aber ziemlich groß, da wäre das Prinzip aus Hitman 2 vermutlich doch besser gewesen.
Aber ich bin mir sicher nV und Microsoft kriegen das schnell hin. Die Probleme jetzt fallen eher unter Geburtswehen...

Ja erste Schritte sind notwendig, warum nicht mit Prototypen im Testlabor, NV hat doch so viel Geld da können die doch ruhig noch ein paar Jahre forschen und experimentieren und dann mit vernünftiger Performance rausbringen. So kommt es einem vor als hätte EA schnell was gebastelt um einfach nur zu zeigen, ja wir haben was gemacht was pünktlich draußen ist und dafür ein haufen Geld von NV bekommen.
 
Wann lässt Nvidia endlich die Katze ausm Sack und erwähnt, dass Raytracing eigentlich nur für Screenshots / Diashow gedacht war :ugly:
 
Wäre es nicht technisch möglich die teuren Features (RT und DLSS) der RTX Karten auf einer seperaten Karte zu verlagern? So werden die Karten nicht so teuer und wer RT und DLSS haben möchte kauft sich die passende Karte seperat..
 
Danke Phillip,

das hat mich jetzt doch überzeugt. Das sieht grandios aus, egal, was es an Leitung kostet. Das mag bei schnellen Shootern untergehen, bin ich aber bei Star Citizen dann wird das unterschön. Das dann noch in VR und es wird immer realitätsnäher. Dann warte ich auf eine RTX 3080 und werde mich freuen. Das dumme ich nur, dass wir diese Effekte gar nicht sehen, wenn wir aktiv in Szenen spielen. Der Gehirn blendet Reflexionen aus. Betrachten wir das Bild statisch oder passiv, ist es etwas anderes. Darum lohnt es vor allem für langsame Spiele, in denen man in Ruhe z.B. den Mont Everest besteigen muss.

Apropos, gibt es das schon? Bergsteigerspiele? Ich glaube, iczh habe eine neue Marktlücke entdeckt

Holospace, wir kommen!
 
Wäre es nicht technisch möglich die teuren Features (RT und DLSS) der RTX Karten auf einer seperaten Karte zu verlagern? So werden die Karten nicht so teuer und wer RT und DLSS haben möchte kauft sich die passende Karte seperat..


Daran habe ich auch schon gedacht. Ähnlich wie bei den PhysX-Karten damals. Leider wird Raytracing dann wieder in der Versenkung verschwinden. Nvidia macht das lieber mit der Brechstange und verteilt die Kosten auf alle Kunden. Ob die es jetzt wollen oder nicht. Friss oder stirb...
 
Ja erste Schritte sind notwendig, warum nicht mit Prototypen im Testlabor, NV hat doch so viel Geld da können die doch ruhig noch ein paar Jahre forschen und experimentieren und dann mit vernünftiger Performance rausbringen. So kommt es einem vor als hätte EA schnell was gebastelt um einfach nur zu zeigen, ja wir haben was gemacht was pünktlich draußen ist und dafür ein haufen Geld von NV bekommen.

Der Grund ist doch recht simpel: sie benötigten eine neue Generation aber die möglichen Leistungssteigerungen mit aktueller Technik wären einfach zu gering. Mehr Shader bringen irgendwann einfach nichts mehr. Diese absolute Grenze ist bei nV wohl bei zwischen 4600 und 5100 erreicht. Daher musste ein anderer Verkaufsgrund her: Raytracing (und dass man für Spieler eigentlich unnützen Tensor-Cores mit DLSS schmackhaft machen kann, ist ein netter Nebeneffekt). Denn letztlich sind sie, wie jede Firma, nur ihren Aktionären gegenüber verpflichtet. Und da müssen hohe Margen her, Labortests kosten nur viel Geld und schmälern den Gewinn. Warum also machen, wenn man es statt dessen bereits unfertig, teuer verkaufen kann?
 
Also für 1200€ auf FHD spielen..... seems legit. Ob es nicht auch genügt hätte, eine prototyp karte mit dem rtx zeug auszustatten, anstatt eine komplette reihe? Auf der 2070 wirkt das schon sehr deplatziert wenn man sich die benches mal anschaut

[FONT=&]
So ich bin an keiner NDA oder Nvidia aufhübschenden Argumentation gebunden, das sieht weder hübsch aus und ist von der Performance her eine Katastrophe! Eine 1400 bis 1600,00 Euro Grafikkarte in Form einer RTX 2080Ti performt hier in FHD [1080p] mit teils niedrigen 30 FPS und sogar darunter. Für User mit einem FHD [1080p] Monitor@60 Hz schon nicht mehr Spielbar, da braucht man zumindest schon einen Monitor mit 144 Hz und Gsync. Für alle anderen User mit Monitoren ab WQHD 1440p und höher noch uninteressanter, so wird es dann kommen, dass man meist dieses Raytracing Feature auf OFF hat, weil die Leistungseinbuße in keinem Verhältnis zum grafischen Mehrwert steht. Somit bezahlt man ein Feature richtig teuer, das noch deutlich unter einem Beta Status rangiert! :nene:

Hast absolut recht, das ist Beta testen für sehr sehr viel geld. Also wenn ich mir die karte nur wegen dem RTX Feature gekauft hätte und jetzt auf FHD rumdümplen müsste, wäre ich schon ein wenig sauer. Jener der diese karte kauft, hat doch mindestens ein WQHD oder aufwärts, und will auch in dieser Auflösung spielen.
 
Zuletzt bearbeitet:
Dieser Spiegelungskram und die Softshadows sind doch eh für die Tonne. Interessant finde ich RT nur für Globale Beleuchtung, wobei das wahrscheinlich auch am meisten Leistung fressen dürfte.

Am ende alles in FHD zu zocken ist aber schlicht Quatsch, das macht doch keiner. Die Auflösung hat meiner Meinung nach keine Berechtigung mehr im Enthusiastbereich.

Deswegen einfach mit einer 2080 Ti in WQHD ;), mir würden die 50 FPS völlig ausreichen, die min FPS werden Updates wohl noch ausbügeln können, auch, wenn nach oben wenig gehen wird.

Weiß jemand ob man auch mit anderen Karten RT aktivieren kann ? (dass die FPS mies sind ist klar, ich will es mir nur selbst anschauen)
 
Daran habe ich auch schon gedacht. Ähnlich wie bei den PhysX-Karten damals. Leider wird Raytracing dann wieder in der Versenkung verschwinden. Nvidia macht das lieber mit der Brechstange und verteilt die Kosten auf alle Kunden. Ob die es jetzt wollen oder nicht. Friss oder stirb...

Raytracing ist leider nicht mit Physix vergleichbar und ein wirklicher Fortschritt in der Grafik. Selbst AMD wird nächstes Jahr Karten bringen die Raytracing können. Wird also nicht mehr verschwinden. Nur günstiger werden!
 
Nachtrag:
Ich lese immer über NVidias Innovation. Den Schritt in die Zukunkt und lauter so Blödsinn.

Euch ist schon klar, dass NV Raytracing nicht erfunden hat?
Dass es eine in DirectX definierte Standardisierung gibt an die sich NVidia zwecks eigen nutzen nicht (vollumfänglich) hält gibt?
Und vorallem... ...dass IHR NVidia-Kunden diesen "Vortschritt", oder eher Marktdominanz finanziert habt.

Also für den heutigen Stand könnt Ihr euch selbst auf die Schulter klopfen, bravo.

Was für ein Gesülze

Ist mir doch egal wer hier Raytracing in den 60ern erfunden hat , Nvidia kam jedenfalls im hier u jetzt auf die Idee die schnellen Tensor Cores u neuronale Netze dafür zu nutzen, und damit überhaupt zum ersten Mal ,einen praktischen Einsatz in Spielen zu ermöglichen

Und das wird auch weiter optimiert u ausgebaut werden, ganz gleich wie schadenfroh ihr jetzt hier rumhüpft

Was hätten wir denn für "Innovationen" bei der anderen Pleitegruppe gefördert? Noch mehr "Free" Kürzel u kaputte primitve Shader im Frösi Bastelbogen zum Selberbauen, oder das Managerkarussel gegenfinanziert? Da weiß ja morgen schon keiner mehr ,wer der neue Mitarbeiter von Gestern war ,solche Fluktuation herrscht in dem Stall:lol:

Sorry mein Geld bekommt weiterhin Nvidia, und nach solchen Shitstormaktionen aus der roten Ecke erst recht!
 
Zuletzt bearbeitet:
Raytracing ist leider nicht mit Physix vergleichbar und ein wirklicher Fortschritt in der Grafik. Selbst AMD wird nächstes Jahr Karten bringen die Raytracing können. Wird also nicht mehr verschwinden. Nur günstiger werden!

Woher hast Du denn die Info? AMD bringt nächstes Jahr nur Midrange Navi Karten und die werden kein Raytracing unterstützen. AMD plant vorerst kein Raytracing - >>DXR ergibt nur Sinn, wenn es alle Grafikkarten beherrschen<< - GameStar
 
Woher hast Du denn die Info? AMD bringt nächstes Jahr nur Midrange Navi Karten und die werden kein Raytracing unterstützen. AMD plant vorerst kein Raytracing - >>DXR ergibt nur Sinn, wenn es alle Grafikkarten beherrschen<< - GameStar

Das ist sowieso egal, AMD wird hierfür nicht gebraucht, im Desktop Markt ist ihr Anteil irrelevant und die Next Gen Konsolen hätten sowieso keine Chance gehabt bis Release preiswerte Chips, die RT richtig beherrschen, zu bekommen. Bei der PS6 und der Xbox Three wird AMD dann die Wahl haben zwischen sie haben mittlerweile passende Karten oder sie verlieren den Auftrag an Intel, die bis dahin definitiv im GPU Markt präsent sein werden.
 
Raytracing ist leider nicht mit Physix vergleichbar und ein wirklicher Fortschritt in der Grafik. Selbst AMD wird nächstes Jahr Karten bringen die Raytracing können. Wird also nicht mehr verschwinden. Nur günstiger werden!

Mit Fortschritt hast du recht , nur hat AMD per Chefentwickler lediglich gepoltert , das sie an Raytracing für Spiele denken, aber eine Adaption gibts weder für V20 u das ist die Speerspitze ,u schonmal gar nicht für Navi

Das ist alles was nächstes Jahr folgt
und die Next Gen Konsolen hätten sowieso keine Chance gehabt bis Release preiswerte Chips, die RT richtig beherrschen, zu bekommen.

wenn man dedizierte Hardware in 7nm baut eventuell schon, dazu noch ein ARM Prozessor auf der selben Platine

Man fragt sich sowieso was Microsoft u Nvidia da noch so zusammenkochen, wenn sie beide schon zusammen still u heimlich die RT Schnittstelle ins leben rufen.
 
Zuletzt bearbeitet:
Zurück