Battlefield 5 mit Raytracing: Geforce RTX 2070 ist das Minimum

Abwarten wie BF nun mit RT läuft.
Habe noch in Erinnerung das ne 2080 TI in 1080p nicht mal konstant 60FPS schaffte.
Ob die Software nun besser optimiert ist und oder ob die Details runtergedreht wurden um mehr FPS auch auf "Einsteigerkarten für RT" läuft wird sich wohl bald zeigen.
 
Abwarten wie BF nun mit RT läuft.
Habe noch in Erinnerung das ne 2080 TI in 1080p nicht mal konstant 60FPS schaffte.
Ob die Software nun besser optimiert ist und oder ob die Details runtergedreht wurden um mehr FPS auch auf "Einsteigerkarten für RT" läuft wird sich wohl bald zeigen.

Hat Dice ja schon angekümdigt dass die die Details für RTX runter drehen ... z.B. die Distanz von Objekten die für Reflexionberechnung herangezogen werden wird reduziert. D.h. könnte sein das sich die Gebäude auf der gegenüberliegenden Seite schon nicht mehr in den Fenstern spiegeln. Sie können auch die Rays reduzieren die für das Raytracing genutzt werden, was aber zu einem noch unklareren Bild führt welches durch das TensorCore-Denoisen wirder gerichtet werden müsste und zu noch mehr Bildfehlern führen dürfte.
 
Wieso solltest du dir auch ein Downgrade holen? Die 2070 ist 30% langsamer wie die 1080Ti .... ich bezeifle das RTX soooo viel bringen wird. Bei Tomb Raider berechnet es nur die Schatten und sieht praktisch gleich aus wie ohne RTX off, Metro nutzt es auch nur für die Beleuchtung was auch nicht anders aussieht als herkömliches ambient occlusion ... das einzige Spiel was momentan Reflexionen anbieten will ist Battle Field V ... dafür ein downgrade? Würde ich nicht machen und ich kann dich verstehen das du da keinen Anreiz siehst.

Die 2070 soll 30% langsamer sein als die 1080ti??? Die Custommodelle der RTX 2070 kommen fast an die 1080ti ran. Keine Ahnung welche Benchmarks du dir angesehen hast. http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

Raytracing ist aber erst in 2-3 Jahren interessant wenn es sich denn überhaupt durchsetzt.
 
Grundsätzlich interessant, was da die Zukunft für uns Spieler in Sachen Optik bereit hält, auch wenn verständlicherweise Turing leistungstechnisch nur den ersten Schritt darstellt.

Eine rein technische Frage stellt sich mir hier: DXR bzw Raytracing läuft ja über die Tensor Cores. Wenn man nun hypothetisch Dinge wie Nebel oder andere GPU Lastige Effekte reduziert, würde man damit überhaupt Raytracing (wenn einem genau das wichtig ist) zusätzlich beschleunigen können? Oder ist die Leistung schlicht an die nüchterne Tensor Core Bestückung gekoppelt?
 
Die 2070 soll 30% langsamer sein als die 1080ti??? Die Custommodelle der RTX 2070 kommen fast an die 1080ti ran. Keine Ahnung welche Benchmarks du dir angesehen hast. http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

Raytracing ist aber erst in 2-3 Jahren interessant wenn es sich denn überhaupt durchsetzt.

Du solltest genau hinsehen. In den Benchmarks ist es eine GTX 1080Ti im Referenz Design mit1650 MHz, die meisten Customs laufen aber ab 1850 aufwärts! Daher sind 30% locker drin.
 
ist schon klar jetzt wo sich viele WQHD /UD 133Hz+ Monitore gekauft haben soll ich Spass haben an Full HD mit 30 fps o0. #failvidia :wall:
Ich weis garnicht warum hier über den mist noch berichtet wird......
 
Bin auch mal gespannt. BF hatte immer eine sehr gut Grafikengine. Bsp. habe meinem PC ein downgrade unterzogen (gtx970) verkauft so lang man noch geld dafür bekommt. BF4 läuft nun auf ner amd hd 6870 mit irren 1gb speicher immerhin in fullhd auf mittleren settings mit 30-40 fps. und sieht dabei sehr gut aus. PUBG läuft auf fullhd mit minimal settings gerade mit unspielbaren 10-20 fps und sieht grotten schlecht aus. BF4 also top Engine, pubg miese Engine.
 
Hab links eine Kerze und recht ein schwarzes Modelauto vor meinem Monitor stehen.
Mega geile RT Effekte permanent
Cool und für 2€ recht günstig

Ich weiß nicht ob das nen Trollversuch ist aber Raytracing wie es in Battlefield zu Einsatz kommt ist nicht nicht alles was man mit Raytracing realisieren kann. Alle Oberflächen spiegeln bzw. reflektieren Licht sonst wären sie schwarz. Wie leistungsfähig die Karten wirklich sind und wie gut Spiele damit aussehen können wird sich erst zeigen wenn man die herkömmlichen Shader komplett durch Raytracing ersetzt. Ich hoffe ja dass ein paar Indies damit rumspielen werden auch wenn das die Gamer-Gemeinde zumindest fürs erste komplett spalten wird, wie das auch schon VR tut. Ähnlich war das aber auch bei den 3D Beschleuniger Karten in den 90ern. Neue Hardware hat 3D in Spielen erst so richtig zum Sieg verholfen und so wird es zumindest meiner Meinung nach bei Raytracing sein. Bis auf wenige Ausnahmen sind alle Spiele heute in 3D selbst wenn sie 2D vorgaukeln.

Diese Szene hier hat keine 5 Minuten gedauert zu bauen. Raytracing macht alles einfacher, kostet aber mehr Hardwareleistung.

whisky-jpg.1018990
 

Anhänge

  • whisky.jpg
    whisky.jpg
    40,7 KB · Aufrufe: 294
Raytracing scheint ja auch hart den Prozessor und den Arbeitsspeicher zu belasten, wenn die Systemanforderungen irgendwie der Realität entsprechen. Fast doppelte nötige CPU-Leistung und 4 GB mehr RAM ist schon hart. N 8-Kerner in der empfohlenen Konfig hab ich vorher noch nicht gesehen...
 
Raytracing scheint ja auch hart den Prozessor und den Arbeitsspeicher zu belasten, wenn die Systemanforderungen irgendwie der Realität entsprechen. Fast doppelte nötige CPU-Leistung und 4 GB mehr RAM ist schon hart. N 8-Kerner in der empfohlenen Konfig hab ich vorher noch nicht gesehen...

Pure Spekulation aber ich vermute da zwei verschiedene Systeme zum Einsatz kommen müssen die das Spiel praktisch zweimal parallel laufen lassen und das eine dann mit dem anderen überlagern. Das klingt zumindest für mich eher nach schneller Pfuschlösung als nach durchdachtem System welches die neue Hardware effizient nutzt. Die Hardware ist noch extrem neu also würde ich das nicht weiter bewerten, schade ist nur dass Raytracing selbst dadurch in die Schussbahn der Spieler gerät. Zumindest wenn ich mir den ein oder anderen Anti RTX Kommentar hier im Forum durchlese. RTX bzw. Raytracing ist gut und sinnvoll völlig unabhängig davon was aktuelle Spiele daraus machen!
 
Naja so einfach scheint die DLSS und RTX Geschichte ja nicht zu sein wenn es bis heute keinen Content dazu gibt.
Ob man da jetzt den Entwicklern nen Schuh daraus drehen muss weiß ich nicht so recht.
 
Naja so einfach scheint die DLSS und RTX Geschichte ja nicht zu sein wenn es bis heute keinen Content dazu gibt.
Ob man da jetzt den Entwicklern nen Schuh daraus drehen muss weiß ich nicht so recht.

Ich versuche hier niemandem einen Schuh draus zu drehen. Ich finde es nur falsch gegen Raytracing oder RTX als Solches zu schießen bloß weil es noch keine optimale Verwendung findet. Raytracing ist von Entwicklersicht aus schon seit Ewigkeiten das Ding worauf alle warten. Wie Nvidia selbst gesagt hat: Geht man nur von aktueller Hardware aus hätte es noch 10 Jahre gedauert bis Raytracing effektiv in Echtzeit nutzbar würde. Speziell für Raytracing entwickelte Hardware hingegen holt das alles plötzlich in die Gegenwart und es wird eine ganze Zeit dauern bis man da seinen Workflow drauf anpasst. Man kann ja nun nicht direkt alle Leute die dafür zuständig sind Texturen zu backen rausschmeißen bloß weil man das jetzt mit Raytracing lösen kann. Texturen backen bedeutet man nutzt Raytracing für Ambient Occlusion und brennt diese Schattierungen auf die Textur so dass sie nicht in Echtzeit berechnet werden muss. In Spielen in denen sich die Sonne bzw. Lichtquellen nicht bewegen kann man das selbe auch mit allen anderen Schatten machen (von Gras zB.) um jede Menge Rechenleistung zu sparen. Schattenberechnungen sind bei der aktuellen Hardware extrem rechenintensiv was sich bei sehr vielen kleinen Objekten schnell bemerkbar macht. Raytracing setzt dem ein Ende weil es nicht mehr auf die Anzahl der Objekte ankommt. Es spielt praktisch keine Rolle mehr und die Qualität der Schatten hängt dann nur noch von der Anzahl an RTX Cores ab weil die Schatten aus Perspektive der Kamera berechnet werden, und nicht aus der Perspektive des Lichts. Normalerweise berechnet man den Schatten so dass man jedes Objekt als 2D Abbild auf den Boden wirft. Mehr Objekte = mehr Zeit. Bei Raytracing dreht man den Spieß um. Man schießt einen Strahl von jedem Pixel des Bildschirms aus in die virtuelle 3D Welt und guckt einfach nur wie und wo der Strahlen rumspringen. Daraus ergibt sich dann alles was mit Licht und Schatten zu tun hat vollkommen automatisch. Statt Zeit damit zu verbringen Licht und Schatten zu optimieren damit das Spiel flüssig läuft, kann man sich als Entwickler darauf konzentrieren dass die Welt gut aussieht. Das heißt man spart sich nervige Arbeit die man wo anders einsetzen kann. Ich hoffe ja irgendwann schafft auch einer Texturen und UV-Mapping ab. Das ist mit das nervigste von allem xD
 
Zuletzt bearbeitet:
Gegen Raytracing ist nichts einzuwenden und von DXR profitieren im gewissen Maße erstmal alle User mit halbwegs modernen Grafikkarten(Architekturen), bereits die Voraussetzung von DX12 oder Vulkan ist ein Segen für die Branche. Erstes Ergebnis ist ein Shadow of the Tomb Raider, das offenbar mit DX12 sehr gut läuft und die DX11 Umsetzung um Längen überflügelt (vor allem der geringe Overhead im CPU-Limit bzw. die CPU-Ausnutzung ist hervorragend unter DX12: Shadow of the Tomb Raider im Technik-Test (Seite 3) - ComputerBase). So darf es ruhig weitergehen. Nun muss auch Dice den DX12 Pfad der Frostbite-Engine in den Griff kriegen, sonst will das keiner freiwillig in dem Modus spielen. Verschwinden nicht die Microruckler, das regelmäßigen Stottern und die Leistungseinbrüche unter DX12 in Battlefield 5, fällt EA das auf die Füße. Kritisiert und vor allem amüsiert wird sich hier nicht über eine Technologie (Raytracing), sondern über die Politik und den Marktauftritt eines GPU-Herstellers. Die Philosophie, die Nvidia vermitteln will, kommt nur bei oberflächlich informierten Usern an, die das Wie und Warum nicht interessiert.
 
Zuletzt bearbeitet von einem Moderator:
@Luk45
Es wird auch noch mind. 5 Jahre dauern, bis RT vernünftig in Spielen umsetzbar ist. Auch heute ist die Leistungsfähigkeit einfach viel zu klein.
Raytracing überall ist heute immer noch so weit entfernt wie vor RTX.
RTX ändert daran leider garnichts. Wir brauchen kleinere Fertigungsverfahren und brauchen wohl RT Einheiten, die so viel Platz brauchen, wie heutige GPUs. Die anderen Shader brauchen wir aber dennoch und ab besten noch viiiel mehr.

Heutige Karten sind einfach zu schwach. Schon in der enorm abgespeckten Version in BFV Demo hat es nur das Topmodell gerade so gepackt, halbwegs brauchbare Frameraten zu erzeugen. Nur in einer Auflösung, in der man nicht einmal mehr den Detailgrad von modernen Spielen erkennen kann.

Apropos Auflösung: Battlefield V stellt diverse Objekte mit viel Geometrie dar. Damit profitiert das Spiel wie kaum ein anderes von einer hohen Auflösung. Resultat: Battlefield V sieht in 1.920 × 1.080 nicht halb so gut wie in Ultra HD aus. Der optische unterschied ist riesig. In Full HD wirkt das Spiel matschig, da die Anzahl der Pixel für die genutzte Geometrie zu gering ist. 2.560 × 1.440 macht grafisch bereits einen großen Schritt nach vorne und Battlefield V fängt an, die Grafik-Pracht ausspielen zu können. Doch erst ab 3.840 × 2.160 kann das Spiel die optischen Stärken vollends ausfahren.
Battlefield V im Benchmark-Test - ComputerBase
 
Zuletzt bearbeitet:
Hammer das in den Empfehlungen ein (mein) i7 8700K auftaucht. Bisher waren die Empfehlungen meiner Ansicht nach gegen dem was ich sonst im Rechner habe moderat und "Lasch". Aber jetzt solch eine CPU vorzufinden ist schon krass.
 
Die Philosophie, die Nvidia vermitteln will, kommt nur bei oberflächlich informierten Usern an, die das Wie und Warum nicht interessiert.

Nur das sich diese "Oberflächlichen" von eurer marxistischen Weltanschauung nicht beirren lassen, scheint euch immer extremistischer werden zu lassen gegen jeden erfolgreichen Konzern, sei es nun Intel ,Nvidia, oder sonst wer der nicht AMD heißt

Und wer den CEO eines Unternehmens als Affenkarikatur in seinen Profilbild hat , den kaufe ich seine "vernünftigen" Absichten schonmal gar nicht ab

Da wo ihr jetzt hier die angebliche Verständnis rüber bringen wollt, seit ihr umgehend schon im nächsten RTX Thread ,und wettert gegen die Technologie von neuen
 
Zuletzt bearbeitet:
Nur das sich diese "Oberflächlichen" von eurer marxistischen Weltanschauung nicht beirren lassen, scheint euch immer extremistischer werden zu lassen gegen jeden erfolgreichen Konzern, sei es nun Intel ,Nvidia, oder sonst wer der nicht AMD heißt

Und wer den CEO eines Unternehmens als Affenkarikatur in seinen Profilbild hat , den kaufe ich seine "vernünftigen" Absichten schonmal gar nicht ab

Da wo ihr jetzt hier die angebliche Verständnis rüber bringen wollt, seit ihr umgehend schon im nächsten RTX Thread ,und wettert gegen die Technologie von neuen

Ich hätte gerne, bzw würde es auch mit RTX versuchen, beiu der Ti aber nicht mehr als meine Ti gekostet hat dabei zahlen...
 
Dann muss man eben auf 7nm warten wo ist da das Problem?

Das mit "16nm" , riesen DIEs, und neuer Technologie ,kein Spar Abo kommen wird, sollte doch jedem einleuchten , und das Turing R&D ist auch nicht umsonst

Die jetzigen Karten sind dazu da die Technologie einzuführen, und von den Enthusiasten zu amortisieren und die schlechten Yields abzufedern ,nicht mehr nicht weniger

Nvidia bietet halt schonmal den ersten Entwicklern u Enthusiasten die Möglichkeit auf Tuchfühlung zu gehen, und der Rest folgt mit 7nm so wie das sicher auch vorgesehen war

Alle kritisieren den Konzern obwohl er der einzige ist der mit 16nm nochmal eine Highend Lösung anbietet, AMD macht nichtmal den Versuch das zu bewerkstelligen ,dafür gibt es gewiss Gründe

Und Vega 20 als erste 7nm Instinct Karte, wird auch kein Sparmodell , das sich unter Turing ansiedelt, obwohl es dessen Leistungsfähigkeit nicht erreicht
 
Zuletzt bearbeitet:
Zurück