Battlefield 5 mit Raytracing: Geforce RTX 2070 ist das Minimum

Du solltest genau hinsehen. In den Benchmarks ist es eine GTX 1080Ti im Referenz Design mit1650 MHz, die meisten Customs laufen aber ab 1850 aufwärts! Daher sind 30% locker drin.

nee PCGH gibt den Minimalen Boost an es kann genauso gut sein das die Karte fast nur auf 1900Mhz lief.

Zitat PCGH:
...haben wir uns dazu entschlossen, in den Benchmarks fortan den Mindest-Boost anzugeben. Arbeitet eine Grafikkarte beispielsweise mit Frequenzen zwischen 1.650 und 1.810 MHz, geben wir "1,65+ GHz" an. Faustregel: Ist eine Grafikkarte der Limitfaktor, bestimmt ergo allein die Bildrate, fällt der GPU-Boost mit steigender Auflösung. Das gilt für ausnahmslos jedes aktuelle Modell.
 
Zuletzt bearbeitet:
Hat Dice ja schon angekümdigt dass die die Details für RTX runter drehen ... z.B. die Distanz von Objekten die für Reflexionberechnung herangezogen werden wird reduziert. D.h. könnte sein das sich die Gebäude auf der gegenüberliegenden Seite schon nicht mehr in den Fenstern spiegeln. Sie können auch die Rays reduzieren die für das Raytracing genutzt werden, was aber zu einem noch unklareren Bild führt welches durch das TensorCore-Denoisen wirder gerichtet werden müsste und zu noch mehr Bildfehlern führen dürfte.

irgendwie bitter das das neue "Killerfeature" so ein Rohrkrepierer ist; nur DX12 schafft das noch zu toppen.
Naja noch 2-3 Generationen von Grafikkarten weiter und das Thema Raytracing sollte durch sein....so oder so.
 
irgendwie bitter das das neue "Killerfeature" so ein Rohrkrepierer ist; .

noch nichts gesehen außer ner Alpha Demo aber schon aus der roten Parallelwelt heraus von Rohrkrepierer fantasieren

Apropos

Übrigens, bei der ersten BF5-Präsentation mit Raytracing wurden nicht die Tensor-Cores für das Denoising verwendet, sondern die regulären Shader-Einheiten.
Wenns euch aber hilft die rote Lethargie im AMD Portfolio zu lindern , dann sei euch die kleine Märchenstunde gewehrt :D

Aber psst Raytracing wird nicht wieder verschwinden , und wir wissen ja jetzt schon, das sollte AMD dann auch mal eines guten Tages das Gleiche bietet (in 10 Jahren oder so:fresse:) es dann das tollste u geilste überhaupt ist , nicht wahr?

Und dann kommt da sicher vor Raytracing noch das
Kürzel...
Ist zwar das selbe wie bei Nvidia nur mit miesen kurzweiligen Support, der dem roten Volk aber die Hoffnung aufrecht erhält es ist "gönnerhaft donglefree u Volkseigentum" .Aber hei was wäre AMD ohne "FREE Taktik"...
Da kommt doch sonst noch einer auf die Idee die würden nix tun, außer Namen in den Ring werfen ,und danach wieder alles verhungern lassen,quasi business as usual tss tss;)
 
Zuletzt bearbeitet:
Gast du mal wieder zu viele Benchmark auf GameGPU konsumiert. Die kleine TwinX 2 ist doch Schrott und schneller ist die auch nicht.
 
Schrott ist nur mal wieder dein Gerede weil du dir nicht eingestehen kannst das die Vega Karte nicht mal nur den Hauch einer Konkurrenz darstellt für den kleinen Turing

Bei 30 Euro Differenz "aktuell" gibt es nicht einen einzigen Grund zur Vega64 zu greifen, bei Pascal schon nicht ,außer man war so ein verblendeter geldgeiler Mining Fuzzi ,u bei Turing erst recht nicht

weder toppt sie die 2070 bei Leistung, Verbrauch ,Featureset oder Decoder Paket samt modernerer HDMI /DP Anschlussterminals


Korrigiere bei Verbrauch toppt sie die 2070 ,und das bald um das doppelte im negativen Sinne:daumen:

fullsizeoutput_400-jpeg.1019151
 

Anhänge

  • fullsizeoutput_400.jpeg
    fullsizeoutput_400.jpeg
    217 KB · Aufrufe: 171
Zuletzt bearbeitet:
Meine eigentlich immer über 2 GHz, auch unter Vollast, bei immer unter 60 Grad C°. :)

Die 2070 könnte man natürlich auch noch OCn.
Keine Ahnung was da geht.
Vielleicht bleibt der Abstand ähnlich, wie im benchmark ...

Du darfst nicht vergessen, eine GTX 1080TI hat um 1/3 mehr Shader als die RXT2070 und die Leistung geht nicht proportinal zu der Taktfrequenz. Eine 1080TI auf 2GHz wird deutlich schneller sein als eine 2070 auf 2GHz
 
Schrott ist nur mal wieder dein Gerede weil du dir nicht eingestehen kannst das die Vega Karte nicht mal nur den Hauch einer Konkurrenz darstellt für den kleinen Turing

Bei 30 Euro Differenz "aktuell" gibt es nicht einen einzigen Grund zur Vega64 zu greifen, bei Pascal schon nicht ,außer man war so ein verblendeter geldgeiler Mining Fuzzi ,u bei Turing erst recht nicht

weder toppt sie die 2070 bei Leistung, Verbrauch ,Featureset oder Decoder Paket samt modernerer HDMI /DP Anschlussterminals


Korrigiere bei Verbrauch toppt sie die 2070 ,und das bald um das doppelte im negativen Sinne:daumen:

attachment.php

den typen sollte man auf keinen fall ernstnehmen. Er verbringt 24 Stunden seines lebens auf PCGH und sucht nur nach aufmerksamkeit.

Ich stimme dir im übrigen in allen punkten zu ! Nichts als die Wahrheit,so gefällt mir das !:daumen:
 
Ingesamt wirkt Raytracing von dem was man bis jetzt hört eher wirklich als Enttäuschung... DICE schraubt die Qualität noch weiter runter als sie es eh schon hatten auf der Demo und selbst dazu gibt es von nVidia solche Angaben zur Qualität?
Ziemlich traurig soviel Geld zu verfeuern und dann sowas geliefert zu bekommen, DLSS ist laut Berichten auch nicht das gelbe vom Ei.

nVidia schafft es flüssiges UHD Gameplay mit neuen Karten wieder in die Full HD Zeit zu verfrachten und dafür auch noch rund 1300€ zu verlangen, well done nGreedia...
Der optische Gewinn ist auf Fotos und im Stillstand vorhanden, aber die Nachteile im Gameplay bezogen auf FPS und Auflösung bei der Hektik eines BF´s?
Ne danke...

Turing ist wirklich eine langweilige Generation, kaum schneller, keine brauchbaren Features (aktuell), extremst teuer.

Und die zweite Seele die nach Aufmerksamkeit sucht ist also hier zu finden bei PCGH, zum Glück auf der Igno :schief:
 
Hm... gut das ich ein Downgrad gemacht hatte. Zwischen der MSI Gaming X Trio RTX 2080TI 1319,- € zurück zur MSI Gaming X Trio RTX 2080 766 € = 553,- € weniger gezahlt.

Bei 4k schaffe ich auch mit der RTX 2080 fast überall die 60 fps (ggf. minimale Qualitätseinbußen / 2.040 Mhz / 15.600 Mhz Speicher)

Und für RTX? in 1080p mit 60fps medium oder high Details? uff das wäre mir den Aufpreis kaum wert gewesen - bleiben die ca. 20-30% Rohleistung übrig, in Ordnung aber naja, dann lieber in 2 Jahren die nächste Gen holen und mit weniger Verlust die alte Karte verkaufen. Wer weiß wie stattlich der 7nm Sprung dann ausfällt.

Das Geld was ich gespart habe inkl Verkauf der alten Komponenten, hat jetzt für einen Systemwechsel gereicht und ich hab keine Mikroruckler mehr durch zu langsamen Speicher bzw. CPU Leistung
sowie dazu genug Leistung für die nächsten paar GPU Generationen.
 
War ja abzusehen das RTX verdammt viel Leistung benötigt. Also hat sich seit der Battlefield Präsentation bis heute nicht wirklich was getan. Nur 2080 RTX 60 FPS mit RT auf Ultra.... und dann nur Full HD :ugly: Man kauft also für 1.300+ das Flagschiff der Karten um das neuste Feature nutzen zu können und muss dann auf FullHD Auflösung... :lol:
 
Es schaut schon sehr gut aus. Ich finde es aber schon witzig, dass Konsolen schon 4K in Spielen ermöglichen und bewerben und NVIDIA dann um die Ecke kommt: RTX ist die Zukunft - 1300€ für RTX On und gerade mal in FHD 60 FPS.

4K sollte von NVIDIA schon als Standard angepeilt werden. Wenn neue Features auf dem Markt kommen, dann bitte auch erst damit werben oder implementieren, wenn man mit dem Flagschiff in 4K 30 FPS bei Openworld / Shooter 60 FPS und Ultra Settings spielen kann.
 
Der Effekt sieht gut aus - auch wenn er deutlich übertrieben ist.
Schein das typische "neu also müssen wir 500% geben" zu sein. zur leistung - was die ungebildeten schon wieder daher reden XD Ein Effekt der hier deutlich bessere Beleuchtung und Spiegelung bringt läuft auch auf 1440p mit > 60 FPS. Und das i bei einem der ersten Spiele und obwohl es so übertrieben eingesetzt wird.
 
Immer dieses polarisierte gebashe; gibts eigentlich nichts anderes mehr in Eurer Welt? Ich find's gut, dass NVidia diesen Technologiesprung gewagt hat! Auf der anderen Seite sind für mich die Preise für eine einzelne GPU auf einem Board so weit entfernt, dass ich es mir nicht kaufen werde. Aber wer's hat; y not?!
Grundsätzlich habe ich zur gezeigten, und damit sicher nicht im schlechtesten Licht dargestellen Leistung die Meinung, dass es viel zu wenig ist um wirklich über Raytracing bei PC-Spielen zu reden. Für ein paar korrekt brechnete Reflektion auf Eis, Wasser, Metal usw. oder Rauch muss man auf Full HD zurück schrauben wenn man die 1.000€ Marke nur alleine für die Grafikkarte nicht durchbrechen möchte. Abgesehen davon sind 60 FPS in Shootern eigentlich eher ungewöhnlich wenig und die Anforderungen an das restliche System sind auch nicht wirklich unbedingt Kleinlich. Kann mir nicht vorstellen, dass jemand, der z.B. mit Wettkämpfen im Gamingbereich mit Shootern sein Geld verdient wirklich auf 60 FPS zurück gehen würde für die paar Reflektionen des Feuers in der Pfütze vor mir. Es ist also im Prinzip eine Bildaufwertung in bestimmten Situation und dann in bestimmten Bereichen des Bildes. Von großflächigem Raytracing in z.B. UHD auf 28", wo die Pixel wirklich fein sind und man wohl wirklich ein Auge bekommen würde, sind wir noch weit entfernt. Aber irgendeiner muss halt den Anfang machen! Und der bekommt von mir immer Respekt; is mir scheiss egal ob da AMD oder NVidia drauf steht. Ich fand auch HBM gut, denn der Ansatz ist auf lange Sicht gesehen schon gut und wichtig; da bekam AMD von mir Lorbeeren.
 
Ist eigentlich erst interessant wenn das ganze auf Konsolen in 4K performant läuft, bis dahin wie immer nette Taschenspielerei die mich weder interessiert noch irgendwelche "Haben-Muss" Effekte auslöst. Da muss man schon die Screenshots im richtigen Moment machen, damit man das "Spektakel" nicht verpasst. ^^

Gehöre noch zur Generation wo Raytracing in Quake 3 (nicht Arena) vorgestellt wurde. Man sieht ja wie lange es dauert bis Bewegung in Raytracing kommt.....
 
Man kauft also für 1.300+ das Flagschiff der Karten um das neuste Feature nutzen zu können und muss dann auf FullHD Auflösung... :lol:

Oder man stellt das Feature einfach nicht auf Ultra. Das ist doch eigentlich das schöne am PC. Man kann sich aussuchen, was einem wichtig ist. Die Leute, die meinen man müsste mit einer High-End-Karte, ob man damit jetzt auch eine 1070 oder eine 2080 Ti meint, spielt dabei eigentlich keine Rolle, alles in jedem Spiel immer auf Ultra stellen können und das noch bei den höchsten Auflösungen und den maximalen Fps, haben dieses Prinzip einfach grundlegend missverstanden.
 
Oder man stellt das Feature einfach nicht auf Ultra. Das ist doch eigentlich das schöne am PC. Man kann sich aussuchen, was einem wichtig ist. Die Leute, die meinen man müsste mit einer High-End-Karte, ob man damit jetzt auch eine 1070 oder eine 2080 Ti meint, spielt dabei eigentlich keine Rolle, alles in jedem Spiel immer auf Ultra stellen können und das noch bei den höchsten Auflösungen und den maximalen Fps, haben dieses Prinzip einfach grundlegend missverstanden.

Interessante Begründung. Man kauft sich eine solche Karte um eben keine Details runterschalten zu müssen.
 
Interessante Begründung. Man kauft sich eine solche Karte um eben keine Details runterschalten zu müssen.

Was du verlangst ist, dass alle Spiele nur so gut aussehen, wie es die aktuelle Hardware schafft. Und jetzt die Frage: Muss das dann in 4K sein? Mit 144 Fps oder reichen 60? Wer entscheidet das? Wenn eine 2080 Ti in jeder Lage auf Ultra in 4K 144 Fps liefern können muss, kann ich dir sagen, was die Folge ist: Ultra-Settings sehen aus wie vor fünf Jahren, wenn es gut läuft, alle anderen Variablen sind nämlich fix.
 
Zurück