Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen

Jetzt sehe ich bei 3840x2160, High Quality in Final Fantasy XV Benchmark results... RTX 2080 Ti und RTX 2080. Circa. 33.26% und 36.39% schneller im Vergleich zum Vorgänger.

RTX 2080 Ti circa 7.15% schneller als TITAN Volta und circa 24.20% schneller als Titan Xp.

Kleiner Hinweis:
Auf dieser Seite kannst du die Namen der von dem FINAL FANTASY XV-Benchmark getesteten Grafikprozessoren und deren durchschnittlichen Punktzahlen überprüfen.

Ist zwar nicht ganz Aussagekräftig... Es könnte auch ein verstecktes Overclocking geben, was die Ergebnisse verfälschen sein könnte. Wir warten trotzdem auf ein offizielles Test.
 
Ja, ich habe es erkannt dass es nicht normal ist wenn es zwei unterschiedliche Ergebnissen zu dem Grafikprozessor gibt.
 
hat eig schon jemand die FFXV Benchmarks gepostet?

FINAL FANTASY XV WINDOWS EDITION | SQUARE ENIX

runter scrollen!

Nichts was mich irgendwie überzeugen könnte.
Die RTX 2080 Ti ~16% schneller und die RTX 2080 ~9% langsamer. Hoffentlich kommt da bei den Spielen mehr.
RTX 2080 Ti.PNG
Online 2160p2.PNG
 
Zuletzt bearbeitet:
Tut mir leid, daß ist nicht mein Genre.
Mich hat nur der Test interessiert ;).

Das neue Tomb Raider wird interessant, da wird ja Nvidia die RTX Karten ja darauf optimiert haben.
Das wird jetzt so mal mein Anhaltspunkt zum Vergleich.
 
Der Bench taugt auch nicht wirklich was, lässt sich manipulieren und ist nicht sinderlich aussagekräftig. Aber als Anhaltspunkt besser als nichts. Ich glaube nicht das die RTX 2080 die 1080ti nennenswert schlagen kann.
 
Selbst wenn du ihn nicht manipulierst läuft er jedes mal anders. Alle dargestellten Situationen sind optisch komplett anders als beim lauf davor. Mal läuft er mit Glitches mal ohne sowohl was die Grafik angeht wie auch die AI der beteiligten Spielfiguren.
Was ihn so ziemlich als belastbaren Benchmark disqualifiziert.
 
Viel freien VRAM zu allokieren (adressieren) - heisst nicht zwangsläufig auch benötigen ! ( RTX= ggf. neue Denkweise annehmen )
Hm, wenn man eine gewisse Menge an Speicher nicht benötigt, warum sollte man ihn dann allokieren?
Viele Spiele kommen von den Konsolen, die Spieleentwickler lernen dort sehr gut, wie man sparsam mit den kostbaren Hardwareresourcen umgeht und dass man nur soviel Spiecher anspricht, wie man wirklich benötigt.
Ich bezweifel, dass es viele Spiele gibt, die mehr Speicher reservieren, als sie dann wirklich benötigen.

vielleicht kommst Du dann bis Mittwoch dahinter, wie die neue RTX 2080/8GB Grafikkarte schneller sein kann als eine GTX1080Ti/11GB - immer und dass sogar in 4K .... finde das '8-GiByte-Grafikkarten Problem'! Wiso limitiert das 8GB Problem nicht ?!?
4K bedeutet so gut wie nichts für den Speicher.
Hochauflösende Texturen nehmen da viel mehr Speicher in Anspruch.
Die 2080/8GB ist einfach nur schneller, was die Menge an Pixel angeht, die 4K entspricht - solange der Speicher nicht voll ist.
Die 1080/11GB ist langsamer was die Menge an Pixel angeht - solange ein Spiel nicht mehr als 8GB benötigt.
 
Das ich die RT Cores mitbezahle und garkeinen nutzen existiert, da zu schwach? Am Binning stört mich das ich ab jetzt auch noch die Chipgüte mitbezahlen darf und das sehe ich nicht ein.

Also ich finde das Binning klasse, jetzt bekommt man mit den guten Modellen, für die man eh schon mehr zahlen musste, immerhin mal garantiert einen besseren Chip, bisher wurde ja nur bei den extrem teuren Karten vom Hersteller selektiert (Kingpin und Lightning bei Pascal).
Wobei ich das Gefühl habe, dass die meisten der sehr guten Chips bei Nvidia selbst verbleiben werden und für die Founders genutzt werden.
Hoffentlich erhöhen sich die Preise mit der nächsten Nvidia Generation nicht noch mal, denn da muss ich dann auf jeden Fall zu schlagen, da dann genug Leistung für Raytracing @4k da sein könnte und eventuell sogar für 8k (natürlich ohne RT), wobei da eher der Monitor Preis das Problem ist ^^.
 
Nichts was mich irgendwie überzeugen könnte.
Die RTX 2080 Ti ~16% schneller und die RTX 2080 ~9% langsamer. Hoffentlich kommt da bei den Spielen mehr.
Anhang anzeigen 1009536
Anhang anzeigen 1009537

Ich habe mal 2 schnelle runs gemacht:

FF 15 4.5GHz 8600K mode UHD High.jpg

Der 2. run war just 4 fun, da cpu OC eigentlich nix bringt, aber der Speicher (Dual Rank) war auch etwas stärker übertaktet mit meh Timings + VRAM und Cache etwas höher^^

FF 15 5.3GHz 8700K UHD High.jpg

Lande also zwischen Titan V und 2080 Ti.
 
Tut er doch, er kann alle Nvidia Folien auswendig plus diese vorwärts und rückwärts beim Frühstückstisch trällern. Irgendwann blockiert das Hirn einfach bei so viel Werbung die seit Jahren einen bestrahlen und berieseln. Die Kapazitäten sind am Limit und man darf die Sorge haben, dass er durch Metamorphose, sich zum grünen Slimer von den Ghostbusters entwickelt, weil aus einigen Öffnungen kommt jetzt schon nur noch grüne Sch.... raus :D

Ich meinte auch seine DIskurs und Reflexionsfähigkeit. Aber er hat das ja selbst beantwortet seh ich grad: dazu müsste eine Basis vorhanden sein
 
Ich habe mal 2 schnelle runs gemacht:

Anhang anzeigen 1009675

Der 2. run war just 4 fun, da cpu OC eigentlich nix bringt, aber der Speicher (Dual Rank) war auch etwas stärker übertaktet mit meh Timings + VRAM und Cache etwas höher^^

Anhang anzeigen 1009677

Lande also zwischen Titan V und 2080 Ti.

Mit welchem Takt lief die GPU denn? Max OC mit Max Lüftergeschwindigkeit ist nicht gerade das was ich als alltagstauglich bezeichnen würde.
Interessanter wäre eine 1080 Ti die auf bisschen mehr als 1,9ghz läuft, sprich dem was die meisten Ti out of the Box als Customs erreichen.
 
Die 2080Ti wird unerreichbar sein, aber die 2080 wird sich interessante Battles mit der 1080Ti liefern, natürlich beide übertaktet. Ich teste morgen mal mit meinem UV Profil.
 
Hm, wenn man eine gewisse Menge an Speicher nicht benötigt, warum sollte man ihn dann allokieren?
Viele Spiele kommen von den Konsolen, die Spieleentwickler lernen dort sehr gut, wie man sparsam mit den kostbaren Hardwareresourcen umgeht und dass man nur soviel Spiecher anspricht, wie man wirklich benötigt.
Ich bezweifel, dass es viele Spiele gibt, die mehr Speicher reservieren, als sie dann wirklich benötigen.

4K bedeutet so gut wie nichts für den Speicher.
Hochauflösende Texturen nehmen da viel mehr Speicher in Anspruch.
Die 2080/8GB ist einfach nur schneller, was die Menge an Pixel angeht, die 4K entspricht - solange der Speicher nicht voll ist.
Die 1080/11GB ist langsamer was die Menge an Pixel angeht - solange ein Spiel nicht mehr als 8GB benötigt.

Viele der komplett neuen Turing Technologie-Features gilt es noch zu ergründen .... zum einen die NEUE 'lossless Memory Compression' (verlustfreie Speicherkomprimierung) der Nvidia RTX Turing Architektur, als auch die Neuen erweiterten 'Turing Tensor Cores' (Volta Erbe), sowie die Leistung der Neuen Streaming Multiprocessor (SM) samt dem 'Killer-Feature' Deep Learning Super-Sampling (DLSS) .... wird also richtig spannend mit voll gebündelter FP32 + INT32 Rechenleistung gleichzeitig .... ;o)

>>> Die Turing SM unterstützt die gleichzeitige Ausführung von FP32 und INT32 Operationen (weitere Details weiter unten), unabhängige Thread-Planung ähnlich der Volta GV100-GPU. <<<

TURING STREAMING MULTIPROCESSOR (SM) ARCHITECTURE
The Turing architecture features a new SM design that incorporates many of the features introduced in our Volta GV100 SM architecture. Two SMs are included per TPC, and each SM has a total of 64 FP32 Cores and 64 INT32 Cores. In comparison, the Pascal GP10x GPUs have one SM per TPC and 128 FP32 Cores per SM. The Turing SM supports concurrent execution of FP32 and INT32 operations (more details below), independent thread scheduling similar to the Volta GV100 GPU. Each Turing SM also includes eight mixed-precision Turing Tensor Cores, which are described in more detail in the Turing Tensor Cores section below , and one RT Core, whose functionality is described in the Turing Ray Tracing Technology below. See Figure 4 for an illustration of the Turing TU102, TU104, and TU106 SM.

NVIDIA TURING KEY FEATURES: >>> NVIDIA Turing Architecture In-Depth | NVIDIA Developer Blog

NVIDIA Turing is the world’s most advanced GPU architecture. The high-end TU102 GPU includes

18.6 billion transistors fabricated on TSMC’s 12 nm FFN (FinFET NVIDIA) high-performance manufacturing process.

The GeForce RTX 2080 Ti Founders Edition GPU delivers the following exceptional computational performance:

▶ 14.2 TFLOPS1 of peak single precision (FP32) performance
▶ 28.5 TFLOPS1 of peak half precision (FP16) performance
▶ 14.2 TIPS1 concurrent with FP, through independent integer execution units
▶ 113.8 Tensor TFLOPS1,2
▶ 10 Giga Rays/sec
▶ 78 Tera RTX-OPS

The Quadro RTX 6000 provides superior computational performance designed for professional workflows:

▶ 16.3 TFLOPS1 of peak single precision (FP32) performance
▶ 32.6 TFLOPS1 of peak half precision (FP16) performance
▶ 16.3 TIPS1 concurrent with FP, through independent integer execution units
▶ 130.5 Tensor TFLOPS1,2
▶ 10 Giga Rays/sec
▶ 84 Tera RTX-OPS
 

Anhänge

  • Turing Tensor Cores.png
    Turing Tensor Cores.png
    671,9 KB · Aufrufe: 29
  • Turing L2 Chache & ROPs LossLess Memory Compression.png
    Turing L2 Chache & ROPs LossLess Memory Compression.png
    186,9 KB · Aufrufe: 24
  • Deep Learning Super-Sampling (DLSS).png
    Deep Learning Super-Sampling (DLSS).png
    268,7 KB · Aufrufe: 25
Zuletzt bearbeitet:
Zurück