Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen

@Newb

Nvidia NVLink ist wie SLi und ersetzt diese Zukünftig (GPU zu GPU Kommunikation / für AFR Rendering). NVLink bietet pro Link 50 GB/sec. Also bei der 1x NVLink = RTX 2080 .... (die RTX 2080Ti hat 2x NVLinks = 100 GB/sec bidirectional Bandbreite).

Daher gibt es zukünftig auch neue NVLink-Brücke mit dieser höheren Bandbreite. Die alte SLi-HB Technik hatte nur < 5 GB/sec Bandbreite.

Die RTX 2070 hat hingegen keinen NVLink Connector - und somit kein Multi-GPU Support.
 
Zuletzt bearbeitet:

Das will ich erst mal in freier Wildbahn sehen.
Ein Screenshot sagt noch lange nichts.
Luft ohne Spannungserhöhung
2177MHz.PNG
2189MHz.PNG

Laufen tut trotzdem kein Benchmark damit :ugly:.
 
Ich Denke schon .... Turing ist nicht nur Pascal auf 'Steroiden' - da ist mehr dahinter RT & Ai !

NVIDIA Turing-Architektur: Automatisches Overclocking per OC Scanner

Mit der Turing-Architektur und den dazugehörigen Grafikkarten der GeForce-RTX-20-Serie führt NVIDIA ein neues automatisches Overclocking ein. Der OC Scanner durchläuft die Spannung/Frequenz-Kurve automatisch ab und ermittelt den jeweils höchsten Takt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Diese Info ist ja sowas von alt :D
http://extreme.pcgameshardware.de/n...len-mitte-september-kommen-2.html#post9473856
 
@Newb

Nvidia NVLink ist wie SLi und ersetzt diese Zukünftig (GPU zu GPU Kommunikation / für AFR Rendering). NVLink bietet pro Link 50 GB/s. Also bei der 1x NVLink = RTX 2080 .... (die RTX 2080Ti hat 2x NVLinks = 100 GB/s Bandbreite).

Daher gibt es zukünftig auch neue NVLink-Brücke mit dieser höheren Bandbreite. Die alte SLi-HB Technik hatte nur <5GB/s Bandbreite.

Die RTX 2070 hat hingegen keinen NVLink Connector - und somit kein Multi-GPU Support.

Also ist NVLink nur eine neue Schnittstelle, aber funktioniert wie SLI nur mit höherer Bandbreite? Müssen die Spiele dann immer noch SLI unterstützen bzw. NVLink-Funktion explizit eingebaut haben? Bei der Siggraph Quadro Vorstellung war die Rede von das sogar der Speicher verdoppelt wird mit NVLink, bei SLI war das ja nicht so.

Wenn man zwei RTX 2080 Ti mit NVLink verbinden und dann die doppelte Leistung in allen Bereichen bekommen würde, hätte man zum Beispiel 20 dieser GigaRays zur Verfügung für Raytracing.
 
DLSS und AI SuperRez sehe schon wirklich sehr hübsch aus.
Aber der Preis...nein, sorry, das geht aktuell garnicht. Zumal immer noch keine Unterstützung für Adaptive-Sync.
 
Außerhalb der RT-, und Tensor-Cores war für mich interessant wie sich die Shader verbessert haben im Vergleich zu Pascal.
Und wie vermutet gab es auch hier größere Änderungen, kleinere Shader-Cluster, dafür aber deutlich mehr als bei Pascal, und größere Caches pro Shader-Cluster.
Wie erwartet ist das zusammen mit den vielen anderen Änderung ein riesiger Sprung in der Architektur geworden, so gar noch viel größer als von Kepler auf Maxwell, was an sich schon viele Änderungen hatte.
Deshalb gab es auch bei Pascal relativ wenig Änderungen, weil Nvidia schon damals viel R&D in Turing investiert hat, und Volta natürlich.

Also von wegen, Turing ist nur ein Refresh von Pascal.
Dieser Quatsch wurde ja hier monatelang im Forum immer wieder geschrieben, weil videocardz und wccftech den Mist verbreitet hatten.

Deep Learning Super-Sampling ist kein Feature, das Sie einfach im Treiber aktivieren werden können. Auf Nachfrage gab Nvidia an, dass Spiele gezielt trainiert werden müssen. Entwickler, die DLSS-Unterstützung in ihrem Titel haben möchten, wenden sich folglich an Nvidia. Wie das Training der neuronalen Netzwerke im Detail aussieht und wie lange es bis zu guten Ergebnissen dauert, ist unbekannt.
So weit ich gelesen habe soll doch Geforce Experience hier intensiv mit eingebunden werden.
D.h. Nvidia braucht dafür einige Telemetriedaten der User, damit DLSS gut funktionieren kann.
Möglich wäre auch noch den Treiber dafür zu nutzen, so dass der Telemetrie an Nvidia sendet.
Auf jeden Fall könnte das einigen nicht gefallen hier im Forum. ^^
 
Zuletzt bearbeitet:
Wenn die 2080 Ti nicht mindestens doppelt so schnell wie ne 1080 wird, ist das doch ne krasse Enttäuschung.
Zwei Jahre danach zum doppelten Preis, darf man das doch mindestens erwarten...
 
Zumal immer noch keine Unterstützung für Adaptive-Sync.

Wird auch niemals kommen, solange die Marken-Anhänger weiterhin ohne zu Murren die Aufpreise von min 200 € für das veraltete GSync 1.0 und 500+ für 2.0 zahlen...

@Matty: die "kleineren Shadercluster" bewirken aber recht wenig, da immer 2 gekoppelt sind und somit eigentlich weiterhin 128 Shader auf ein SM kommen...
 
Nvidia wir sich ja etwas bei dieser Änderung gedacht haben.
Sonst hätten sie die Shader-Cluster so lassen können wie sie waren.
Vermutlich bringt das so Vorteile, auch im Zusammenspiel mit den neuen RT-, und Tensor-Cores.
 
@Newb

Ja, denn NVIDIA spricht davon, den NVLink auf den GeForce-Karten vielleicht noch in anderer Form nutzen zu können. (Turing GPU VRAM Speicher-Kopplung / 8K Support / VR Optimierungen ?) Worauf man dabei hinaus will, bleibt allerdings unbekannt .... weitere Info Facts sind auch im NVIDIA-Turing-Architecture-Whitepaper.pdf Ich denke Nvidia NVLink nutzt also weiter SLi Game Profiles wie bis anhin.

NVLINK IMPROVES SLI

Prior to the Pascal GPU architecture, NVIDIA GPUs used a single Multiple Input/Output (MIO)
interface as the SLI Bridge technology to allow a second (or third or fourth) GPU to transfer its
final rendered frame output to the primary GPU that was physically connected to a display. Pascal
enhanced the SLI Bridge by using a faster dual-MIO interface, improving bandwidth between the
GPUs, allowing higher resolution output, and multiple high-resolution monitors for NVIDIA
Surround

Turing TU102 and TU104 GPUs use NVLink instead of the MIO and PCIe interfaces for SLI GPU-toGPU
data transfers. The Turing TU102 GPU includes two x8 second-generation NVLink links, and
Turing TU104 includes one x8 second-generation NVLink link. Each link provides 25 GB/sec peak
bandwidth per direction between two GPUs (50 GB/sec bidirectional bandwidth). Two links in
TU102 provides 50 GB/sec in each direction, or 100 GB/sec bidirectionally. Two-way SLI is
supported with Turing GPUs that have NVLink, but 3-way and 4-way SLI configurations are not
supported.

Compared to the previous SLI bridge, the increased bandwidth of the new NVLink bridge enables
advanced display topologies that were not previously possible (see Figure 14).
 

Anhänge

  • NVLink Enables New SLI Display Topologies.png
    NVLink Enables New SLI Display Topologies.png
    157,9 KB · Aufrufe: 83
Außerhalb der RT-, und Tensor-Cores war für mich interessant wie sich die Shader verbessert haben im Vergleich zu Pascal.
Und wie vermutet gab es auch hier größere Änderungen, kleinere Shader-Cluster, dafür aber deutlich mehr als bei Pascal, und größere Caches pro Shader-Cluster.
Wie erwartet ist das zusammen mit den vielen anderen Änderung ein riesiger Sprung in der Architektur geworden, so gar noch viel größer als von Kepler auf Maxwell, was an sich schon viele Änderungen hatte.
Deshalb gab es auch bei Pascal relativ wenig Änderungen, weil Nvidia schon damals viel R&D in Turing investiert hat, und Volta natürlich.

Also von wegen, Turing ist nur ein Refresh von Pascal.
Dieser Quatsch wurde ja hier monatelang im Forum immer wieder geschrieben, weil videocardz und wccftech den Mist verbreitet hatten.
[...]
Erinnerst du dich auch noch an den Quatsch, dass Turing angeblich 50% oder von mir aus 30% von der Die-Size nur aufgrund von Tensor und Raytracing-Cores aufwenden musste? :D


@Matty: die "kleineren Shadercluster" bewirken aber recht wenig, da immer 2 gekoppelt sind und somit eigentlich weiterhin 128 Shader auf ein SM kommen...
Nein, ein SM hat nur 64 Shader, bei Maxwell sind es doppelt soviele.
Turing hat pro SM effektiv doppelt soviele Register und insgesamt 33% mehr Speicher.
Die Leistung pro SM ist insofern deutlich höher und da es dadurch auch deutlich mehr SMs gibt, kann Nvidia die Aufgabenverteilung feiner steuern.
 
Erinnerst du dich auch noch an den Quatsch, dass Turing angeblich 50% oder von mir aus 30% von der Die-Size nur aufgrund von Tensor und Raytracing-Cores aufwenden musste? :D
Na klar, da gab es auch gerade wieder etwas im 3dcenter dazu:

Wieso die drei Turing-Chips so vergleichsweise "dick" ausgefallen sind, ergibt sich beim Blick auf die seitens Videocardz freundlicherweise mitgelieferten Blockdiagramme (selbst wenn es sich hierbei nur um Schemabilder handelt): nVidia hat die Shader-Cluster von Turing gegenüber früheren nVidia-Architekturen maßgeblich aufgebohrt, es kommen neben einem extra RT-Core pro Shader-Cluster auch noch 64 Integer-Einheiten sowie 8 Tensor-Cores neu hinzu. Schon allein die letzten beiden belegen im Schemabild mehr Fläche aus die eigentlichen (FP32) Shader-Einheiten, eingerechnet des extra RT-Cores ist es offensichtlich, das hier direkt in den Shader-Clustern sehr viel Chipfläche für die neuen Eigenschaften und Funktionen der Turing-Architektur zur Verfügung steht. Auf den ganzen Chip bezogen kann davon ausgehen, das alle diese Turing-bezogenen Neuerungen für ca. 50-55% mehr Chipfläche (bei gleicher Anzahl an Shader-Einheiten) sorgen dürften.

Dazu gehört vor allem auch ein Punkt, welcher bislang noch nicht thematisiert wurde, sich jedoch klar aus dem zur Verfügung stehenden Material ergibt: Die Shader-Cluster von Turing tragen nur noch die Hälfte an konventionellen Shader-Einheiten – sprich nur noch 64 anstatt der bislang bei nVidias Gaming-Grafikchips üblichen 128 Shader-Einheiten (nur bei den HPC-Chips GP100 & GV100 hatte nVidia bereits nur noch 64 Shader-Einheiten pro Shader-Cluster verbaut). Eine echte Verkleinerung ist dies allerdings nicht, denn da die Anzahl der Shader-Einheiten schließlich weiterhin gewachsen ist, bedeutet dies, das es mit der Turing-Generation nunmehr wesentlich mehr Shader-Cluster gibt – und damit auch mehr Verwaltungslogik samt Level1-Cache. Pro Shader-Einheit gerechnet verdoppelt sich die Verwaltungslogik und der Level1-Cache bei der Turing-Architektur glatt – ob die Register-Files und der Texturen-Cache im gleichen Maßstab mitgewachsen sind, wird später anhand genauerer Daten noch herauszufinden sein.
nVidias Turing-Architektur bohrt die Shader-Cluster deutlich auf | 3DCenter.org

Und ja ich weiß, genau sieht man dass erst auf späteren Dieshots, und nicht auf den groben Blockschaltbildern. ^^
 
So eine "Monster" GPU ist das jetzt irgendwie nicht für mich. Wenn die 1080ti mit der 2080 mithalten kann ist schonmal was verdammt falsch. Bsp: die 1070 war nen tick schneller als die 980ti.
Und Rt ist für mich irgendwie kein Argument, die ganzen guten Spiele die es gerade gibt haben es nicht. Die 1080ti hab ich mir ohne Überlegung geholt, aber die 2080ti ich weiß nicht.
 
Die getrennte INT und FP Pipe. :daumen: Daher kommen also Nvidias wahnwitzige Performance Aussagen. Gott sei Dank keine Rakentenwissenschaft. Sollte AMD um der Konkurrenz Willen auch hinbekommen.

Mesh Shading :daumen2: Braucht kein Mensch in DX12/Vulkan Zeiten.
DLSS :daumen2: Verfälscht nach dem Zufallsprinzip das Bild bis hin zur hässlichen Artefaktbildung. Du weißt nie was du bekommst.
MRS :daumen2: Ähnlicher Schrott wie Checkerboard Rendering. Ich muss also auf die Bildmitte starren um nicht aus der Immersion gerissen zu werden.

@PCGH:
Ein topp Artikel - in gewohnter Raff Qualität. :daumen:
 
Technisch sind die karten ja Top, aber die preise finde ich trotzdem überzogen.
Was mich jetzt aber interessiert: was bitte fängt man mit int4 an? int8 kann ich noch verstehen, int16 hätte ich erwartet. Aber mit 4 bit kommt man ja nicht weit. Und jetzt will ich mal richtige Tech-Demos sehen bei denen man schön mit den Einstellungen rumspielen und den genauen Vorgang visualisieren kann.

"MeshShading" ist ein denkbar ungünstiger Bezeichner für die Technik. Auch frage ich mich was daran neu sein soll - das kannte man schon seit sehr langer zeit mit OpenGL machen. Auch in Dx11 wurde sowas schon gemacht (AC:U).


Irgendwie ungeil, dass beider 80er Karten nicht einmal den Vollausbau des jeweiligen Chips haben.

ah ja - ist egal das der Die rießig geworden und selbst bei der 2070 fast die selbe Größe wie ne 1080Ti hat -Hauptsache mäkern.
 
Zuletzt bearbeitet:
Zurück