Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen

Warum?

Was habe ich den davon , wenn ich auf die Leistung verzichte, wer ne echte 4K Karte mit den RTX Features haben will, hat welche Alternative??

Der kann eben aktuell überhaupt nichts kaufen, da 4k + alle RTX Features absolut unspielbare Framerates erzeugt. Du hast nur die Wahl: entweder oder.
Wobei natürlich 4k mit der 2080 Ti ohne RT und DLSS verdammt gut laufen wird...
 
Na klar, da gab es auch gerade wieder etwas im 3dcenter dazu:


nVidias Turing-Architektur bohrt die Shader-Cluster deutlich auf | 3DCenter.org

Und ja ich weiß, genau sieht man dass erst auf späteren Dieshots, und nicht auf den groben Blockschaltbildern. ^^
Wichtig ist vor allem das hier:
Dazu gehört vor allem auch ein Punkt, welcher bislang noch nicht thematisiert wurde, sich jedoch klar aus dem zur Verfügung stehenden Material ergibt: Die Shader-Cluster von Turing tragen nur noch die Hälfte an konventionellen Shader-Einheiten – sprich nur noch 64 anstatt der bislang bei nVidias Gaming-Grafikchips üblichen 128 Shader-Einheiten (nur bei den HPC-Chips GP100 & GV100 hatte nVidia bereits nur noch 64 Shader-Einheiten pro Shader-Cluster verbaut). Eine echte Verkleinerung ist dies allerdings nicht, denn da die Anzahl der Shader-Einheiten schließlich weiterhin gewachsen ist, bedeutet dies, das es mit der Turing-Generation nunmehr wesentlich mehr Shader-Cluster gibt – und damit auch mehr Verwaltungslogik samt Level1-Cache. Pro Shader-Einheit gerechnet verdoppelt sich die Verwaltungslogik und der Level1-Cache bei der Turing-Architektur glatt – ob die Register-Files und der Texturen-Cache im gleichen Maßstab mitgewachsen sind, wird später anhand genauerer Daten noch herauszufinden sein.
Das war damals noch nicht bestätigt, aber man konnte sich dank Volta schon darüber Gedanken machen, vor allem wusste man aber schon von Beginn an, dass es dedizierte Integer-Units geben wird, stattdessen hat man +>200mm² bei Turing gesehen und meinte jup, dass muss der reine Flächenoverhead für Raytracing und Tensor-Cores darstellen, garniert mit einer Folie von Nvidia, die nur drei Textboxen über ein Bild gezogen hat, ohne überhaupt eine Flächenangabe darzustellen.

Im neusten Masterpiece wird so etwas niedergeschrieben:
"Wieso die drei Turing-Chips so vergleichsweise "dick" ausgefallen sind, ergibt sich beim Blick auf die seitens Videocardz freundlicherweise mitgelieferten Blockdiagramme (selbst wenn es sich hierbei nur um Schemabilder handelt): nVidia hat die Shader-Cluster von Turing gegenüber früheren nVidia-Architekturen maßgeblich aufgebohrt, es kommen neben einem extra RT-Core pro Shader-Cluster auch noch 64 Integer-Einheiten sowie 8 Tensor-Cores neu hinzu. Schon allein die letzten beiden belegen im Schemabild mehr Fläche aus die eigentlichen (FP32) Shader-Einheiten, eingerechnet des extra RT-Cores ist es offensichtlich, das hier direkt in den Shader-Clustern sehr viel Chipfläche für die neuen Eigenschaften und Funktionen der Turing-Architektur zur Verfügung steht."

Der Schluss ist das einzige was diese "Analyse" rettet, wo allgemein gesagt wird das aufgrund all dieser Änderung Turing soviel größer ausfällt, aber überhaupt die schematischen Bilder als Größenbezug zu verwenden, obwohl man selber zu Beginn sagt das es nur Schemabilder sind, ist so ein Unsinn.

Das ist ein Grund wieso ich schon lange nichts mehr auf der Hauptseite lese, weil Leos Berichterstattung viele Mängel aufweist und er sich zu 95% nie die Kommentare durchliest, entsprechend ist feedback sinnlos und der Unsinn wird verbreitet und noch mehrmals wiederholt.

Die getrennte INT und FP Pipe. :daumen: Daher kommen also Nvidias wahnwitzige Performance Aussagen. Gott sei Dank keine Rakentenwissenschaft. Sollte AMD um der Konkurrenz Willen auch hinbekommen.

Mesh Shading :daumen2: Braucht kein Mensch in DX12/Vulkan Zeiten.
DLSS :daumen2: Verfälscht nach dem Zufallsprinzip das Bild bis hin zur hässlichen Artefaktbildung. Du weißt nie was du bekommst.
MRS :daumen2: Ähnlicher Schrott wie Checkerboard Rendering. Ich muss also auf die Bildmitte starren um nicht aus der Immersion gerissen zu werden.

@PCGH:
Ein topp Artikel - in gewohnter Raff Qualität. :daumen:
Mesh Shading stellt eine starke Verbesserung der aktuellen Geometrie-Pipeline dar, AMD hatte konzeptionell ähnliches mit den Primitive Shadern bei Vega vor.
Bessere Performance und Programmierbarkeit braucht jeder Entwickler, man sollte hoffen das die Geometrie-Pipeline unter DX12/Vulkan aktualisiert wird, damit es einen Standard für die Entwickler gibt.
DLSS ist eine tolle Sache, gefällt dir der Kompromiss nicht, verwendest du es nicht, Optionen tun ja nicht weh.
MRS ist kein Schrott, ein weiteres Tool um die Optik/Performance zu tweaken.
Würde jeder Entwickler alles in nativer Auflösung berechnen lassen und nichts komprimieren und interpolieren würden die Spiele 3 mal hässlicher aussehen und 4 mal schlechter laufen, weil Brute-Force-Methoden einfach dämlich sind.

Technisch sind die karten ja Top, aber die preise finde ich trotzdem überzogen.
Was mich jetzt aber interessiert: was bitte fängt man mit int4 an? int8 kann ich noch verstehen, int16 hätte ich erwartet. Aber mit 4 bit kommt man ja nicht weit. Und jetzt will ich mal richtige Tech-Demos sehen bei denen man schön mit den Einstellungen rumspielen und den genauen Vorgang visualisieren kann.
Um trainierte AI-Modelle schnell auszuführen, bei gewissen Modellen reicht selbst INT2:
"Caffe to Zynq: State-of-the-Art Machine Learning Inference Performan…
 
bin auf die benches von Sniper Elite 4 und Wolfenstein 2 gespannt ... für die beiden gibt Nvidia ja estreme Performance Gewinne an ... mal sehen ob das stimmt
 
Das ist ein Grund wieso ich schon lange nichts mehr auf der Hauptseite lese, weil Leos Berichterstattung viele Mängel aufweist und er sich zu 95% nie die Kommentare durchliest, entsprechend ist feedback sinnlos und der Unsinn wird verbreitet und noch mehrmals wiederholt.
Er hat schon viel Wissen, muss aber wie andere auch oft spekulieren, aufgrund fehlender Fakten.
Und auch im Forum ist er sehr aktiv und liest viel mit.
Übrigens hast du da früher etwas anders über ihn geschrieben, und ihn oft bestätigt.

Ähnliche "Mängel" hast du dann auch auf CB, PCGH, Tom´s Hardware, und besonders bei wccftech und videocardz, die nicht selten auf Spekulationen vom 3dcenter zurück greifen (müssen).
 
beeindruckend
fassen wir mal zusammen

Shadermodul von 128 shader pascal zu 64shader+64 int32 im prinzip shader mit fester programmierung =turing
Weil aber die shader mit int32 Parallel laufen und diese in Bild anfallende int32 Berechnung bisher von normalen shader übernommen wurde entlastet wird.
Ergibt das von 10% bis 50% mehr shader effizienz an fps
damit sind 10% allein möglich bei gleicher shaderanzahl je gpu klasse
Dazu noch 15% mehr shader ergebnis 25% ohne Anpassung der games
+
GDDr6 bandbreite
+
verbessertes cache mit effektivere texturekompression (verlustlos) womit auch ab 5% bis 15% mehr fps kommen also ~10%
ergeben die in Gerüchten besagten 35% mehr Leistung
Dies kann sich steigern bis 50% gegenüber pascal gen ist aber eher Sache wie viel int32 Operationen im game anfallen.
DLAA = upscaler auf neural netzwerk basis wird vermutlich g-expierence pflicht (muss aber vom game entwickler explizit im gamecode eingebaut werden)
DLSS = anti alaising ohne leistungsverlust bei bessere Kantenglättung=g expierience Pflicht kann jeder entwickler implementieren über dxr Schnittstelle

RT somit die unbekannte das muss in games designt werden
damit ist es möglich viele grafik arbeiten auf GPU automatisch zu erledigen keine shadow maps keine anderen texture arbeiten
Bei besseren teils deutlich realistischeren Licht schatten effekte
Nachteil das muss mit DLAA kombiniert werden folglich ohne g expierience kein RT
Wer sich frag woher die entwickler die daten geben für ihre DLAA upscaling und DLSS das machen dann alle g expirence spieler mit quasi live streaming ihres spiels
bedeutet das RT games online Pflicht haben ohne Unterbrechung
ich vage zu sagen das min ein buffer angewendet werden muss von etwa 3-5 Bilder
1 Bild im spiel vor gerendert + up und download vom relativen matrix Ergebnis
tensotr cores = unterstützt DLA DLSS und RT keine Anwendung an klassischer Rasterberechnung

Sind die preise für rtx 20 series angemessen Ansich der Technik ja aber es gibt noch keine software das dies nutzt
Würde es explizite games geben die darauf beruhen würde ich fast sagen ja aber derzeit bleibt nur der Kniff mit den int32 core was die effektive shader leistung erhöht bei halbierter SM größe
Somit ist tu102
4352shader in 72 sm,576 tensor core und 72 RT cores
je SM
1 RT auf 8 tensor und 64shader+64 int32
das letzte ist der kniff für bessere FPs
Die software lösung zu Reduzierung von CPu drawcalls ist interessant aber Bestandteil von DLAA
Im Grunde wird die Auflösung reduziert womit die drawcalls sowieso geringer sind und diese auf höhere auflösung hochgerechnet wobei daten aus dem internet vom DL Einheit übertragen wird.
In normalen games ohne g expirience keine auswirkung
Somit bleibt das cpu drawcalls limit bestehen
Aber das ziel 60FPS in 1080p für RT hier nichts aussagt weil eben die Auflösung nicht nativ sein muss Sobald DLAA angewendet wird
Schlussfolgerung Ohne g-expirience und dauer online Pflicht kein RT
Die zusätzlichen shader Genauigkeit anzupassen per software ist genial damit steigert man quasi die gpu Auslastung bei gleicher drawcalls anfrage deutlich erfordert aber ar oder vr
Und muss per eyetracking angewendet werden ansonsten käme es zu seltsamen fokus und somit eher schwammigen Bildausgabe
Für klassische Ausgabe unbrauchbar kann aber bis zu 30% an Leistung geben an Vr ar Brillen gut für AR/VR Liebhaber

ich finde den aufpreis für die neue Technik zu früh dieselbe gpu gen in 7nm und erst ab 2020 wäre Sinnvoller gewesen
Somit sind maximal 35% Drin und das teils bei einer Preisteigerung bis zu 90%

2070 +15% kosten
2080+25%
2080ti +90%
Und das bei gleichbleibender mehrperformace je serienvorgänger

Also leistungs-Ausgang ist

2070=1070ti FE+10%
2080=1080ti-5%
208ti =1080ti +35%
bei klassischer Rasterizing methode
Unbekannt bei RT Leistung sowie DLAA (upscaler) DLSS
VR und Ar perfoermance + bis 30% bei gleicher auflösung
Ein Benutzer von pascal gpu lohnt der Wechsel JETZT noch nicht
preislich ist das typisch early adopter ob sich RT, DLAA und DLSS durchsetzen hängt von der Akzeptanz ab der online und kostenlos nvidia streaming bereitzustellen.
das wird CPu Leistung fordern
Wenn schlecht läuft ist es sogar so das alle gamer ohne zu spielen die DLAA Berechnung macht per g expirience + up download also kein idle betrieb der gpu
Das würde zumindest später geplant sein um die DL Rechenzentren zu sparen
(man mietet die Rechenzeit kann also sein das Nvidia später da eine abo zusätzlich zur gpu anbietet um DLAA und DLSS anzubieten das oder man streamt die daten zum Rechenzentrum +bekommt rechen aufgaben vom DL Zentrum für die gpu im idle betrieb)
Adee Effizienz 10-20w und zurück zu dauerlast bei 120-250w
dazu muss G expirience verwendet werden
mein hint ohne abo und dauerlast bei 120-250w stromverbrauch ist billiger

Insgesamt ist RT damit Geschichte weil nicht lokal anwendbar ohne Netzwerkverbund
und somit steht den Einsatz in Konsolen massiv dagegen und wird erst dann gehen wenn RT und shader die Belastung in nativen Auflösung packt.
Weil das aber illusorisch ist ist RTX ein rohrkerpiere wie das versaute physx
anwendbar mit abo Pflicht auf Konsole ab 2025 mit der ps6-xboxnew
Das sind 2 gen weiter als jetzt

Rt = raytracing nicht russia today

mir scheint es so wie mein erster eindruck diese gpu solte ursprünglich exklusiv für quaddro tesla sein wurde aber wegen ming desaster und zu viel georderten pascal gpu kurzfristig ersetzt
Weil das Rt bei games ankommt war klar nur solte es erst ab 7nm und ~2019-2020 kommen.
also erst dann wenn games das auch nutzen werden jetzt ist es noch zu früh.
DXR erst 2018 spezifiziert quasi zum launch von rtx
Normalerweise hat das min 1-2 Jahre Vorlauf
dann muss noch die infrastruktur des DL bereitgestellt werden
das wirkt so als ob man minings farmen dazu missbrauchen will
da muss sich aber einige bei mining massiv geld in den sand gesetzt haben.
turing war nicht geplant für gamer und ist quasi ein Unfall der Marktsituation amd ist also unschuldig

warum aber nviida nicht einfach die pascal chips abschreibt ist seltsam
Klar wafer kosten Geld da muss schon die Strafzahlungen extrem sein damit nvidia ihr high end gpu gen bei gamer bringt. Und den preis sollen dann wohl die Käufer bezahlen

Als Aktionär well done nvidia
Abschreibung verhindert+kosten vermieden + Verlust auf null gebracht
So derbe hat mining gewütet
Was eine Manager entscheidung ausmachen kann da wolten wohl einige Dick in mining investieren und sind derbe auf die nase gefallen.
 
Zuletzt bearbeitet:
bin auf die benches von Sniper Elite 4 und Wolfenstein 2 gespannt ... für die beiden gibt Nvidia ja estreme Performance Gewinne an ... mal sehen ob das stimmt

Das dürfte dann gezielt auf Asyncronus Compute zurückzuführen sein wenn ich das richtig sehe. Ich wüsste zumindest sonst nicht was die beiden Games miteinander verbindet.
In RPM sollen die Turings ja auch deutlich besser laufen, mal gespannt ob das so hinhaut oder nur schön gerechnet wurde. Die bisherigen Benchmarks hauen mich bis jetzt nicht vom Hocker.

Kann mir mal jemand erklären warum die Screenshots zu DLSS sich dermaßen in der Bilddarstellung unterscheiden gegenüber TAA?
Gut zu sehen im Beispiel 3 und 4. Dort verschwindet klar ein teil der Beleuchtung und die Reflexionen sogar quasi vollständig. Vor allem auf dem Kampfanzug und der Waffe sieht man das sehr deutlich.
Jemand ne Ahnung wie das zustande kommt?
http://www.pcgameshardware.de/Gefor...7862/Specials/Turing-Technik-Infos-1264537/3/
 
Das dürfte dann gezielt auf Asyncronus Compute zurückzuführen sein wenn ich das richtig sehe. Ich wüsste zumindest sonst nicht was die beiden Games miteinander verbindet.
In RPM sollen die Turings ja auch deutlich besser laufen, mal gespannt ob das so hinhaut oder nur schön gerechnet wurde. Die bisherigen Benchmarks hauen mich bis jetzt nicht vom Hocker.

erstens das und WS2 nutzt FP16 .. aber ka ob SE4 das auch nutzt
 
Eines hab ich aus dem Artikel nicht so wirklich rauslesen können:

Die kommenden RTX markieren so wie sie sind die Leistung bei 100%. Wenn Nvidia die neuen GPUs jetzt nicht auf Raytracing o.ä. optimiert hätte, und stattdessen die komplette Leitung auf die klassische Grafikdarstellung (Rasterization) ausgelegt hätte, wieviel Prozent zusätzliche Rasterization-Leistung hätte man so noch in etwa gewinnen können? Soweit ich es verstanden habe eine ganze "Menge", aber in welchem Rahmen genau? Hätte eine RTX so vielleicht sogar die doppelte Leistung haben können?

Weil dann hätte ich es sinnvoller gefunden, man hätte Stufe 1 der RTX übersprungen, deren Leistung in eine letzte GTX gesteckt, und Raytracing in 2-2,5 Jahren mit der dann erst kommenden neuen Architektur eingeführt.

So kauft man eine Graka die in Rasterization "zu wenig" schneller geworden ist, und für (partielles) Raytracing (scheinbar) noch nicht mal ansatzweise genug Power hat. Irgendwie nicht Fisch und nicht Fleisch...
 
Er hat schon viel Wissen, muss aber wie andere auch oft spekulieren, aufgrund fehlender Fakten.
Und auch im Forum ist er sehr aktiv und liest viel mit.
Übrigens hast du da früher etwas anders über ihn geschrieben, und ihn oft bestätigt.

Ähnliche "Mängel" hast du dann auch auf CB, PCGH, Tom´s Hardware, und besonders bei wccftech und videocardz, die nicht selten auf Spekulationen vom 3dcenter zurück greifen (müssen).
Natürlich berichtet nicht jede Instanz fehlerlos, aber bei jedem sind die Umstände etwas anders, was den zeitlichen Rahmen angeht, das Personal, die Bezahlung, die Jahre in der Fachwelt etc.
Leo schreibt teilweise deutlich bessere Ausführungen oder wiederholt nicht stupide die Gerüchte von anderen Newsseiten, sondern gibt seine eigene Meinung und Analyse wider, was deutlichen Mehrwert liefern kann, vor allem sein Aufwand bei der Zusammenfassung von Benchmark-Ergebnissen von mehreren Seiten und die Gegenüberstellung mit Zahlen ist echt großartig, aber teilweise fehlt mir das Verständnis, wenn ein alter Hase sich grobe Logik- und Fachwissenschnitzer erlaubt und dabei leider selten bis nie auf Feedback reagiert.
Das führt dann leider auch zu den Ergebnissen die ich bei anderen Seiten kritisieren würde, die fehlerhafte Berichterstattung die sich bei anderen Köpfen festsetzt und dann selten von größeren Publikationen korrigiert wird.

Das dürfte dann gezielt auf Asyncronus Compute zurückzuführen sein wenn ich das richtig sehe. Ich wüsste zumindest sonst nicht was die beiden Games miteinander verbindet.
In RPM sollen die Turings ja auch deutlich besser laufen, mal gespannt ob das so hinhaut oder nur schön gerechnet wurde. Die bisherigen Benchmarks hauen mich bis jetzt nicht vom Hocker.

Kann mir mal jemand erklären warum die Screenshots zu DLSS sich dermaßen in der Bilddarstellung unterscheiden gegenüber TAA?
Gut zu sehen im Beispiel 3 und 4. Dort verschwindet klar ein teil der Beleuchtung und die Reflexionen sogar quasi vollständig. Vor allem auf dem Kampfanzug und der Waffe sieht man das sehr deutlich.
Jemand ne Ahnung wie das zustande kommt?
http://www.pcgameshardware.de/Gefor...7862/Specials/Turing-Technik-Infos-1264537/3/
Das sind aber auch zwei Spiele die gerade mal 4% durch AC gewonnen haben, soweit ich mich richtig erinnere.

Bei einer Folie nennt Nvidia Sniper Elite 4 in Bezug auf die bessere Shading-Performance pro Kern, dass kann sich auf das bessere Cache-System und die zusätzliche Integer-Leistung beziehen.
Wolfenstein II wird als ein Beispiel bei der besseren Bandbreiteneffizienz genannt, ohne Leistungsangabe.

Und RPM wird in fast keinem Spiel verwendet, Wolfenstein II verwendet es durch AMD Vulkan Erweiterungen, wenn Turing die nicht unterstützt, wird auch kein FP16 verwendet.
Daneben gibt es noch Far Cry 5, aber das wurde glaube ich nirgendwo genannt und verwendet im Zweifel auch exklusive AMD-Erweiterungen.

Die Screenshots zu DLSS kommen wohl einfach vom sub-optimalen Training vom Netzwerk, welches nicht alle Muster optimal wiedergibt.
 
Eines hab ich aus dem Artikel nicht so wirklich rauslesen können:

Die kommenden RTX markieren so wie sie sind die Leistung bei 100%. Wenn Nvidia die neuen GPUs jetzt nicht auf Raytracing o.ä. optimiert hätte, und stattdessen die komplette Leitung auf die klassische Grafikdarstellung (Rasterization) ausgelegt hätte, wieviel Prozent zusätzliche Rasterization-Leistung hätte man so noch in etwa gewinnen können? Soweit ich es verstanden habe eine ganze "Menge", aber in welchem Rahmen genau? Hätte eine RTX so vielleicht sogar die doppelte Leistung haben können?
[...]
Was meinst du mit doppelter Rasterization bei der Leistung?
Doppelt so viele GPCs/ROPs, wenn Nvidia nicht in Raytracing/Tensor-Cores investiert hätte?
 
Und RPM wird in fast keinem Spiel verwendet, Wolfenstein II verwendet es durch AMD Vulkan Erweiterungen, wenn Turing die nicht unterstützt, wird auch kein FP16 verwendet.
Daneben gibt es noch Far Cry 5, aber das wurde glaube ich nirgendwo genannt und verwendet im Zweifel auch exklusive AMD-Erweiterungen.

Die Screenshots zu DLSS kommen wohl einfach vom sub-optimalen Training vom Netzwerk, welches nicht alle Muster optimal wiedergibt.

Far Cry 5 taucht in den Folien ebenfalls auf und wir mit deutlicher Leistungssteigerung beworben. Daher die Vermutung.
Wenn das DLSS die hälft weg lässt weil es die Beleuchtung/Reflexion nicht "vermutet oder vorhergesehen" hat stellt sich mir die Frage nach der Sinnhaftigkeit des Features.
Also auf #3 &4 ist der Qualitätsverlust deutlich zu erkennen. Was bringen schärfere Kanten wenn die Logik in dem System keine Beleuchtung korrek wiedergibt. Immerhin geht es dort auch "nur" um eine Selbstlaufende Sequenz, wie soll das bei Unwägbarkeit eines aktiven Spielers aussehen?
 
Viele denken das ohne RT-, und Tensor-Cores, einfach durch mehr Shader-Cluster, deutlich mehr Leistung in vielen Games ankommen würde.
So waren ja auch die ursprünglichen Gerüchte, dass die Geforce-Turings nicht mit Volta vergleichbar sind, mit einer rein auf Gaming optimierten Architektur.

Gerade bei hohen Auflösungen wäre das schön gewesen.
 
Far Cry 5 taucht in den Folien ebenfalls auf und wir mit deutlicher Leistungssteigerung beworben. Daher die Vermutung.
Wenn das DLSS die hälft weg lässt weil es die Beleuchtung/Reflexion nicht "vermutet oder vorhergesehen" hat stellt sich mir die Frage nach der Sinnhaftigkeit des Features.
Also auf #3 &4 ist der Qualitätsverlust deutlich zu erkennen. Was bringen schärfere Kanten wenn die Logik in dem System keine Beleuchtung korrek wiedergibt. Immerhin geht es dort auch "nur" um eine Selbstlaufende Sequenz, wie soll das bei Unwägbarkeit eines aktiven Spielers aussehen?
Korrekt, sogar in beiden Fällen, mein selektiver Fokus hat das völlig ausgeblendet, als ich nur nach Sniper Elite 4 und Wolfenstein II geschaut habe.
In einem Fall bei der Shading-Performance dank paralleler INT-Ausführung und im anderem Beispiel, bei der effektiven Bandbreite dank Turings besserer Speicherkompression:
https://pics.computerbase.de/8/4/5/8/8/4-1080.29494965.png

https://pics.computerbase.de/8/4/5/8/8/8-1080.2551604136.png

Bezüglich DLSS würde ich das auch noch gerne in Bewegung sehen, weil einige spiegelnde Reflexionen sind gar nicht erwünscht und können wie die Hölle in der Bewegung flimmern, was viele TAA-Methoden auch effektiv wegglätten.
Das trainiert Nvidia auch pro Spiel und möchte aktualisierte Profile nach schieben, falls nötig, also wenn die ersten Ergebnisse noch nicht ganz überzeugen, könnte es in der Zukunft immer ein wenig besser ausfallen.
Letztendlich muss es auch nicht völlig perfekt ausfallen.
 
Was meinst du mit doppelter Rasterization bei der Leistung? Doppelt so viele GPCs/ROPs, wenn Nvidia nicht in Raytracing/Tensor-Cores investiert hätte?

Wenn die Tensor-Cores keine höhere Leistung in Rasterization haben, ja. Einfach was wäre, wenn die komplette Leistung nur in Rasterization gesteckt, und die neuen GPUs nur darauf ausgelegt worden wären. Nicht einfach nur ein aufgepumpter Pascal, also schon mit den üblichen Optimierungen am Design, aber ohne Raytracing o.ä.
 
Wenn man die int32 mit shader ersetzt hätte wären es 8704 Shader geworden
So gesehen ist turing wirklich deutlich größer
warum man die int32 einsetzt liegt am CPu limit das schon jetzt bei einer gtx1080ti herrscht in 1080p
die Auflösung womit 75% spielen
Stark gefolgt von notebook standard 1368-768 und 1600-900
aber zunehmend sinkend weil notebook mittlerweile in 1080p kommen
1440p sowie 2160p sind die minderheit.
Da gibt es kein cpu limit

Die ansätze wie nvidia das cpu limit aufheben will sind brauchbar und vergleichbar mit amd ansätzen mittels fp16 und RPM
Dies muss aber vom Spiel unterstützt werden
Nvida wird wohl versuchen dies per treiber noch weiter zu puschen um den comand list effizienter zu machen = weniger drawcalls bei CPu mehr auslastung der gpu
Ob dies nur in dx12 geht weiß noch keiner. Weil dies aber prinzipbedingt software lösung ist die mit zusätzlichen int32 shader hardware beschleunigt wird gehen diese optimierungen auch an pascal gpus
Damit ist mein fazit etwa 35% mehr leistung beim high end modell und bei gleicher shaderanzahl +10% wegen der int32 draswcalls verminderung

bedeutet aber aucn das dies sich nur dann auswirkt wenn man im CPU limit ist
Im gpu limit bleibt die ursprüngliche Einschätzung bei 15-20% rtx2080ti rtx2080 und bei rtx2070 (1070ti)2304shader +- o

Eine frage der Sicht will man mehr min fps sind 35% OK
Will man mehr max fps ist das schwach für die preise
ich würde sagen bei 1080p und angepassten preis also max 800€ für eine rtx2080ti wäre es OK
aber nicht für 1300€
bei der rtx2080 sogar gutes P/L wenn diese beim aktuellen preis der gtx1080 wäre 550€ nur aktuell für 860€ nur mit schmerzen

Bin so gespannt auf die Test am Mittwoch

ich Persöhnlich werde erst bei der Nachfolger gen hinsehen und überlegen sicher erst ab rtx4060 2022 (aktuelle rtx2080ti Leistung)
 
Wenn die Tensor-Cores keine höhere Leistung in Rasterization haben, ja. Einfach was wäre, wenn die komplette Leistung nur in Rasterization gesteckt, und die neuen GPUs nur darauf ausgelegt worden wären. Nicht einfach nur ein aufgepumpter Pascal, also schon mit den üblichen Optimierungen am Design, aber ohne Raytracing o.ä.
Man kann natürlich nur spekulieren, um wie viel Nvidia die Raster-Leistung hätte verbessern können, wenn sie statt auf RT/Tensor-Cores sich völlig darauf konzentriert hätten, aber bezogen auf den Flächenverbrauch benötigen die Ray Tracing- und Tensor Cores nicht viel Fläche.
Wenn man ganz grob rechnet, benötigt ein GT102 60% mehr Fläche, als ein GP102 und bietet 20% mehr Shader Cores.
Wie gesagt krude, da wir nicht wissen, um wie viel kleiner 12nm gegenüber 16nm ausfallen oder überhaupt und wir nur die Shader als Flächenbasis skalieren, aber der Flächenoverhead würde bei ~40% liegen, aber diese 40% teilen sich in alles auf was Turing mit sich bringt, zwei NVLINKs, doppelt soviel Register (Das verbraucht auf jeden Fall ordentlich Platz), 33% mehr Speicher-Kapazität pro SM, zusätzlich die Integer-Ports für gleichzeitige Ausführung, dann Verbesserungen beim Geometry-Processing und weiteren Dingen, der GDDR6-Controller müsste flächemäßig mehr kosten, ebenso die besseren Videodecoder.
Am Ende kosten die Tensor und Raytracing-Cores vermutlich keine 20% extra.
Insgesamt denke ich nicht das der Kohl deswegen wirklich fett geworden ist und Nvidia bei der Raster-Leistung nennenswert mehr rausgeholt hätte.
Zur Raster-Leistung zählen auch die GPCs und die ROPs, mehr GPCs untereinander zu verdrahten und die Arbeitsverteilung effizient hinzubekommen ist eine Heidenarbeit, selbst ohne RT/TC wäre es sehr wahrscheinlich bei den 6/4 GPCs und 96 bzw. 64 ROPs geblieben.
Entsprechend wären es hypothetisch gesehen wohl mehr Shader-Cores geworden oder für Nvidias Finanzen einfach kleinere Chips gewesen.
Also ich sehe es schon jetzt als gute Investition an, die Entwicklungsbasis schon jetzt aufzustellen.

Wenn man die int32 mit shader ersetzt hätte wären es 8704 Shader geworden
So gesehen ist turing wirklich deutlich größer
Der Satz ist schon das einzige was ich lesen konnte und letztendlich wollte, weil sich doch niemand eine Textwall antun möchte, wo jeder Satz aus zwei bis fünf Absätzen besteht und ständig unterbrochen wird.
Aber zum Satz, niemals wären es doppelt soviele Shader geworden, wenn es keine parallele INT32 execution gegeben hätte.
Ein Shader besteht aus etlichen Einzelteilen, der Kontrol- und Verteilungslogik, dem Register-File, den Caches, FP-Units mit etlichen Instruktionen, Load/Store-Einheiten, den SFUs bei Nvidia die noch spezielle Funktionen ausführen, die Texture-Mapping-Units etc.
INT32 macht nur einen kleinen Teil davon aus und gab es auch schon davor als Execution-Pipeline, nur nicht parallel ausführbar.

Und mit dem CPU-Limit hat das auch gar nichts zu tun, anstatt das die GPU die Instruktionen intern nacheinander ausführt, kann sie die Instruktionen parallel ausführen.
Die CPU-Seite kümmert an der Stelle gar nicht.
 
Zuletzt bearbeitet:
Auf jeden Fall gibt es wieder nur eine GPU-Lineup für Profi und Gamingmarkt. Vielleicht hat nvidia mit den Tensor- und RT-Cores auf die Bedürfnisse vom Profimarkt reagiert und jetzt diese auch im Gaming verwertet. So sparen sie sich die extra Entwicklung von GPUs für das Gamingsegment.
 
Zurück