Nvidia Geforce RTX 2080 (Ti): Diese technischen Daten sind wahrscheinlich

@matty2580: Danke für den Hinweis.

Da bin ich überfragt, aber Geometrie/Physikberechnungen laufen soweit ich weiß aus Präzisionsgründen mit FP32 ab, dafür wären die Tensor-Cores ungeeignet und selbst mit FP32 gibt es Präzisionsartefakte in weiter Entfernung.
Für Konsumenten sehe ich als Laie bisher nur das was öffentlich gemacht wurde, die Beschleunigung von Denoising-Algorithmen über Tensor-Cores beim Raytracing-Einsatz.

Hm, soweit ich das verstanden habe, wäre das sogar sehr gut einsetzbar für Transform-Anweisungen (model transformation). Die Komponenten eines Quaternions liegen im Bereich [-1,1]. Ein 32-bit Format wäre sogar ein ziemlicher Overkill dafür. 8-bit wäre wiederum zu ungenau, weil man damit allenfalls Winkelschrittweiten von 1-2° abdecken könnte.

Man brauch dafür nur ein geschicktes FP16 Packing. Leider ist hier der DirectX Standard nicht gut, weil langsam und mit relativ großen CPU Verzögerungen, siehe dazu "Advanced Virtual Texture Topics" von Martin Mittring.

So wie ich das sehe, gilt was die Model Transformationen betrifft, Hasta la vista Standard Shader.
 
Der GV 100 hat noch Tensor-Cores der ersten Generation.
Die neuen Geforce-GPUs haben schon überarbeitete Tensor-Cores, quasi der 2. Generation.
Da aber noch gar nichts bekannt ist, was und wie dort verändert wurde, kann man leider noch nicht einmal spekulieren wie sich dass auswirken wird.
Theoretisch könnte man die Tensor-Cores auch für andere Aufgaben einsetzen, als "nur" zur Berechnung von Raytracing.
Nvidia wird das mit Sicherheit auch versuchen, da sonst ohne RT viel Leistung verpufft.

Mit den Tensor Cores der ersten Gen gibt es noch große Schwankungen bei den getesteten Games bei CB:
Mifcom miniBOSS mit Nvidia Titan V im Test - ComputerBase
Das wird es in der Form hoffentlich nicht mehr geben bei Turing.
Auf jeden Fall werden durch die Tensor Cores die neuen GPUs zu Compute-Monstern, die fast ideal wären wenn es noch einmal einen Mining-Hype geben sollte.
Das geht auch recht eindeutig aus dem CB Test hervor.
 
Zuletzt bearbeitet:
Der GV 100 hat noch Tensor-Cores der ersten Generation.
Die neuen Geforce-GPUs haben schon überarbeitete Tensor-Cores, quasi der 2. Generation.
Da aber noch gar nichts bekannt ist, was und wie dort verändert wurde, kann man leider noch nicht einmal spekulieren wie sich das auswirken wird.
Theoretisch könnte man die Tensor-Cores auch für andere Aufgaben einsetzten, als "nur" zur Berechnung von Raytracing.
Nvidia wird das mit Sicherheit auch versuchen, da sonst ohne RT viel Leistung verpufft.

Mit den Tensor Cores der ersten Gen gibt es noch große Schwankungen bei den getesteten Games bei CB:

Nvidia selbst gibt bisher Raytracing sowie Soundberechnungen an.
 
Das ändert nichts daran, dass die Shader Kerne an sich nicht schneller wurden, sondern höchstens alles drum herum besser für Spiele optimiert wurden.
Denn man kommt ja auch aktuell schon mit passend angepasster Software recht nah an die theoretischen Spitzenwerte.
Passend ist ein gutes Stichwort, denn ganz optimal kann man Code nicht auslegen und dank Hardware-Limits hat man teilweise gar keine andere Wahl, außer mit den Einschränkungen zu leben.
Bessere Hardware kann hier für mehr Performance sorgen.

Wenn Turing ähnlich wie Volta ausfällt, dann wird aufgrund vom gemeinsamen L1$/Shared-Memory, der gemeinsam möglichen Ausführung von INT und FP-Operationen, der geringen Instruktionslatenz und des unabhängigen Thread-Scheduling, es unweigerlich zu Situationen kommen, wo Turing mehr leistet als Pascal, weil letzterer dank unterschiedlicher Beschränkungen nicht auf seine theoretischen Spitzenwerte kommt.

Bitte Schluss jetzt mit dem Quatsch.
Ich antworte einmal mit der Metapher einer TV-Psychologin, man kann die Welt nicht ändern, aber sich selbst.
Für dich selbst musst du jetzt also entscheiden, ob dass für dich erträglich ist, oder ob du mich zukünftig ignorierst, was übrigens nicht schlimm wäre.

p.s. TheGoodBadWeird und Pro_PainKiller sind ganz andere Kaliber mit ihrem permanenten Nvidia Werbeblock als gecan und auch ich. Es ist auch nicht deine Aufgabe hier die User "erziehen" zu müssen. Wenn dann geht das eher in den Bereich der Mods, wenn man gegen die Forenregeln verstößt.
[...]
Ich kann natürlich niemanden zwingen, meine Empfehlungen umzusetzen oder ihnen zuzustimmen, aber wenn du mir nicht zustimmst, dann könntest du mir vielleicht die Frage beantworten, weswegen nicht?
Inwiefern findest du den Einsatz vom Konjunktiv II zum Beispiel verwerflich?
Weil im Prinzip kostet es keinen extra Mühe und macht die Dinge ja nicht schlechter.
Ist es einfach eine Gewohnheitssache die dagegen spricht oder findest du das einfach unnötig?
Wenn ich mich ändern soll, weil nur ich es selber kann, dann würde ich gerne deinen Standpunkt genauer verstehen.
Ich weiß du hast einige Sachen dazu geschrieben, wenn für dich alles schon gesagt wurde, dann höre ich hier auch auf, aber im Kern möchte ich nachvollziehen, was gegen den häufigen Einsatz vom Konjunktiv spricht.

P.S.: Pro_PainKiller ist natürlich nur eine Werbedrohne, aber gecan und TGBW sind da nicht ganz unähnlich.
Beide haben nichts anderes im Sinne, außer Mumpitz zu erzählen und für ihren Lieblings-IHV die kühnsten Geschichten als Fakt zu verkaufen.
Wenn es nach mir geht, könnte ich auf alle drei Teilnehmer verzichten, selten kommt etwas Produktives zu Stande.

Du bist da ganz anders, ich ordne dich als völlig normalen Diskussionsteilnehmer ein, wo ich selber nur ein Problem damit habe, was den Ausdruck von Spekulation angeht.


[...]
Hm, soweit ich das verstanden habe, wäre das sogar sehr gut einsetzbar für Transform-Anweisungen (model transformation). Die Komponenten eines Quaternions liegen im Bereich [-1,1]. Ein 32-bit Format wäre sogar ein ziemlicher Overkill dafür. 8-bit wäre wiederum zu ungenau, weil man damit allenfalls Winkelschrittweiten von 1-2° abdecken könnte.

Man brauch dafür nur ein geschicktes FP16 Packing. Leider ist hier der DirectX Standard nicht gut, weil langsam und mit relativ großen CPU Verzögerungen, siehe dazu "Advanced Virtual Texture Topics" von Martin Mittring.

So wie ich das sehe, gilt was die Model Transformationen betrifft, Hasta la vista Standard Shader.
In Bezug auf Mathematik bin ich kein passender Diskussionsteilnehmer, da kann man mir gerne erklären, wo Tensor-Cores im Anwendungsfeld Spiele nützlich wären.
Das Marketing hält sich dazu bedeckt, auch bei ganz üblicher FP16-Arithmetik über die normalen Shader-Cores.
Vielleicht gibt es morgen beim Geforce-Event Informationen dazu.

Die FP16-Ausführung bezogen auf den DX-Standard erscheint mir nicht richtig.
Die PDF Advanced Virtual Texture Topics mit Martin Mittring beschreibt soweit ich überflogen habe nur ihre Texture-Streaming-Implementierung unter einem 32-Bit Betriebssystem mit DX9 und wie sie Texture-Tile-Updates durchführen und das hat nichts mit der Shader-Präzision zu tun.
https://developer.amd.com/wordpress/media/2013/01/Chapter02-Mittring-Advanced_Virtual_Texture_Topics.pdf

Bezogen auf die Shader-Präzision bietet DX seit DX11.1 FP16 an, wo es natürlich zu keinen CPU-Verzögerungen kommt, der Compiler generiert dann einfach das entsprechende Datenformat.
Direct3D 11.1 Features | Microsoft Docs

Hier stelle ich mir natürlich die Frage, ob es einfach möglich ist in D3D Code zu schreiben, welcher vom Treiber-Compiler passend für die Tensor-Cores übersetzt wird.
 
@Locuza: Es geht nicht um die FP16 Ausführungen. Es geht um die Packing Methode. Sowas hier:
fp16_packing-png.1006832
 

Anhänge

  • Fp16_Packing.png
    Fp16_Packing.png
    45,8 KB · Aufrufe: 158
Die 2080 sieht aber laut den Spezifikationen (PNY) nicht sonderlich berauschend aus und das bei rund 800€ ?! Für das Geld habe ich noch vor ca 4 Jahren einen kompletten Gamer PC gebaut
hmm.gif
. Dann dürfte die 2070 ja gut und gerne 600€ kosten wa :wow:. Ne lass mal Lederjacke, behalt mal deinen Mist :daumen2:.

Man kann nur hoffen, dass der diesmal zeitgleiche Release einer ti Version die Preise drückt.

Bei pascal kam ja erst die 1070 und 1080 auf dem Markt und die 1080ti hat dann, als sie raus kam die Preise allgemein etwas gedrückt. Vielleicht ist es diesmal von anfang an so.

Aber wenn ich mir dann die Leaks ansehe und die Preise der 2060 sowie die lächerliche Leistungssteigerung sowie das downgrade beim Speicher, dann wird mir schlecht. Nvidia scheint nicht nur die Preise allgemein sehr hoch ansetzen zu wollen, sondern den Preisbereich, in dem sich Leistungsmäßig über die Generationen überhaupt noch was tut, immer weiter nach oben schieben zu wollen.

Wenn Nvidia für 300-400€ nix gescheites bringt, dann werd ich auch diese Generation überspringen, ganz egal wie stark die teureren Karten wären. Ich wäre zwar mittlerweile wohl wieder bereit, bis zu 500€ für ne neue GPU auszugeben. Hab ich ja bei meiner 980 auch. Aber wenn ne Klasse drunter nix vernünftiges kommt, werde ich das aus Prinzip nicht unterstützen.

Das ganze sähe auch völlig anders aus, wenn die Karten allgemein ordentlich Leistung hätten. Aber nein, selbst die stärksten Karten krächzen in 4K aus dem letzten Loch. Einfach lächerlich sowas... #PCMR am Arsch!
 
ich finde es toll das du hier aktiv mitliest und direkt verstehst was einer meint. Deine antworten zeugen von sehr hocher Qualität. Ich verstehe dich, danke. Nvidia will also mit einer 2070 auf GTX 1080 TI Leistung für 300 bis 400 Dollar Umsatz und Gewinn erzeugen. Obwohl die Karte bei der Leistung und dem Monopol auch für 100 Dollar mehr wie warme semmeln verkauft werden würde ? Gut, dann weis ich bescheid. Danke dir ! :lol:

Wer sagt dir denn das die 2070 für 300-400$ erscheint/erscheinen soll ?? Eher 500-600€.... dessen bin ich mir sicher. Auch die irgendwann erscheinende 2060 wird ein "Augenöffner" werden, zumindest was den Preis angeht :schief:.
 
Also sollten die Preise der neuen RTX2080ti stimmen, was auch spekuliert wird, passe ich lieber. Mit dem Verkauf meiner "alten" GTX 1080ti wäre ich bereit 300-400€ maximal für das Nachfolgermodell draufzuzahlen. Ich habe gerne die neueste Technik im Rechner, es ist eben mein Hobby, aber nicht um jeden Preis. Und ich glaube auch, dass die Preise der Mittelklasse ein Augenöffner für viele sein wird.
 
Die Packing Methode im DirectX Standard ist zu langsam. Deshalb verwendet man besser die obige custom Methode. Die Tensor Core sind in der Lage, die Quaternionen-Multiplikationen durchzuführen, um Model Rotationen abzubilden. Die Packing Methode braucht man, um die Vertex Datentypen mit den Komponenten der Quaternionen zusammenzubringen. Willst du wirklich derart in die Tiefe gehen?
 
Nein, nicht unbedingt, dafür müsste ich zuviele Grundlagen lernen, aber wer sich genauer in den Abschnitt einlesen möchte, der findet genau deine beschriebenen Punkte im Buch Pro 5: Advanced Rendering Techniques ab Seite 372:
GPU Pro 5: Advanced Rendering Techniques - Google Books

In der Beschreibung wird allerdings ausgeführt das die Model Transformation auf der CPU durchgeführt wird und als float32 gespeichert, aber das Packing von Rotation-Daten in INT16 erfolgt.
Später erfolgt eine Beschreibung in Bezug auf Skinning und die Verwendung von FP16 Packing.
Als Laie steige ich da allgemein nicht durch, welche Rechenschritte von welchem Prozessor praktisch am Besten ausgeführt werden könnten und wie der beschriebene Datenfluss aussieht und ob man jetzt Tensor-Cores für das Einsatzgebiet verwenden könnte.
 
Eigentlich ist es gar nicht soooo schwer. Die wichtigste Erkenntnis ist zunächst einmal, dass FP16 für eine ausreichend genaue Rotationsoperation ausreicht. Das sollte soweit klar sein, oder? Dann schaut man sich den mathematischen Teil an: Quaternions and spatial rotation - Wikipedia

Dann zu den Tensor Cores. Diese haben eine Dimension von 4x4, womit man entweder Quaternionen abbilden kann oder homogene Matrizen (Rotation und Translation mit einer Operation!). Quaternionen lassen sich mit 4-dimensionalen Vektoren beschreiben. Mathematisch gehören Quaternionen zur algebraischen Struktur der Halbkörper. Rotationen lassen sich damit max. effizient durchführen.

Zu guter Letzt gibt es noch den additiven Anteil der affinen Abbildung, also A*B + C. Damit lassen sich Translationen abbilden. Der Vorteil der Tensor Cores ist, dass 4 Vertices in 2 Zyklen transformiert werden können.

A ist die Rotation (homogene Matrix oder Quaternion)
B ist das Paket mit den 4 Vertices
C ist die Verschiebung/Translation
 
Zuletzt bearbeitet von einem Moderator:
Und jetzt in Bezug auf die Tensor-Cores, könnte man nicht die selbe Packaging-Methode verwenden, wie im Buch für das Skinning beschrieben?
 
Nein, ich ich denke das reicht auch nicht. Ideal wäre eine hardwareseitige Implementierung in der GPU. Softwarerenderer sollten aber die von mir erwähnte custom Methode verwenden.
 
Zurück