facehugger
Trockeneisprofi (m/w)
Und so mancher dieser Köter beißt auch wirklich mal zu. Hab ich gehörtDer Getroffene Hund hat bereits gebellt
Gruß
Und so mancher dieser Köter beißt auch wirklich mal zu. Hab ich gehörtDer Getroffene Hund hat bereits gebellt
Da bin ich überfragt, aber Geometrie/Physikberechnungen laufen soweit ich weiß aus Präzisionsgründen mit FP32 ab, dafür wären die Tensor-Cores ungeeignet und selbst mit FP32 gibt es Präzisionsartefakte in weiter Entfernung.
Für Konsumenten sehe ich als Laie bisher nur das was öffentlich gemacht wurde, die Beschleunigung von Denoising-Algorithmen über Tensor-Cores beim Raytracing-Einsatz.
Der GV 100 hat noch Tensor-Cores der ersten Generation.
Die neuen Geforce-GPUs haben schon überarbeitete Tensor-Cores, quasi der 2. Generation.
Da aber noch gar nichts bekannt ist, was und wie dort verändert wurde, kann man leider noch nicht einmal spekulieren wie sich das auswirken wird.
Theoretisch könnte man die Tensor-Cores auch für andere Aufgaben einsetzten, als "nur" zur Berechnung von Raytracing.
Nvidia wird das mit Sicherheit auch versuchen, da sonst ohne RT viel Leistung verpufft.
Mit den Tensor Cores der ersten Gen gibt es noch große Schwankungen bei den getesteten Games bei CB:
Passend ist ein gutes Stichwort, denn ganz optimal kann man Code nicht auslegen und dank Hardware-Limits hat man teilweise gar keine andere Wahl, außer mit den Einschränkungen zu leben.Das ändert nichts daran, dass die Shader Kerne an sich nicht schneller wurden, sondern höchstens alles drum herum besser für Spiele optimiert wurden.
Denn man kommt ja auch aktuell schon mit passend angepasster Software recht nah an die theoretischen Spitzenwerte.
Ich kann natürlich niemanden zwingen, meine Empfehlungen umzusetzen oder ihnen zuzustimmen, aber wenn du mir nicht zustimmst, dann könntest du mir vielleicht die Frage beantworten, weswegen nicht?Bitte Schluss jetzt mit dem Quatsch.
Ich antworte einmal mit der Metapher einer TV-Psychologin, man kann die Welt nicht ändern, aber sich selbst.
Für dich selbst musst du jetzt also entscheiden, ob dass für dich erträglich ist, oder ob du mich zukünftig ignorierst, was übrigens nicht schlimm wäre.
p.s. TheGoodBadWeird und Pro_PainKiller sind ganz andere Kaliber mit ihrem permanenten Nvidia Werbeblock als gecan und auch ich. Es ist auch nicht deine Aufgabe hier die User "erziehen" zu müssen. Wenn dann geht das eher in den Bereich der Mods, wenn man gegen die Forenregeln verstößt.
[...]
In Bezug auf Mathematik bin ich kein passender Diskussionsteilnehmer, da kann man mir gerne erklären, wo Tensor-Cores im Anwendungsfeld Spiele nützlich wären.[...]
Hm, soweit ich das verstanden habe, wäre das sogar sehr gut einsetzbar für Transform-Anweisungen (model transformation). Die Komponenten eines Quaternions liegen im Bereich [-1,1]. Ein 32-bit Format wäre sogar ein ziemlicher Overkill dafür. 8-bit wäre wiederum zu ungenau, weil man damit allenfalls Winkelschrittweiten von 1-2° abdecken könnte.
Man brauch dafür nur ein geschicktes FP16 Packing. Leider ist hier der DirectX Standard nicht gut, weil langsam und mit relativ großen CPU Verzögerungen, siehe dazu "Advanced Virtual Texture Topics" von Martin Mittring.
So wie ich das sehe, gilt was die Model Transformationen betrifft, Hasta la vista Standard Shader.
Die 2080 sieht aber laut den Spezifikationen (PNY) nicht sonderlich berauschend aus und das bei rund 800€ ?! Für das Geld habe ich noch vor ca 4 Jahren einen kompletten Gamer PC gebaut. Dann dürfte die 2070 ja gut und gerne 600€ kosten wa . Ne lass mal Lederjacke, behalt mal deinen Mist .
ich finde es toll das du hier aktiv mitliest und direkt verstehst was einer meint. Deine antworten zeugen von sehr hocher Qualität. Ich verstehe dich, danke. Nvidia will also mit einer 2070 auf GTX 1080 TI Leistung für 300 bis 400 Dollar Umsatz und Gewinn erzeugen. Obwohl die Karte bei der Leistung und dem Monopol auch für 100 Dollar mehr wie warme semmeln verkauft werden würde ? Gut, dann weis ich bescheid. Danke dir !
Mir ist nicht klar, inwiefern die Tensor-Cores hier eine Rolle spielen könnten und wo man Probleme mit dem DX-Standard sieht?@Locuza: Es geht nicht um die FP16 Ausführungen. Es geht um die Packing Methode. Sowas hier: