Seite 14 von 14 ... 41011121314
  1. #131

    Mitglied seit
    23.03.2019
    Beiträge
    160

    AW: Raytracing für GTX-Grafikkarten: Nvidia veröffentlicht DXR-Treiber plus drei Raytracing-Techdemos

    Zitat Zitat von onkel-foehn Beitrag anzeigen
    Frage mich ernsthaft, ob eine Zusatzkarte mit RT Cores, wie einst die Ageia PhysX (PPU) Karte, nicht möglich wäre ?

    Ageia's PhysX physics processing unit - The Tech Report - Page 1

    MfG, Föhn.
    Ab der 2080 kann man unifiyed memory über nvlink verwenden. Eine Funktion für professionelle Raytracer, den VRam zu einem Pool zu vereinen. Zum Raytracen von Filmen, Werbung etc. bringt das erhebliche Vorteile, da sich auch die Rechenleistung addiert.
    Echtzeit Raytracing ist aber eine andere Geschichte, ich glaube nicht, das es hier zu einer entsprechenden Lösung kommt, es würde auch nicht viele Kunden dafür geben, da die Kosten für eine GPU + dezidierter Beschleunigerkarte immer höher sein werden und mehr technische Probleme verursachten, als eine GPU der nächst höheren Stufe. Wem dann die höchste Stufe rtx2080 ti nicht reicht, der ist im Profibereich mit ganz anderen Preisen.

    •   Alt

      Anzeige
      Bitte einloggen, um diese Anzeige auszublenden.
       

  2. #132
    olletsag
    Gast

    AW: Raytracing für GTX-Grafikkarten: Nvidia veröffentlicht DXR-Treiber plus drei Raytracing-Techdemos

    Zitat Zitat von MoneyRulez Beitrag anzeigen
    Ab der 2080 kann man unifiyed memory über nvlink verwenden. Eine Funktion für professionelle Raytracer, den VRam zu einem Pool zu vereinen. Zum Raytracen von Filmen, Werbung etc. bringt das erhebliche Vorteile, da sich auch die Rechenleistung addiert.
    Echtzeit Raytracing ist aber eine andere Geschichte, ich glaube nicht, das es hier zu einer entsprechenden Lösung kommt, es würde auch nicht viele Kunden dafür geben, da die Kosten für eine GPU + dezidierter Beschleunigerkarte immer höher sein werden und mehr technische Probleme verursachten, als eine GPU der nächst höheren Stufe. Wem dann die höchste Stufe rtx2080 ti nicht reicht, der ist im Profibereich mit ganz anderen Preisen.
    NVidia empfiehlt bei SLI RT zu deaktivieren. Im Entwickler/Rendererbereich braucht man den Treiber so nicht, weil der Renderer Multi GPU unterstützt. Für die 2080 und höher als Consumerboard wäre es daher eher nicht zu empfehlen.

    Zitat Zitat von nVidia
    Using multiple GPUs is a the next big consideration, as creative professionals want their results as quickly as possible. Most renderers support multiple GPUs, and when doing so, none of them require SLI. In fact, it's usually recommended to disable SLI for the best ray tracing operation (an important fact to remember for owners of dual-GPU cards with on-board SLI). PCI-X lane speed usually has little to no impact on ray tracing performance, as the bus bandwidth of even a x4 is rarely met, so don't feel bad about placing additional boards in slower slots.
    Configuring GPU Ray Tracing | NVIDIA

    "Die beste RT Leistung" wie nVidia beschreibt, erhält man damit also unter Spielen nicht. Ob das später nochmal kommt ist unbekannt, man überlegt wie man beschreibt. Dedizierte Renderercards wie Ageia's PhysX würde ich eher ausschließen.

    RTX ist nicht von PCIe Bandbreite abhängig, bzw. auch nicht vom Link.
    Geändert von olletsag (13.04.2019 um 21:51 Uhr)

  3. #133
    Avatar von RtZk
    Mitglied seit
    20.11.2016
    Liest
    PCGH.de & Heft (Abo)
    Beiträge
    7.254

    AW: Raytracing für GTX-Grafikkarten: Nvidia veröffentlicht DXR-Treiber plus drei Raytracing-Techdemos

    Ich habe es jetzt endlich mal zum Laufen gebracht und muss sagen, von Battlefield bin ich ziemlich enttäuscht, es gibt quasi gar keine Dinge, auf den meisten Maps, die irgendetwas reflektieren, ziemlich nutzlos daher. In Shadow of the Tomb Raider sieht man den Unterschied im Grunde nach immer, nur die Frage ist eben ob korrekte Schatten es wert sind die FPS so einkrachen zu lassen. Metro habe ich nicht , da vermute ich aber den mit Abstand größten optischen Zugewinn, auf Reflexionen und Schatten sollte man meiner Meinung nach verzichten bis ausreichend RT Leistung da ist und sich auf Global Illumination konzentrieren.
    System: i7-6700k@4,7GHz | ASUS ROG Maximus VIII Hero Alpha | 32GB DDR4-3000mhz | EKL Alpenföhn Olymp | GeForce RTX 2080 Ti FE| Crucial MX300 750gb Limited Edition | Samsung 860 EVO 1TB | Superflower Platinum King 550 Watt | Fractal Design Meshify C Dark, Glasfenster
    Laptop: Lenovo ThinkPad X280 i7-8550U 16GB DDR4-2400mhz 512GB M2 PCI-E

  4. #134

    AW: Raytracing für GTX-Grafikkarten: Nvidia veröffentlicht DXR-Treiber plus drei Raytracing-Techdemos

    Zitat Zitat von olletsag Beitrag anzeigen
    Sehe ich nicht so. Ich denke du spielst auf die Fähigkeit von Turing an, neben FP32 auch Int32 gleichzeitig ausführen zu können, was Pascal so nicht kann - da diese Int über FP ausgeführt werden müssen und dann andere Operationen blockieren.

    Das Renderprinzip hat aber einen wesentlichen Anteil daran, weil auf den Code optimiert werden muss und man die Einheiten auch nutzen können muss. Die Frage ist dabei für welchen Zweck. Dabei ist die Parallelisierung der Prozesse auch nicht von der Partitionierung (Datenpartitionierung) abhängig, sondern von dem Algorithmus und der möglichen Konvertierung (erweiterte oder eingeschränkte).

    Unter GPGPU spielt die Partitionierung ein unwesentliche Rolle, da diese Architektur (Instructions Multiple Data) und ihr Parallelisierungsgrad Aufgaben auf allen Einheiten gleichzeitig ausführen kann, was bei der Ressourcenauslastung und der Verarbeitung der Optimierung bedarf. Trotzdem liegt dieser Grad, mit seinen multiplen Threads weit über dem was man mit Partitionierungsarten erreichen könnte und diese fordert in jeden Fall hohen Sychronisierungsaufwand. Feingranularität vorausgesetzt, lässt sich auch eine hohe Auslastung erzielen.

    Wenn sich Fiji und Vega ähneln, liegt das eher daran, dass man sich große Umbrüche und Treiberoptimierungen sparen kann. Die Architektur kein neues oder gesondertes Umfeld braucht, und das was bis dahin entwickelt wurde darauf lauffähig bleibt. Es ist also eine Frage der nachfolgenden Kosten und ob es dafür einen Absatzmarkt gibt, zuletzt auch was der - der diese Hardware abnimmt sich als Kunde wünscht.

    Die Geschwindigkeiten werden heute durch die parallele Prozessausführung erreicht, wie auch Turing in dem Bsp. von FP32 und Int32 beweist. BFV soll im Verhältnis und nach Auskunft von nVidia, bereits bei 100 FP32 und gleichzeitig 50 INT32 liegen (100:50). Das erfordert aber auch eine Anpassung bei der Datenverarbeitung. Mal als Bsp. C++ AMP das ermöglich einen massiven Parallelisierungsgrad zu erreichen und Programme zu schreiben, die kompiliert auf der Hardware ausgeführt werden können und diese auch auslasten.
    Ich spiele nicht INT32 und FP32 an. Die unterschiedliche Art der Ausführungseinheiten bei Turing ist nur eine Sparmaßnahme: Alle ALUs FP-fähig auszuführen hätte wesentlich mehr Transistoren gekostet beziehungsweise die Gesamtzahl der ALUs reduziert. Ressourcenverschwendung, wenn am Ende viel INT32-Code ausgeführt wird, der von einfacheren Einheiten berechnet werden kann. Unabhängig vom verwendeten Dateiformat sind Grafikberechnungen aber sehr leicht auf mehr Recheneinheiten verteilbar, da ist noch lange nicht die Grenze der Parallelisierung erreicht.

  5. #135
    olletsag
    Gast

    AW: Raytracing für GTX-Grafikkarten: Nvidia veröffentlicht DXR-Treiber plus drei Raytracing-Techdemos

    Sparmaßnahmen? Dedizierte Cores kosten mehr als unifieds, weil sie Platz brauchen und angebunden werden müssen (Cache). Der Begriff "GPU Partitionierung" ist Teil der vGPU Cloud Gaming Strategie seitens Microsoft und kann einem tatsächlich nur gefallen, wenn man zugeteilte GPU Ressourcen nach einem Abomodell mag, was auf die meisten dGPU Spieler wahrscheinlich nie zutreffen wird.

    Schon jetzt dürfte Turing alles sprengen, was die reine Waferfläche angeht und genau daher wird nVidia sich hüten auf 7nm zu wechseln, die Kosten dürften hier 12/16nm bei 7000-8000 pro Wafer liegen, in 7nm bei 14000-16000$ über 7nm+ mag da noch niemand reden - weil das wohl sicherlich ein Redesign und eigens angepasstes nVidia Fertigungsverfahren erfordert.

    Der PR Stunt wie groß ein Pascal ausfallen müsste, um die Ray Traverse zu berechnen, ist allein nVidias Erguss und Problem. Volta war eine Machbarkeitsstudie und genauso sehen auch die Preislagen dazu aus. Es macht deutlich mehr Sinn an Software und Compilern zu optimieren, als ständig irgendwelche dedizierten Cores auf einem GPU Design zu verwenden. Manchen Leuten scheinen die Preise dafür völlig egal zu sein. Allein Tensor und RT + Caching jubelt die Waferfläche um 22% in die Höhe, dazu kommt noch die Core Fabric und die Signalwege, die man bei höherem oder gleich gebliebenem Takt dafür schaffen muss.
    Geändert von olletsag (16.04.2019 um 11:22 Uhr)

Seite 14 von 14 ... 41011121314

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •