Seite 13 von 20 ... 391011121314151617 ...
  1. #121

    Mitglied seit
    06.12.2018
    Beiträge
    520

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Zitat Zitat von BraveNeo Beitrag anzeigen
    Natürlich soweit nicht in Vulkanray implementiert. RTX ist das gesamte Backend, inklusive Software Anteil. Den wird AMD keineswegs so umsetzen, zumal sie es sicher nicht dürften. BVH ja, aber das braucht nicht zwingend einen RTCore.
    Vulkan wird natürlich DXR folgen, alleine, weil NVIDIA schon eine entsprechende API fertig hat. Der wird man einfach nur das propreitäre NV_ vorne streichen und fertig.

    Zitat Zitat von BraveNeo Beitrag anzeigen
    Was denkst du was es heisst mit Shadern frühzeitig auf die Ray query zugreifen? Microsoft hat wohl erkannt das der RTCore zu lahm ist und Hardwaretechnisch zu viel Aufwand verursacht, die Fläche die er braucht ist immens.
    Ich glaube du hast den Sinn hinter Inline Raytracing null verstanden, wenn du so einen Blödsinn behauptest

    Die RT-Cores sind ja bei BVH um einige Größenordnungen schneller als ComputeShader, siehe Pascal mit DXR.

    • Bitte einloggen, um diese Anzeige auszublenden.
  2. #122
    Avatar von Captain-S
    Mitglied seit
    14.09.2012
    Beiträge
    816

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Wann sollen die ersten Ampere-High-End Gaming-Karten erscheinen, gibts da eine "Schätzung"?

  3. #123
    Avatar von Pilo
    Mitglied seit
    02.09.2013
    Beiträge
    528

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Mit "massiv" ist bestimmt gemeint, dass man dann in Quake III Ray-Tracing performant nutzen kann.

  4. #124
    Avatar von Infi1337
    Mitglied seit
    01.09.2010
    Beiträge
    254

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Zitat Zitat von Grestorn Beitrag anzeigen
    Brauchbar ist es schon heute, im Gegensatz zu der Behauptung der vielen Unker. Extrem teuer, zweifellos, ja, aber wem 60 fps reichen (für Ultra in 1080p, oder High in 1440p), absolut ausreichend. Und mehr zu verlangen für diese neue, extrem aufwendige Technik, ist einfach unrealistisch im ersten Anlauf.

    Ich frag mich immer, was die Leute erwarten. Wunder?
    Selbst wenn solche Figuren die schnellste GPU der Welt haben können sie nicht das volle Potenzial ausschöpfen, weder spielerisch geschweige denn technisch, da beschränkt man sich dann auf solche Aussagen.

    Die 2080ti ist ja auch schon etwas gefallen und niemand weiß ob die Karten tatsächlich etwas teurer waren, weil RTX in Kombination mit einer starken Preiserhöhung wäre aus Marketing Zwecken sehr riskant.
    Bin allerdings auch bei Ampere sehr gespannt wie das dann aussieht und ob man den Preis etwas drückt, gut das man bei RTX bleibt weil selbst bei einem normalen Shrink sollte die Leistung schon nochmal deutlich steigen.
    Geändert von <<Painkiller>> (31.10.2019 um 09:37 Uhr) Grund: PA entfernt

  5. #125

    Mitglied seit
    30.09.2016
    Beiträge
    2.988

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Wär hätts gedacht - die nächste Generation soll schneller werden.
    Und wie im Artikel hier auf "Rasterisierung" eingegangen wird ist auch sehr komisch.
    Die Rasterung ist natürlich ein Hauptbestandteil, aber genau daran kann man im Vergleich auch wenig ändern und wenig Leistung raus holen.
    Mit dem Tile-Based-Rastering haben sie ja schon die Lokalität erhöht, große Sprünge braucht man sich da nicht mehr erwarten. Wenn dann eher vom Durchsatz her - sprich mehr und schneller Shader einfach.


    Finde die realitätsfernen Behauptungen das die RT-Cores zu langsam wären immer wieder zum Lachen.
    Es kommt - so wie eigentlich immer - darauf an für was und wie man sie Einsetzt.
    bisher kommt DXR fast ausschließlich zur Berechnung von Spiegelungen zum Einsatz - das Gebiet mit dem man den größten Wow-Effekt erzielen kann, wo man aber auch am meisten Leistung verschwenden kann.
    In BF5 wurden Anfangs sogar haufenweise Strahlen außerhalb des Sichtbereiches verschwendet, der Großteil vom Rest war auch Verschwendung da sie unabhängig der Umgebung immer auf alle gestrahlt wurden. Das kann man auch deutlich effizienter machen, dafür muss man dann aber entweder von Anfang an im Design darauf eingehen oder später entsprechend die Shader anpassen.

    Dabei gibt es auch Spiele die das ganze schon deutlich besser machen aber auch dort muss zweigleisig entwickelt werden so lange nicht jede Karte Raytracing unterstützt.

    Für GlobalIllumination wurden auch schon 4k90FPS gezeigt - ist auf einer RTX 2060 kein Problem, bringt halt nicht die super Bildveränderung dafür deutlichen Leistungszuwachs.


    Und zusätzlich dazu kommen dann noch ein Faktor (bei denen ich nicht weiß in wie fern das jetzt Treiber, Architektur oder vom Programm abhängt):
    Beim Rendern eines Frames laufen die RT-Cores nur für einen Bruchteil der Zeit auf voller Leistung und verbrauchen fast das gesamte Powerbudget so das der Rest der GPU nur wenig machen kann.
    Soweit man es aber von der Architektur und den APIs sieht spricht nichts dagegen das Raytracing für längere Zeiträume laufen zu lassen. Dafür muss man sich bei den Shadern überlegen welche Informationen wann wo gebraucht werden, man könnte dann aber die RT-Cores zB langsamer (damit auch deutlich effizienter) laufen lassen. Anstelle der theoretischen maximalleistung der RT-Cores bekommt man jetzt nur einen kleinen Bruchteil, meist unter 1/5tel, und dazu muss der Rest der GPU warten.
    Lässt man die Cores dagegen sagen wir mal auf 75% der Leistung fahren, das aber für 50% des Frames, dann hätte man schon mal fast das doppelte an RT-Leistung zur Verfügung und kann nebenbei mit den Shadern ähnlich viel berechnen wie bisher.
    (Für Spiegelungen ist es rein Datentechnisch kein großes Problem die Berechnung sehr früh zu starten, die Strahlen auf Oberflächen die Reflektieren können zu beschränken und die Auswertung erst kurz vor den letzt post-processing-schritten zu machen.)

  6. #126

    Mitglied seit
    31.12.2008
    Liest
    PCGH.de
    Ort
    Großraum Stuttgart
    Beiträge
    4.417

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Zitat Zitat von Casurin Beitrag anzeigen
    Finde die realitätsfernen Behauptungen das die RT-Cores zu langsam wären immer wieder zum Lachen.
    Es kommt - so wie eigentlich immer - darauf an für was und wie man sie Einsetzt.
    Das ist nur teilweise richtig, denn Nvidia umgeht das Problem ja mehr oder minder elegant mit dem KI-Filter. Für Echtzeit-RT sind die RT-Cores in der Tat viel zu langsam, das ist nicht abzustreiten und das kann man drehen und wenden wie man will. Nur mit dem KI-Filter wird in der Renderzeit eines Frames auch nur halbwegs was Brauchbares daraus. Dieser Ansatz ist genial, um aus einer geringen Datenmenge ein konsistentes Ergebnis zu erzeugen, bringt aber auch Probleme mit sich. Je weniger Strahlen man hat, desto mehr muss das Filter raten. Das kann manchmal sehr gut funktionieren, kann aber auch in die Hose gehen. Daher ist die Erhöhung der RT-Rohleistung definitiv notwendig.

    Zitat Zitat von Casurin Beitrag anzeigen
    Für GlobalIllumination wurden auch schon 4k90FPS gezeigt - ist auf einer RTX 2060 kein Problem, bringt halt nicht die super Bildveränderung dafür deutlichen Leistungszuwachs.
    Auch hier kommt es schlichtweg auf den Einsatzzweck an. "Eine RTX 2060 reicht für die Berechnung von globaler Beleuchtung" ist ein Satz, der genau genommen falsch ist, weil es immer auf den Einsatzzweck ankommt: wie sieht meine Szene aus, was berechne ich eigentlich, wie genau soll/darf das Ergebnis sein? Für feingliedrige Geometrie und GI über mehrere Bounces reicht eine RTX 2060 bestimmt nicht mehr aus. "Eine GT720 reicht für 4K 60 FPS" wäre auch falsch. Für Minesweeper mag es trotzdem korrekt sein. Das ist jetzt stark überspitzt, zugegeben

    Zitat Zitat von Casurin Beitrag anzeigen
    (Für Spiegelungen ist es rein Datentechnisch kein großes Problem die Berechnung sehr früh zu starten, die Strahlen auf Oberflächen die Reflektieren können zu beschränken und die Auswertung erst kurz vor den letzt post-processing-schritten zu machen.)
    Theoretisch müsste die Berechnung von Spiegelungen doch das letzte sein, was berechnet wird, oder? In der Spiegelung sehe ich ja die Reflektion eines fertig geshadeten Bildabschnittes, daher muss das gesamte Shading ja bereits im Voraus passiert sein. Oder irre ich mich da?
    gRU?; cAPS

  7. #127
    Avatar von Downsampler
    Mitglied seit
    25.11.2013
    Liest
    PCGH.de
    Beiträge
    1.507

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    "Massiv" heißt auf Nvidianisch 20 bis 30 Prozent mehr mit einer gleichzeitigen Preiserhöhung im selben Rahmen.

  8. #128
    BraveNeo
    Gast

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Zitat Zitat von Mimimimimi Beitrag anzeigen
    Vulkan wird natürlich DXR folgen. Ich glaube du hast den Sinn hinter Inline Raytracing null verstanden, wenn du so einen Blödsinn behauptest .
    Klar habe ich das, Nvidia hat AMDs Primitive Shader Pipeline kopiert und nennt sie Meshshader oder so, wie du aus den Marketingfolien abschreibst auch Inline Ray Tracing.

    Die räumliche Konstruktion als Algorithmus zur BVH konzentriert sich normalerweise nicht auf die Echtzeitverarbeitung. Da kommt man halt mit einem Algorithmus für zeitbegrenzte Volumenhierarchien das auf dünnem Volumen angepasst wird, weil die Konstruktionsraten in Echtzeit der GPU-Implementierung entgegenkommen. Bei AMD verweigerte Microsoft diese Methode aufgrund der Vorgabe von Shader Modellen noch, so daß sie für DX als nicht konform und damit allgemein mit einem Treiber nicht umgesetzt werden konnte.

    Schon MPI/MPI2 ließe eine Ressourcenzuteilung zu, wenn man etwas auf seiner CPU frei hätte. Irgendeine Denver wäre natürlich zu langsam, so muss Nvidia ja dedizierte Cores bemühen und nutzt die Meshshader für LOD Spielereien.

    Wie sich die Zeiten doch ändern. AMD kann es ja recht sein wenn bei gfx10 die Pipeline bereits aktiv ist.

    Vulkan folgt ja auch DX, oder DXR? Oh Mann und du unterstellst mir Unkenntnis.
    Geändert von BraveNeo (30.10.2019 um 18:07 Uhr) Grund: Inhaltskorrektur

  9. #129
    Avatar von oldmichl
    Mitglied seit
    25.12.2016
    Beiträge
    80

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Ein paar Poster hier meinen, dass sich die Graka Verbesserungen prozentual an die CPU Verbesserungen anpassen (sprich immer kleiner werden). Diese
    Zeit wird mit Sicherheit irgendwann kommen aber...
    Nunja, dass will ich aktuell noch nicht wahrhaben, so lange es keine einzige Multi-GPU-Karte gibt. Und dass an sowas im Hintergrund gearbeitet wird,
    werden die meisten hier sicherlich wissen. Ich denke es vergeht noch viel Zeit, bis die GPU-Sprünge in Einstelligen Prozentzahlen zu finden sind.
    Wer weiß, wie es in ein paar Jahren aussieht - oder anders herum - wer würde sich heute noch eine Singlecore CPU kaufen?

    • Bitte einloggen, um diese Anzeige auszublenden.
  10. #130
    Avatar von yojinboFFX
    Mitglied seit
    10.02.2012
    Beiträge
    1.162

    AW: Nvidia Ampere: Fokus angeblich auf "massiv" mehr Raytracing-Leistung und Rasterisierung

    Heute: Ein bissel Raytracing für ein bissel mehr Geld
    Demnächst: Mehr Raytracing für...mehr Geld
    Und danach wird das nächste Grunzetier durch´s Dorf gejagt!
    Gruß Yojinbo

Seite 13 von 20 ... 391011121314151617 ...

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •