News Cyberpunk 2077: Pathtracing benötigt bis zu 40 Prozent mehr GPU-Rechenleistung

Entweder zusätzliche RT Beschleunigerkarte, oder zusätzlicher RT Chip auf den GPUs, was vermutlich zu teuer wäre.


Tensor Cores (1. 2. &3. Generation) sind eigentlich bereits was zusätziches - noch was anderes zusätzliches braucht also nicht. Die Tensor Cores werden reifer, größer und vielleicht auch teuerer, und mit der 5090 kommt dann bestimmt die 4. Generation der Tensor Cores - die wieder was neues kann und bisherigen Features besser und effizienter berechnet .

Und kein Hersteller kann von null weg gleich beim ersten Wurf die 5. Generation von Pathtracing-Cores auf eine Grafikkarte bauen - ohne die notwendigen Entwicklungsschritte zu machen und die gewonnene Erfahrung aus diesen Schritten gemacht zu haben.

Deshalb fällt es ja AMD auch nicht leicht zu nVidia aufzuzschließen.


habe im game einmal rt eingeschaltet um zu sehen wie es aussieht. gleich wieder ausgemacht. einfach nur übertrieben dieses ganze rt gedöhns. was da besser aussehen soll erschließt sich mir nicht ganz. geht haufen leistung für paar spiegelungen flöten. brauch ich nicht.
In so einen Fall reicht PS3-Grafikqualität vielleiht sogar völlig aus.
 
So wie es damals bei Nvidias PhysX war. Zumindest solange, bis es ganz normal von der Hauptkarte oder CPU ohne große Probleme mit berechnet werden kann.
Nicht ganz.
Bis NV die Firma Ageia aufkaufte und dann sagt das klappt nun auch über die Grafikkarten.
(und ja ein paar Generationen später ging das dann auch ohne große Probleme)
 
In erster Linie müssen Games Spaß machen, Grafik spielt immer die 2. Geige.
Beides ist wichtig. Niemand hat heutzutage noch Spass am Tetris. Andererseits werden akutell Spiele optisch immer schöner. Man braucht dazu immer leistungsfähiger Hardware so dass ein Gaming PC zw. 1500-2500€ grob kostet. Spielerisch sind die Spiele aber auf dem Stand von vor 20 Jahren. Es gibt 1000 Survival, openworld, shooter, Simulationen die irgendwo alle gleich sind und kaum herrausfordern.
Ich hoffe zum Beispiel seod Jahr auf Star Citizen da mich die anderen Titel nur noch langweilen. Aber auch bei Star Citizen sehe ich aktuell zwar eine ultra Komplexe Simulation ala MS Flugsim + Survival aber der spannende Spielerische Aspekt fehlt einfach.
Dafür lohnt es sicht für mich persönlich nicht so viel Geld auszugeben.
 
Ich müsste es mir in Cyberpunkt noch einmal gezielt angucken, aber in der Regel ist die Zahl der Leucht-/Schattenquellen nicht hart limitiert. Ein Designer kann die Level zwar entworfen, dass rund "10" Lichtquellen dynamisch berechnet werden müssen. Aber wenn du dich so stellst, dass davon nur fünf in deinem Blickfeld sind, bleibt es bei diesen fünf – es werden nicht die weniger wichtigen, welche zuvor nur über Lightmaps simuliert wurden, zusätzlich geraytrayced. Genauso wenig kann man die präzise Berechnung für einzelne Lichtquellen plötzlich abschalten, wenn du eine Framerate-killende Perspektive finden, aus der 15 zu sehen sind. Wenn heute ein Schatten aufploppt, liegt das also nicht an einem harten Limit berechneter Lichtquellen, sondern nur an der Position dieser einen. Vermutlich war sie zuvor zu weit weg oder abseits der Sichtachse und wurde komplett ignoriert – nach einer Bewegung ploppt sie dann plötzlich ins Spiel. Das wird mit 100 der GPU zugemuteten Lichtquellen pro Szene vermutlich nicht besser, eventuell sogar schlimmer. Man könnte die Rechenzeit auch auf weit entfernte oder vermutlich gar nicht sichtbare Lichter verschwenden, dann könnten die natürlich nicht mehr ploppen. Aber man bekommt eindrucksvollere Preview-Screenshots, wenn man stattdessen mehr Lichtquellen innerhalb des Kernbereichs der Szene berücksichtigt. Also werden die Designer eher von fünfmal 10 potenziellen Ploppern in deiner Umgebung auf fünfmal 100 potenzielle Plopper aufrüsten.

Bei Raytrayced-Lichtquellen kamen zudem in allen bislang komplett damit arbeitenden Spielen Situationen hinzu, in der das Wirken des Denoisers klar erkennbar war. RTX-Titel erschummeln nämlich nicht nur zum Beispiel jeden zweiten Frame komplett mit FG und zusätzlich im ersten Pixel drei von vier Pixel mit DLSS Performance, selbst diese Pixel sind bei weitem nicht alle echtzeit-raytrayced. Ein wechselnder Anteil der Informationen wird temporal interpoliert, stammt also aus alten Frames, und wenn in denen zum Beispiel eine Lichtquelle fehlte, ist deren Schatten erst einmal unvollständig. Raff ich hatten vor kurzem in Half Life Raytrayced eine Stelle gefunden, da brauchte es bei circa 30-40 Fps knapp eine Sekunde, also mindestens 30 Frames, bis ein frisch aufgeploppter Schatten korrekt dargestellt wurde. Von UHD-Echtzeit-Vollbild-Berechnung, wie sie Rasterizer heute ermöglichen, ist Raytraycing viel weiter als "40 Prozent Mehrleistung" entfernt.
Was meinen Verdacht bestätigt, das wir wohl noch länger auf drauf warten dürfen bis das wirklich Salonfähig ist. Frame Generation klingt ja nicht schlecht aber wenn es auffällt das es alte Bilder sind ist die Technik dann auch nicht so überragend.
 
Stattdessen stecken wir nach fast 5 Jahren "Weiterentwicklung" leistungstechnisch im 1080p Raytracing-"Loch" fest.
Battlefield 5 läuft inkl. RT Spiegelungen auf einer 4090 mit fast 200 FPS in 3840x2160.

Deine Theorie des Feststeckens passt nicht.
Also wird es bei dem Tempo bestimmt noch weitere 5 Jahre dauern bis uns diese Raytracingleistung zu fairen Preisen angeboten wird.
Du wirst mit DLSS3 und einer 4th Gen Einsteigerkarte problemlos mit Raytraycing spielen können.
 
Wobei bis heute nicht klar ist ob und was das Ding überhaupt gemacht hat. Es kann auch sein, dass Nvidia da, mit Ageia, eine Betrugsbude gekauft hat und diesen Betrug dann weitergeführt hat. Tatsache ist, dass wohl niemals irgendwas auf GeForcekarten berechnet wurde. Das ist alles über die CPU gelaufen. Der Unterschied war, dass eine optimiertere Version verwendet wurde, wenn eine GeForcekarte drin war und eine nicht optimierte, wenn keine verbaut war.
Wirklich? Ich meine mich zu erinnern, dass man auch auswählen konnte, dass PhysX auf einer zweiten GPU berechnet wird und das Spiel dann entsprechend so lief, wie die erste Karte mit PhysX off performte. Das dürfte ohne echte GPGPU-Berechnungen schwer möglich gewesen sein...

Edit: Was altes dazu wiedergefunden:
 
Entweder zusätzliche RT Beschleunigerkarte, oder zusätzlicher RT Chip auf den GPUs, was vermutlich zu teuer wäre.


Tensor Cores (1. 2. &3. Generation) sind eigentlich bereits was zusätziches - noch was anderes zusätzliches braucht also nicht. Die Tensor Cores werden reifer, größer und vielleicht auch teuerer, und mit der 5090 kommt dann bestimmt die 4. Generation der Tensor Cores - die wieder was neues kann und bisherigen Features besser und effizienter berechnet .

Und kein Hersteller kann von null weg gleich beim ersten Wurf die 5. Generation von Pathtracing-Cores auf eine Grafikkarte bauen - ohne die notwendigen Entwicklungsschritte zu machen und die gewonnene Erfahrung aus diesen Schritten gemacht zu haben.

Deshalb fällt es ja AMD auch nicht leicht zu nVidia aufzuzschließen.


habe im game einmal rt eingeschaltet um zu sehen wie es aussieht. gleich wieder ausgemacht. einfach nur übertrieben dieses ganze rt gedöhns. was da besser aussehen soll erschließt sich mir nicht ganz. geht haufen leistung für paar spiegelungen flöten. brauch ich nicht.
In so einen Fall reicht PS3-Grafikqualität dann wohl völlig aus.
Ich müsste es mir in Cyberpunkt noch einmal gezielt angucken, aber in der Regel ist die Zahl der Leucht-/Schattenquellen nicht hart limitiert. Ein Designer kann die Level zwar entworfen, dass rund "10" Lichtquellen dynamisch berechnet werden müssen. Aber wenn du dich so stellst, dass davon nur fünf in deinem Blickfeld sind, bleibt es bei diesen fünf – es werden nicht die weniger wichtigen, welche zuvor nur über Lightmaps simuliert wurden, zusätzlich geraytrayced. Genauso wenig kann man die präzise Berechnung für einzelne Lichtquellen plötzlich abschalten, wenn du eine Framerate-killende Perspektive finden, aus der 15 zu sehen sind. Wenn heute ein Schatten aufploppt, liegt das also nicht an einem harten Limit berechneter Lichtquellen, sondern nur an der Position dieser einen. Vermutlich war sie zuvor zu weit weg oder abseits der Sichtachse und wurde komplett ignoriert – nach einer Bewegung ploppt sie dann plötzlich ins Spiel. Das wird mit 100 der GPU zugemuteten Lichtquellen pro Szene vermutlich nicht besser, eventuell sogar schlimmer. Man könnte die Rechenzeit auch auf weit entfernte oder vermutlich gar nicht sichtbare Lichter verschwenden, dann könnten die natürlich nicht mehr ploppen. Aber man bekommt eindrucksvollere Preview-Screenshots, wenn man stattdessen mehr Lichtquellen innerhalb des Kernbereichs der Szene berücksichtigt. Also werden die Designer eher von fünfmal 10 potenziellen Ploppern in deiner Umgebung auf fünfmal 100 potenzielle Plopper aufrüsten.

Bei Raytrayced-Lichtquellen kamen zudem in allen bislang komplett damit arbeitenden Spielen Situationen hinzu, in der das Wirken des Denoisers klar erkennbar war. RTX-Titel erschummeln nämlich nicht nur zum Beispiel jeden zweiten Frame komplett mit FG und zusätzlich im ersten Pixel drei von vier Pixel mit DLSS Performance, selbst diese Pixel sind bei weitem nicht alle echtzeit-raytrayced. Ein wechselnder Anteil der Informationen wird temporal interpoliert, stammt also aus alten Frames, und wenn in denen zum Beispiel eine Lichtquelle fehlte, ist deren Schatten erst einmal unvollständig. Raff ich hatten vor kurzem in Half Life Raytrayced eine Stelle gefunden, da brauchte es bei circa 30-40 Fps knapp eine Sekunde, also mindestens 30 Frames, bis ein frisch aufgeploppter Schatten korrekt dargestellt wurde. Von UHD-Echtzeit-Vollbild-Berechnung, wie sie Rasterizer heute ermöglichen, ist Raytraycing viel weiter als "40 Prozent Mehrleistung" entfernt.
Wie ist die Aussage zu werten, dass mit Pathtracing den Schattenwurf von 1000 Lichtquelle plus deren indirekte Reflexionen zu gleich berechnen kann - ohne dass es ein großer Unterschied ist obs nun 100 oder 1000 Lichtquellen sind.

Dann dürften ja wenn 30 Lichtquellen zu sehen sind und 40 weitere sind zu weit weg... kein Problem sein, diese 40 werden dann einfach mit Pathtracing mitberechnet - ohne spürbaren Lesitungsverlust. - Wie diese Aussage zu verstehen ist, versteht man wohl erst - wenn man sich, dass dann wenns ausgerollt ist und funktioniert, anschaut.
Ach ne...... aber es sind zu wenige da, vermutlich aus Platzmangel zur GPU DIE Chipfläche. Daher Beschleunigerkarte.
Als die GPUs lernten 3DGrafik in Polygone unterteilt darzustellen, waren es am Anfang auch ziemlich wenige Polygone und von 1999 bis heute 2023 wurde es mit jeder Generation mehr, Technologien brauchen Zeit zu reifen...

Es gab auch damals jene die meinten die Polygongrafik mit vielen Ecken ist viel schlechter als die gut gereifte 2D Grafik, weil zu wenig Polygone da sind und 2DGrafik würde immer besser sein als 3D-Grafik und dieses neue Polygonzeug würde immer zuviel Leistung benötigen und 3D-Grafik würde sich nie durchsetzen ... heute ist 2D-Pixelbrei-Grafik so Redro wie Musik auf Tonbandkassette.

Pathtracing wird Rasterizing eines tages komplett ersetzt haben, so wie 3DGrafik die 2DGrafik ersetzt hat.
 
wurde es mit jeder Generation mehr, Technologien brauchen Zeit zu reifen...
Du verstehst nicht. es ist kein Platz dafür da auf der GPU DIE Fläche, die jetzt schon an den Größengrenzen angelangt sind was wirtschaftlich sind. Die RT Kerne auszulagern in einen eigenen RT Chip der dann enorm wachsen könnte macht Sinn.
 
40% würde heißen dass es auch auf meiner 4070ti in UWQHD sehr gut laufen wird, das wäre eigentlich absolut im Rahmen.
 
Was meinen Verdacht bestätigt, das wir wohl noch länger auf drauf warten dürfen bis das wirklich Salonfähig ist. Frame Generation klingt ja nicht schlecht aber wenn es auffällt das es alte Bilder sind ist die Technik dann auch nicht so überragend.

Von der Framequalität her ist FG eigentlich ganz okay. Man hat bei Fernsehern und auch professionellen Filmkonvertierungen für das Fernsehen sehr viel Erfahrung mit Zwischenbildberechnung und FG kann auf zahlreiche Informationen direkt aus der Engine zurückgreifen, um die Position diverser Elemente auf halber Strecke zu bestimmen. Für 30-statt-15-Fps würde ich es zwar nicht nehmen wollen, weil dann die Abstände zwischen den gerenderten Bildern sehr groß werden, aber 120-Fps-Flüssigkeit-statt-60-Fps-Flüssigkeit von der Grafikkarte berechnen zu lassen, anstatt die Bewegungsillusion dem eigenen Gehirn zu überlassen, funktioniert gut.

Was deutlich weniger Spaß macht: Wie alle Zwischenbildtechniken kostet FG Zeit und bring einiges an zusätzlicher Latenz. Die kann man sich meist weder bei niedrigen Frameraten erlauben noch wäre sie in Situationen mit High-Fps-Anforderung akzeptabel. Ich verstehe auch nicht, wieso Nvidia mehrere Jahre nach Asynchronous Space Warp keine nicht hinreichend fehlerfrei extrapolieren kann, um stattdessen eine Bildvorausberechnung anzubieten. Als sowas während des noch laufenden Kampfs zwischen Free- und G-Sync für VR-Headsets Standard wurde, hatte ich eigentlich gehofft, dass es mittelfristig Standard werden würde, Monitore mit Double-Buffer-Vsync anzusteuern und den Rest GPU-intern zu machen. Stattdessen haben wir Raytraycing bekommen.
 
Von UHD-Echtzeit-Vollbild-Berechnung, wie sie Rasterizer heute ermöglichen, ist Raytraycing viel weiter als "40 Prozent Mehrleistung" entfernt.
Nunja- Blöd nur, dass Rasterizer auf die gleich Tricks zurückgreifen, die zudem dafür dass sie schlecht gefaked sind, trotzdem einen haufen Rechenleistung kosten.

Von einer UHD-Echtzeit-Vollbild- Berechnung im Rasterizing brauchen wir bei keinem aktuellen AAA Titel sprechen.
Wir tauschen hier temporale und spatiale Fakes beim Rasterizing gegen temporale und spatiale Fakes beim Raytracing. Nur dass die beim Raytracing eben erheblich wenig fehleranfällig sind. Sie ghosten vielleicht nach, sind aber nie vollständig "weg".

Und wie bereits öfter in den Threads schon angesprochen. Ist beim Pathtracing erstmal der hohe Grundrechenaufwand performancetechnisch möglich, zieht der Pathtracer dem Rasterizer in Sachen Performance beim richtigen Beleuchten komplexer Szenen deutlich davon.

Der Fehler der oftmals von Usern begangen wird ist, diese zwei Rendermethoden direkt gegenüberzustellen. Und dann Schlüsse über Leistungsfähigkeit und Performance daraus abzuleiten.
Nur ist es einfach so, dass der Rasterizer eben Dinge erst garnicht sinnvoll berechnen kann, also ein Vergleich in ähnlicher Qualität garnicht erst möglich/zulässig ist.

Was nützt mir Performance, wenn der eingesetzte optische Effekt in ungünstigen Situationen glitcht oder gar ganz wegfällt? Das ist der Maximalgau an 100% Artefaktbildung und maximaler Immersionskiller.

Die Leut kaufen sich UHD Bildschirme mit 120 Hertz nur dass ihnen dann in Rasterszenarien das alles wieder genommen wird, weil man Tricks anwenden muss, um moderne Titel überhaupt in der optischen Qualität noch lauffähig zu halten.
Auch dort berechnet man oft nur jedes zweite Frame von diversen Effekten.
Auch dort wird kumuliert. Auch dort werden Effekte in niedrigerer interner Auflösung gerechnet.

Nur mal so meine Gedanken dazu...
wieso Nvidia mehrere Jahre nach Asynchronous Space Warp keine nicht hinreichend fehlerfrei extrapolieren kann, um stattdessen eine Bildvorausberechnung anzubieten
Das wird als nächstes kommen. bzw. wird die Tick bzw. Pollrate der Engine asynchron zur Bildgenerierung laufen und in die Position des generierten Bildes einfließen.
Dann ist der zusätzliche Lag bis zu einem Frame wieder genullt.
 
Zuletzt bearbeitet:
Nvidia versucht verzweifelt ihr Marketing Konstrukt RTX den Leuten schmackhaft zu machen und tut dies sehr geschickt, indem gezielt Einfluss auf Entwickler genommen wird, damit Spiele entsprechend "optimiert" werden und wie aus heiterem Himmel nur noch auf den teuren und stark beschnitten RTX Grafikkarten, welche natürlich zu Wucherpreisen verkauft werden, anständig laufen.

AMD hingegen hat die Zeichen der Zeit erkannt und ordnet Raytracing richtigerweise eine niedrigere Priorität zu, um sich auf das was am Ende des Tages für Gamer*innen zählt konzentrieren zu können: starke Rechenleistung im Rasterizing mit zukunftssicherer Ausstattung beim Speicher und Qualität der Ausstattung.
Die Kirsche on Top stellt dabei AMDs modernes Software Angebot dar.
 
Nvidia versucht verzweifelt ihr Marketing Konstrukt RTX den Leuten .... eschnitten RTX Grafikkarten, welche natürlich zu Wucherpreisen verkauft werden, anständig laufen.
Und manche User versuchen verzweifelt nach irgendwelchen Strohhalmen zu greifen, weil sie ihre Investition gefährdet sehen, weil sich der Innovationszyklus wieder beschleunigt.
Zudem versuchen sie sich Gebetsmühlenartig einzureden, dass das alles nur Marketing ist und sie nichts verpassen würden. Obwohl alle Anzeichen der AAA Softwarelandschaft bereits jetzt ein anderes Bild zeichnen.
Die Industrie und die Entwickler haben zudem die Weichen längst gestellt. Es gibt keine große Engine mehr, die nicht mit RTRT umgehen kann.

AMD hingegen hat die Zeichen der Zeit erkannt und ordnet Raytracing richtigerweise eine niedrigere Priorität zu,
...wenn Erkennen der Zeichen der Zeit ist, dass sie panisch hinter den Entwicklungsfortschritten hinterherhecheln und nach einer stärkeren Phase wieder User an den Konkurrenten verlieren, dann hast Du wohl Recht.

um sich auf das was am Ende des Tages für Gamer zählt konzentrieren zu können: starke Rechenleistung im Rasterizing mit zukunftssicherer Ausstattung beim Speicher und Qualität der Ausstattung.
Wenn deren volle Konzentration darin mündet den Konkurrenten in ihrer Paradedisziplin dannn nicht schlagen zu können, dann sollte man sich aber langsam mal wichtige Fragen stellen...

Die Kirsche on Top stellt dabei AMDs modernes Software Angebot dar.
Softwaretechnisch sieht AMD leider seit Jahren kein Land mehr, was gerade zum Problem im professionellen Umfeld wird.

AMD muss grad wirklich auf Zack bleiben, um nicht über Generationen hinweg abgehängt zu bleiben. Ich drück ihnen die Daumen, einen zweiten Ryzen- Moment zu schaffen.
 
Zuletzt bearbeitet:
CP wird auch mit der rtx 7090 nicht geil laufen. Das spiel is beschissen optimiert, voller bugs und sieht optisch nich mal geil aus.
Ka wieso dieses schmutzgame jedesmal als Referenz rangezogen wird für iwelche tests ect.
 
Das hat nur wenig mit den totalen Absatzzahlen zu tun. Die Absatzzahlen der verkauften dedizierten Grafikkarten schwinden ja seit 15 Jahren.
Mag sein, aber nur mal so für Dich zur INFO. Früher hab ich jedes Jahr mindestens eine neue GraKa, des öfteren schon zwei, gekauft. Als es los ging mit 1259 € UVP (Custom bis 1400 €) mit der 2080Ti, war ich raus.
Evtl. könnte es auch daran liegen, dass noch der ein oder andere ähnlich handelt.
 
Du verstehst nicht. es ist kein Platz dafür da auf der GPU DIE Fläche, die jetzt schon an den Größengrenzen angelangt sind was wirtschaftlich sind. Die RT Kerne auszulagern in einen eigenen RT Chip der dann enorm wachsen könnte macht Sinn.
Das eigentliche Limit ist nicht das Die, zumal auch nVidia schon lange an Multi-Chip-Designs entwickelt, d. h. die hätte bei Bedarf gar eine elegante Möglichkeit, ohne gleich auf eine zusätzliche Karte ausweichen zu müssen. Das eigentliche Limit sind letzten Endes die Möglichkeiten, die ein entsprechender Fertigungsprozess bietet, die Entwicklungs-/Fertigungskosten und damit der notwendige Verkaufspreis und zudem der Verbrauch bzw. die unmittelbar damit zusammenhängende Abwärme. Du kannst dir ja mal versuchen auszumalen wie klein der Markt sein wird, wenn man den Kunden nun zwei 800 US$-Karten andrehen will und dieser sich zudem noch ein Gesamtsystem zusammenschrauben muss, dass bspw. 2x 300 W TBP handhaben können muss ... ich vergaß, wir sind hier im Enthusiastenforum, rechne mal eher bei nVidia mit 2x 1000 US$ und 2x 450 W. ;-)
Nach oben könnte man die Leistung immer skalieren nur ist das nichts, wofür der Markt insgesamt aktuell bereit wäre in nennenswertem Maße zu bezahlen und entsprechend würde sich der Entwicklungsaufwand nicht lohnen. Das Nach-oben-skalieren hätte bspw. AMD auch durchaus mit Navi 31 tun können, nur sahen sie dafür ebenso in ihrer Situation schlicht keinen nennenswerten Markt und dementsprechend hat man es dort unterlassen.
Mit dem nächsten Fertigungsprozess geht dann eine neue Runde einher mit noch mehr Transistoren und Funktionseinheiten pro Design, ob das nun nochmals ein monolitisches (bei nVidia) oder ein Multi-Chip-Design sein wird, spielt dabei erst mal keine Rolle, denn was hier wirtschaftlich ist, muss jeder Chiphersteller zu einem konkreten Zeitpunkt für sich selbst entscheiden.

Da die Top-GPUs jetzt schon mit moderen Upscaling-Technologien (und zukünftig Frame-Generation-Technologien) selbst bis hin zu 8K kommen, kann man vermuten, dass die mit zukünftigen Technologien bereitgestellten Fertigungsmöglichkeiten eher nicht dafür genutzt werden um die reine Rasterizer/ROP-Leistung noch übermäßig zu erhöhen, sondern dass die zusätzlichen Kapazitäten in den NextGen-Entwicklnugen eher für leistungssteigernde Maßnahmen im Raytracing und in untergeordneter Weise ggf. für ML genutzt werden. Wie genau bspw. nVidia letzteres gewichten wird, ist schwer einzuschätzen, da nVidia mit seiner besonderen Marktposition hier unterschiedliche Optionen und teils gegenläufige Prioritäten hat. Rein für den Consumer-Markt dürfte die ML-Leistung für die bekannten Inferencing-Workloads im Gaming wohl jetzt schon ausreichend groß sein (zumal man bei Bedarf gar noch auf INT8 ausweichen könnte), jedoch ist es für nVidia immer noch von Vorteil unified Designs für den professionellen und Consumer-Markt zu entwickeln, d. h. Design-Entscheidungen berücksichtigen hier zurzeit weiterhin auch, was der professionelle Markt benötigt.
Darüber hinaus gibt das nVidia auch die Möglichkeit die Marktdurchdringung entsprechender Technologie voranzutreiben, denn mittlerweile spielt schon ein relativ großer Anteil an Gamern auf RTX-Hardware, d. h. diese verfügen alle schon über dedizierte Raytracing- und im Falle von nVidia-HW auch über Tensor Core-Hardware *). Wäre dagegen die Funktionalität komplett ausgelagert, bspw. wie von dir angedacht auf eine optionale Karte, würde die Marktadaption deutlich langsamer vonstatten gehen ... mancher würde das vielleicht begrüßen, manch' anderer eher nicht. Letzten Endes gehen aber alle drei Hersteller den gleichen Weg in dieser Hinsicht und stellen ein kombiniertes Set an Features auf einem Produkt bereit und bieten hier eine Mischung/Gewichtung, die sie der Marktsituation entsprechend für angemessen erachten (oder was ihren derzeitigen Möglichkeiten entspricht) und the next big thing in Sachen Grafik ist nun einmal schlicht Raytracing. Ob das nun Hybrid-Rendering ist, wie es zurzeit aus Last- und Adaptions-/Vertriebsgründen überwiegend genutzt wird oder ob das Pathtracing ist, ist erst mal sekundär.

*) Die man nicht zwingend braucht, ein (nicht ganz freiwilliger) einfacherer, wenn auch weniger leistungsfähiger Ansatz wie bei AMD geht zweifellos auch, da die ML-Anforderungen im Consumer-Sektor nicht so hoch sind, zumal es hier primär um das Inferencing geht.
 
Zuletzt bearbeitet:
Zurück