Nvidia Ampere: Eckdaten zur Geforce RTX 3070 (Ti) machen die Runde

Da geht umher, dass die Geforce RTX 3070 Ti so schnell wie eine RTX 2080 Super sein soll. Das wäre dann die berühmt-berüchtigte "indirekte Preissenkung von 700 auf 500 US-Dollar.
Wäre für mich schon eine riesen Enttäuschung! Wenn wieder nur 8GB VRam bei der RTX 3070 [Ti] verbaut und gerade mal die Leistung einer RTX 2080 erreicht wird. Ich kann mich noch daran erinnern, dass sich meine GTX 1070 von der Leistung her, mit der damaligen GTX 980Ti gemessen hat. Somit wäre eine RTX 3070 [Ti] für eine 4K Auflösung keine Option, denn diese dürfte dann wohl keine konstanten 60FPS erreichen.

Nvidia soll sich doch den Schmarren mit einer RTX 3070 Ti sparen, nur unwesentlich schneller und teurer, lasst das mit der Ti sein und gebt dafür 2GB mehr VRam, macht deutlich mehr Sinn. Nach einem oder anderthalb Jahren kommen dann sowieso wieder die gleichen Modelle, natürlich etwas teuer als Super Duper Version.

Und eine RTX 3070 [Ti] für etwas unter 500,00 Dollar glaube ich auch erst, wenn die Ampere Grafikkarte auf dem Markt verfügbar ist, in Deutschland also dann wieder deutlich über 500,00 Euro, wohl mehr irgendwo bei 600,00 Euro. Vielleicht haben wir dieses Jahr Glück und AMD bietet mit der Big Navi Serie ein echte Alternative, dann könnte sich im Preismarkt auch etwas bei Nvidia ändern. Also Abwarten und Tee trinken! :kaffee:
 
das uv/oc argument kannst dir sparen kann nvidia auch und pascal ist extrem effizient mit uv eine 1070 mit 100 watt die nichtmal langsamer ist als out of the box kann das vega auch ne die verbraucht selbst mit uv das doppelte und mehr.

Mir drängt sich der Verdacht auf, dass man sich bei Dir so einiges sparen kann (wie z.B. Fakten, Daten, Benches ...) bzgl. FPS/€ !
Verbrauch hab ich ja bereits erwähnt, dass dieser höher ist, was INTEL Jünger auch NICHT interessiert. Aber kauf Du Dir weiterhin Dein Stromsparwunder für 700 € + und gut ...

MfG Föhn.
 
Wäre für mich schon eine riesen Enttäuschung! Wenn wieder nur 8GB VRam bei der RTX 3070 [Ti] verbaut und gerade mal die Leistung einer RTX 2080 erreicht wird. Ich kann mich noch daran erinnern, dass sich meine GTX 1070 von der Leistung her, mit der damaligen GTX 980Ti gemessen hat. Somit wäre eine RTX 3070 [Ti] für eine 4K Auflösung keine Option, denn diese dürfte dann wohl keine konstanten 60FPS erreichen.

Nvidia soll sich doch den Schmarren mit einer RTX 3070 Ti sparen, nur unwesentlich schneller und teurer, lasst das mit der Ti sein und gebt dafür 2GB mehr VRam, macht deutlich mehr Sinn. Nach einem oder anderthalb Jahren kommen dann sowieso wieder die gleichen Modelle, natürlich etwas teuer als Super Duper Version.

Und eine RTX 3070 [Ti] für etwas unter 500,00 Dollar glaube ich auch erst, wenn die Ampere Grafikkarte auf dem Markt verfügbar ist, in Deutschland also dann wieder deutlich über 500,00 Euro, wohl mehr irgendwo bei 600,00 Euro. Vielleicht haben wir dieses Jahr Glück und AMD bietet mit der Big Navi Serie ein echte Alternative, dann könnte sich im Preismarkt auch etwas bei Nvidia ändern. Also Abwarten und Tee trinken! :kaffee:

Wenn du mehr RAM willst solltest du aufhören midend zu kaufen. Wozu braucht eine billige xx70 GPU mehr als 8gb vram? Bevor die voll sind hat die GPU ganz andere Probleme.
 
Ich habe eine Amd Cpu den im gegensatz zu den meisten hier ist mir die marke sowas von scheißegal. Ich kaufe das was besser ist ganz einfach. Das ist bei Gpus, Nvidia und zwar haushoch, bei Cpus würde ich gleichstand sagen aber da ich nur zocke und der rest ein 2 kerner auch könnte reicht mir ein 8 kernee locker ob amd oder intel wäre mir egal aber da das board um einiges billiger war ging ich mit Amd bei diesem Pc. Zen 3 geht ja auch noch drauf danach sehen wir mal wer besseres bietet.

Schon wieder glauben/schreiben leute hier, eine 3070ti wird nur so schnell wie eine 2080 super. DAS IST UNMÖGLICH. Mensch die denkfähigkeit einiger hier ist ja im mutterleib stehen geblieben.

Jemand der andere in ihrer "Denkfähigkeit" angreift und selbst wie ein 5. Klässler schreibt, so jemanden kann ich nicht ernst nehmen.
 
Tut mir leid am Handy so einen text zu verfassen auf PCGH mit den ganzen Scripts, Werbungen usw da flutscht halt gar nicht. Computerbase geht perfekt die sind wenigstens Modern.
s
Ach tut mir leid aber wer tatsächlich glaubt eine ominöse 3070 TI ist so schnell wie eine 2080 Super dem ist doch nicht mehr zu helfen und derjenige sollte statt über gps nachzudenken etwas anderes tun um den Mangel auszugleichen sogut es geht.

Oder hat es das schon mal gegeben das eine 70 Karte genauso so schnell ist wie die 70 Karte aus der vorgeneration? (allein diesn satz zu schreiben bereitet doch nur heftigstes kopfschütteln) aber genau das glauben hier ja manche anscheinend. Ausfürlicher damit es auch 5 Jährige verstehen anscheinend auch nötig aber kein Problem. Lets do it.

2070s ----> 2080s 10-15% Unterschied 12-13% um genau zu sein alles klar soweit?

ominöse 3070 ti = 2080s und wenn das die ti ist wo bleibt dann die 3070 frage ich mich sehr sehr schwer. also entweder die 3070 ist auf 2070 super level oder nur 5% langsamer als die 3070ti was sie keine 10% schneller macht als eine 2070s. Sorry aber wer glaubt das nvidia das so macht sollte sich einweisen lassen oder mit dem alkohol aufhören. Das wäre der inbegriff von stillstand.

Ich finde es viel schlimmer von vollendeten Tatsachen zu sprechen als zu meinen die 3070 wäre so schnell wie eine 2080.
 
Wo ziehst du das jetzt wieder her ? Glaubst du echt eine 3070 wird nur so schnell wie eine 2080? und der nächste ignorieren , dass kann doch niemand ersnt meinen. 2080 = 2070 super. antworte nicht werde es nicht lesen. ;) ab auf ignore. für den quatsch bin ich zu alt. wenn 87 dein gb. Jahr ist na dann gute nacht.

Wär schlimm wenn ne 3070 nicht die leistung einer 2080 non super hätte... Wobei ich mir das durchaus vorstellen kann.... Nvidia trau ichs schon zu das sie sagen: joaaa 10% mehr power aber leude dafür 40 mehr Rayracing Power... und das nur für 200€ mehr als der vorgänger :lol: :wall:
 
„Wir haben +300% Leistung.“ (in Raytracing)

Und dann zack, kaum Performancezugewinn bezüglich Rohleistung.
Traue ich Jensen zu.


Damit würde er aber bereits Raytracing mittels Primärbeschuss an die aktuelle Leistung der Rastertechnik anpassen. Sprich beide Techniken wären in ihrer Projektion auf den Screenspace gleich schnell. Das wär garnicht so schlecht.
Denn im Gegensatz zum Rastern kann er die Generation drauf bei RTRT wieder 300% Leistung drauflegen und schon verschwindet die Rastertechnik in der Versenkung....
Bzw. wird als Hybrid NACH dem Primärstrahlen- Tracing ausgeführt.
 
Damit würde er aber bereits Raytracing mittels Primärbeschuss an die aktuelle Leistung der Rastertechnik anpassen. Sprich beide Techniken wären in ihrer Projektion auf den Screenspace gleich schnell. Das wär garnicht so schlecht.
Denn im Gegensatz zum Rastern kann er die Generation drauf bei RTRT wieder 300% Leistung drauflegen und schon verschwindet die Rastertechnik in der Versenkung....
Bzw. wird als Hybrid NACH dem Primärstrahlen- Tracing ausgeführt.
Ich brauche aber Rohleistung für meine Nicht-RT-Spiele, also ALLE. :heul:
Die Spiele die ich zocke haben kein RT und auch kein DLSS, sondern die wollen SuperSampling auf 4K/5K oder mehr bei 80-144 FPS.

RT kann höchstens ein Bonus-Gimmick sein und es ersetzt nicht die herkömmliche Rechenleistung, die jeder benötigt.
Solange es Spiele gibt, die auf 4K/Ultra nicht mit 60FPS (eig mittlerweile eher ~120FPS) laufen, muss das die oberste Priorität sein.
 
Viele verschiedene Gerüchte...um wenige Karten. Aber die meisten Gerüchte sind weit weg von zubeginn komunizierter, enormer Leistungssteigerung. Das macht meine 1080Ti zu einem Dauerrenner.^^
AMD hat bei der als Prosumerkarte getarnten Gamingkarte Redeon 7 wenigstens schon mal 16GB installiert. Was mir Hoffnung macht das wenigstens die AMD modelle genug speicher bekommen.

Also wenn ich nicht wenigstens >60% auf meine 1080Ti drauf bekomme mit so um die 16GB Speicher für maximal 1000€ warte ich halt nochmal 2-3 Jahre mir doch egal. AMD, Intel, Nvidia, Banana-Computing, Chin-Chau Grafix...das is mir latte.
Spiele ich halt wieder 1080p mit mittleren Einstellungen ohne RT gedöns. Wie der Esel mit der Karotte an der Nase rumgeführt werden....Nö
Nvidia, so scheint es mir in letzter Zeit, hält sich beim Blick in den Spiegell für ein "must have" Untenehmen. Dabei haben Käufer die auf höhe der Zeit im High End kaufen wollen, nur einfach keine andere Wahl. Und so ist Nvidias Fahren mit Angezogener Handbremse immer noch der 1. Platz!

Schade das es keine 3-5 ähnlich starke Konkurenten gibt. Wenn der 1 nicht unter Druck steht gibt er nie alles, leider. um die 50% auf eine 2080Ti sollten beide großen Hersteller schaffen ansonsten wirds ne Lachnummer.
Wobei ich schätze das Nvidia einfach wieder 30% auf die 80Ti draufpackt für 1500 flocken und ihr ganzes Know How inclusive Platzbedarf an Ray Tracing verschwendet haben. So spart man auch Leistungsreserven für die 4000´er Modelle und muss sich nicht mehr groß anstengen um mindest Erwartungen zu erfüllen



Schade das ich das nicht glauben kann. jeder 2080Ti Käufer käme sich verar*cht vor^^ Aber dein Wort in Gottes Ohr:D:daumen:

Sind natürlich alles Spekulationen und ich könnte mächtig daneben liegen. Aber angeblich (!) sollen die neuen Grafikkarten nicht sonderlich teurer werden. Und die 16GB Vram bringen dir nicht viel. ne 3080TI macht sicherlich 50% aus.
 
Ich brauche aber Rohleistung für meine Nicht-RT-Spiele, also ALLE. :heul:
Die Spiele die ich zocke haben kein RT und auch kein DLSS, sondern die wollen SuperSampling auf 4K/5K oder mehr bei 80-144 FPS.

RT kann höchstens ein Bonus-Gimmick sein und es ersetzt nicht die herkömmliche Rechenleistung, die jeder benötigt.
Solange es Spiele gibt, die auf 4K/Ultra nicht mit 60FPS (eig mittlerweile eher ~120FPS) laufen, muss das die oberste Priorität sein.

Was spielst du bitet? XD
 
Sind natürlich alles Spekulationen und ich könnte mächtig daneben liegen. Aber angeblich (!) sollen die neuen Grafikkarten nicht sonderlich teurer werden. Und die 16GB Vram bringen dir nicht viel. ne 3080TI macht sicherlich 50% aus.

24GIB is auch gut wenn 16 nix bringen.:D 11GiB sind aufjedenfall in einigen (noch,wenigen)Titeln so ziemlich das Minimum, weil quasi oft nahzu voll! API´s wissen Heute schließlich genau wie viel VRAM du hast, und stellen sich darauf ein. Ähnlich wie bei 16GB RAM DDR4(respektive nur ca. 12 nutzbar). Wo so einige Titel auch gerne mehr nutzen wenn es Vorhanden ist. Über die sichtbare Nachteile von 16GiB zu 32GiB muss man 2020 aber wohl noch nicht unbedingt reden. Auch wenn man es in z.B. Final Fantasy auch schon sieht.

50% oben auf die 2080Ti drauf meinst du? Das wäre zwar Super vor allem bei deinem genannten Preis um 1000€ aber ich glaube, leider nicht...;)
Wenn ich an die vor Wochen spekulierten 70%+ glauben soll dann auch nur 40-50% Ray Tracing und 30% real nutzbare Rechenleistung. Ray Tracing ist ganz Nett..kann gut aussehen, aber mir geht Leistung vor Optik. Damit das anders wird müssten die Spiele Engines erstmal anders Funktionieren! Bisher ist Ray Tacing nur ein weiteres Makeup. Ich persöhnlich Besitze von 2012 um die 60 (Voll)Spiele am PC, davon 10 (AAA) jünger als 3 Jahre. Aber nur ein Spiel mit Ray Tracing "Shadow of the Tomb Raider" Die davor wollen wir mal einfach unter den Tisch fallen lassen^^!
Und bei SotTR macht Ray Tracing nicht son super Eindruck...

Nvidia Rechnet aber gern bei ihrem Leistungssteigerunge Ray Tracing mit rein, was angesichts des momentanen Spielemarktes und der Funktion der Engines sinnfrei ist.
Aber wie gesagt, wenn deine Prognose auf Rechenleistung bezogen stimmt wäre ich voll einverstanden.
 
Zuletzt bearbeitet:
Ich frage mich hier immer wieder, wie einige Leute verdrängen, wie jegliche Art von Technologiewechsel (auch am PC) bisher verlaufen ist.
Und auch deren Notwendigkeit für einen Startzeitpunkt und einer entsprechenden Enwtwicklungszeit in welcher alte und neue Techologie dann teils kompromissbehaftet koexistieren.

Das beginnt doch schon mit der Frage, wo wir technisch mit der Rastertechnologie stehen und welche Revolutionen, Evolutionen oder Geschwindigkeitszuwächse wir diesbezüglich noch zu erwarten haben.
Ich frage mich, wie man in der aktuellen Lage, in der der Nodeshrink immer aufwändiger wird, die Die- Größen immer weiter am Rande des Machbaren sind und die parallelisierungkurve der Rasterisierung immer weiter in
Richtung "diminishing returns" geht, weiter stoisch in seinem Kopf der festen Überzeugung ist, dass das Spielchen mit den großen Geschwindigkeitszuwächsen auf Rasterbasis immer so weiter gehen würde.

"Sollen DIE doch einfach ne neue Karte rausbringen, mit 60% mehr Rasterleistung, die zum Preis des Vorgängermodells oder günstiger auf den Markt kommt...."
Auf den Gedanken, dass weder Chipgrößentechnisch, noch takttechnisch noch Kernanzahlmäßig mit der Rasterisierung sowas in wirtschaftlich vernünftigem Rahmen umzusetzen ist kommt niemand.
Auch scheint bei vielen der Groschen noch nicht gefallen zu sein, WARUM die gesamte Industrie massiv in Richtung Raytracing drückt.

Die wollen Geld verdienen! Und das Wachstum ist mit Rasterisierung nicht mehr zu halten. Immer kleinere Sprünge für das gleiche oder mehr Geld. Oder unbezahlbare große Sprünge.
So oder so- Die Produkte und der Aufrüstungswille der Kundschaft würde immer mehr nachlassen und das Gemeckere und die Unzufriedenheit würde immer größer. Das istein Markt, der keine großen Zukunftsperspektiven in Sachen Wachtstum mehr bietet.

Was braucht man daher? Eine neue (in wirklichkeit sehr alte) Methode künstliche Bilder zu erzeugen, die sowohl dem Anspruch gerecht wird, eine höhere Qualität liefern zu können, als auch das Zeug dazu hat wieder ordentlich nach oben skalieren zu können.
Und so etwas gibt es, wie in jeder anderen technologischen Entwicklung nicht von heute auf morgen.

Völlig egal, wann man die neue Technologie auf den Markt wirft. Sie ist NIE zu 100% ausgereift, wie es viele hier fordern und zu Beginn stellt sie auch oftmals aus unterschiedlichen Gründen noch keinen gleichwertigen Ersatz zu jahrzehnte durchentwickelten Technologien dar.
Das ist und war schon immer so. Aber jetzt plötzlich herrscht diesbezüglich gerade beim Thema Raytracing eine Art "Massenamnesie" und man drischt auf die Technologie ein, weil nicht zu Beginn schon 2 Mio Softwaretitel verfügbar sind und man durch
Zuschalten der qualitätssteigernden Eigenschaften Performance einbüßt.
Es wird eine Empörung zur Schau getragen, die vermuten ließe, dass einige User zum Ersten mal mit Technologie und Marktmechanismen in Berührung gekommen wären und in ihrem Leben nie zuvor mit den Gegebenheiten technologischer Weiterentwicklung in Berührung gekommen sind.

Eine absurde Situation. Anstatt, dass man also im Eigeninteresse handelt und die neue Technologie unterstützt, da sie das Zeug dazu hat die eigenen Wünsche zu erfüllen (bessere Grafik, höhere Frameraten, bessere Preise), wird darauf eingedroschen, weil man JETZT noch nicht alles gleichzeitig davon haben kann. Die Hersteller wären es einem ja irgendwie verdammt nochmal schuldig, wenn man bei einigen Kommentaren mal zwischen den Zeilen liest.

Wenn die Menschheit bei jeder Innovation so reagiert hätte, würden wir jetzt noch in Höhlen leben.
 
Zuletzt bearbeitet:
Silizium steht bald am ende des machbaren an.
Ein par Stellschrauben hat man auch in Sachen Silizium noch- Aber man muss da eben realistisch bleiben, dass es kein "weiter so", wie man es von Anbeginn der Entwicklung gewohnt war, mehr geben wird.
Raytracing würde diese Hürde elegant umschiffen, weil man eben einen Flaschenhals beseitigt, der die Entwicklung von Karten in ein Dead- End manövriert.
Wie schon öfter geschrieben- Mit RTRT wären plötzlich wieder multi- GPU- Karten denkbar, ohne die Nachteile, die die Rasterisierung bei diesem Verfahren hat.

Man könnte auf billige Masse statt Klasse gehen... Einfach Kerne bis zum Abwinken draufpacken, die aber weder besonders viel können müssen, noch takttechnisch in die Höhe getrieben werden müssten.
In der Theorie würde bei Raytracing die Kernanzahl bis zur Anzahl der sichtbaren Pixel am Bildschirm skalieren.

Dass wir diesbezüglich WEIT davon entfernt sind, weil man eben nun im Augenblick erheblich kompromissbelastete Hardware auf den Markt werfen muss, liegt in der Natur der Sache.
Aber es ist gut, dass wir diesen Weg gehen, weil es technisch gesehen einfach sinnvoll ist, wenn man seinen Blick auch schon in die nähere Zukunft schweifen lässt...
 
Was spielst du bitte? XD
Na Spiele, die zwingend mit 72-144Hz laufen müssen und dank SuperSampling auf 4K+ Auflösung gerendert werden. Weißt du echt nicht wo das relevant ist? Mal über den Tellerrand gucken. :D DLSS, RT und 60Hz bringen einen hier nicht weit. Hier zählt nur Rohleistung.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mittlerweile kann man PC-VR ja auch kabellos genießen, wenn man das richtige Headset hat. :D
Ohne Kabel ist es wirklich richtig fett. :daumen:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
manche scheinen nicht zu verstehen das rasterizing unbegrenzt skalierbar ist weil linear

Das einzige was limitiert ist die cpu deren drawcalls immer größer wird.
Dagegen hilft software Entwicklung nur blöd das damit nur dann geld verdient wird. Wenn man was verkauft und das nicht zentral geforscht wird. jedes Studio für sich.
Wenig Kommunikation langsamer Fortschritt.

davon ab raytraycing ist alt die Technik und Konzept ist seit Jahrzehnten bekannt
das problem ist das raytraycing expotenzial ist
Mit jeden lichtstrahl muss eine getroffene oberfläche reflektiert eine neue drawcalls berechnet werden.
Das potenziert sich was bei imemr größer werdenen auflösung nicht mehr in rohleistung auffangen läst. da das ergebnis quasi unendlich ist.
Also begrenzt man die lichtstrahl anzahl und reflektion dessen
Also wird aus raytraycing pathtraycing (siehe quake 2 rtx demo)
das kann man nur so auch erreiche wenn es performant sein soll.
Aber wie im bsp ist man bei der Auflösung der texturen auf SD beschränkt HD ist da schon mehr wunsch als machbar
FHD geht schlicht nicht.
Daher gibt es ja auch den hybriden DXR der raytraycing mit rasterizing verbindet.
Ud ist auch derzeit die einzige möglichkeit diese technik einzusetzen.
ich sehe auch die Zukunft in dieser berechnungstechnik zusätzlich zu klassischen rasterbild
Weniger shader arbeit mehr dxr und Effekte.
Gpu haben shader für effekte, beleuchtung, schatten und pixel (rgb in 8 und 10bit) Darstellung.
tmu für die polygone (geometrie) und rop fürs raster sowie tensor für denoising und RT für die drawcalls an der cpu zu bündeln.
So fuinktioniert aktuell eine nvidia gpu
Wie amd das lösen will mit dxr ist unbekannt bzw man munkelt das die tmu diese Aufgabe übernehmen
Wie amd die drawcalls bündel will ist völlig unbekannt eventuell mitn arm chip. oder doch mit der cpu was wiederum sehr viel arbeit am treiber bedingt wird

Mn wird sehen. aber eine reine raytraycing Technologie wird es nie geben da einfach die Rechen-last unbegrenzt ansteigt.
 
manche scheinen nicht zu verstehen das rasterizing unbegrenzt skalierbar ist weil linear
das widerspricht technisch diesem hier:
Das einzige was limitiert ist die cpu deren drawcalls immer größer wird.
wo gibts dann das Limit in Deinen Augen, wieso verliert man beim Rastern technisch gesehen bei einer Verdoppelung der Kernzahl ab ca. 2000 zu 4000 schon 20%+ an Rechenleistung.
Warum scheut man sich bei modernen Grafikkarten, deutlich über die 5000 Cores zu gehen?
Man müsste ja nur 10.000 Cores einbauen und die Grafikkarten wären wieder doppelt so schnell?
Diminishing returns? Parallelisierung?

Dagegen hilft software Entwicklung nur blöd das damit nur dann geld verdient wird. Wenn man was verkauft und das nicht zentral geforscht wird. jedes Studio für sich.
Wenig Kommunikation langsamer Fortschritt.
Deswegen ist das worauf alle so schimpfen in wirklichkeit Gold wert. Die gesamten Forschungsergebnisse und Tests und Praxiserfahrungen, die seit Erscheinen der RTRT Karten stattgefunden haben, haben irre viel bewegt und großes Steigerungspotenzial aufgezeigt.
Allein, wenn man sich die Integration von Spiegelungen bei Battlefield V und Wolfenstein Youngblood ansieht, wird einem klar, dass man innerhalb eines Jahres mal locker durch Software eine Verdreifachung der Leistung von RTRT hingelegt hat.

davon ab raytraycing ist alt die Technik und Konzept ist seit Jahrzehnten bekannt
Ja

das problem ist das raytraycing expotenzial ist
Mit jeden lichtstrahl muss eine getroffene oberfläche reflektiert eine neue drawcalls berechnet werden.
Das potenziert sich was bei imemr größer werdenen auflösung nicht mehr in rohleistung auffangen läst. da das ergebnis quasi unendlich ist.
Also begrenzt man die lichtstrahl anzahl und reflektion dessen
Also wird aus raytraycing pathtraycing (siehe quake 2 rtx demo)
Da vermischst Du was. Das Problem von Raytracing ist die Auflösung. Je mehr Punkte ich primär auf den Bildschirm projeziere, umso mehr Strahlen muss ich zurückverfolgen.
Das Problem beim Rastern ist, dass es ab einem gewissen Komplexitätsgrad der Szene irgendwan unverhältnismäßig langsam wird, wo der Raytracer immernoch linear mit dem üblichen Zeitbudget einfach Bildpunkte abtastet.
Und die Szenen werden heutzutage nunmal eher aufwändiger als einfacher.

Hier Slide 10: https://userpages.uni-koblenz.de/~cg/ss08/seminarER/Echtzeit-Raytracing_slides.pdf
Ray Tracing:–hoher Basis-Rechenaufwand, aber –Komplexität O(log n) bezüglich Anzahl der Primivite,●Rasterisierung:–Weniger Rechenaufwand pro Primitiv, aber–hat hingegen (ohne Szenegraphen und Culling) Komplexität von O(n)●->Für sehr große Szenen lohnt sich Ray Tracing auch aus Performancegründen

---

Daher gibt es ja auch den hybriden DXR der raytraycing mit rasterizing verbindet.
Ud ist auch derzeit die einzige möglichkeit diese technik einzusetzen.
Eben genau nicht- Man entzieht dem primary ray renderer sehr viel Leistung durch den Hybrid Ansatz. Dieser muss aber rein aus Kompatibilitätsgründen weiter betrieben werden. Spiele müssen aufgrund des Verbreitungspotenzials immer primär fürs Rasterizing optimiert sein.

ich sehe auch die Zukunft in dieser berechnungstechnik zusätzlich zu klassischen rasterbild
Weniger shader arbeit mehr dxr und Effekte.
Ganz falscher Denkansatz, der sich leider in vielen Köpfen eingebrannt hat. Du stellst RT auf eine Stufe mit Effekten! Es ist eine andere Art, den errechneten Farbwert der Szene auf die 2d Ebene des Bildschirms zu übtertragen.

Gpu haben shader für effekte, beleuchtung, schatten und pixel (rgb in 8 und 10bit) Darstellung.
tmu für die polygone (geometrie) und rop fürs raster sowie tensor für denoising und RT für die drawcalls an der cpu zu bündeln.
So fuinktioniert aktuell eine nvidia gpu
Uff- Da wird so viel in einen Topf geworfen...

Erstmal die Definition von Shader- Meint man den Prozessor oder den Code.

Die TMU ist mehr für das Bekleben von Polygonen mit Texturen zuständig, als für die Geometrie. Das wären eher die ehemaligen vertex- shader, die inzwischen in den allgemeinen "Cores" inkludiert sind. Früher gab es da eine fixed- function- Trennung.

Mit den Tensor- Cores kann man viel anstellen. Für was es aber in aktuellen Spiele- Titeln nicht genutzt wird, ist Denoising.

Und die RT Cores sind nicht für die Drawcalls zuständig, sondern für das BVH- Traversal inkl. übergabe des Intersection- Zustandes, der dann wiederum von den Shadern ausgewertet wird.
 
Zuletzt bearbeitet:
Zurück