Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

1) Ich hab nie behauptetn dass es "AMD Ray Tracing" ist - das ist deine Interpretation.

Real time Ray Tracing auf einer Vega 56.

Stimmt, reine Interpretation. Ist ja ganz klar zu lesen, dass du hier nicht von "AMD Ray Tracing" sprichst. :lol:

2) Crytek zeigt halt, dass mit DXR auch eine performant funktionierende Alternative zum Nvidia Weg gibt.

Naja es gibt eine nichtöffentliche selbstlaufende Demo auf der einen Seite und den Einsatz in Spielen auf der anderen Seite. Aufgezeigt wird auch nix, dass RT auch ohne spezielle Hardware berechnet werden kann war bekannt. Ebenso wenig zeigt die Demo irgendeine Möglichkeit die Leistungsfähig dieser Lösung einzuschätzen. Es läuft halt, mehr nicht.

3) RT Kerne helfen durchaus, ersetzen reine Rechenpower allerdings nur begrenzt, da sie nur bei einem kleinen Teil der Berechnungen zum Einsatz kommen (Für ein paar Profi Anwendungen klappt das ganz gut, bei Spielen eher weniger).

Ja, alles ist relativ sinnvoll... Überraschung....

4) Wie ich auch schon mehrfach geschrieben habe, halte ich RT generell für eine sehr schöne Technik - nur fehlt es bei allen Herstellern schlicht noch an der grundlegenden Rechenpower.

Sagt der Threadtitel nicht eigentlich genau das Gegenteil? Klar wäre noch mehr immer besser aber welche Karte kommt denn nur annähernd an 10.000 Shader heutzutage? (Oder bietet vergleichbare Leistung)
Wir reden hier ja schließlich immer noch über Consumer-Hardware, keinen Supercomputer der im Vakuum kurz vorm absoluten Nullpunkt in Bruchteilen einer Sekunde mehr Daten ausgibt als man aufzeichnen kann.

Ob man die RT-Core Leistung kleinreden kann, wenn herkömmliche Hardware mit vergleichbarer Leistung nicht existiert ist eben die Frage.
Vor allem was man daran gewinnt.
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Stimmt, reine Interpretation. Ist ja ganz klar zu lesen, dass du hier nicht von "AMD Ray Tracing" sprichst. :lol:

Da der Rest noch hanebüchener ist, hab ich mal gekürzt.

Inwiefern ist "Ray Tracing auf einer GPU" gleichbedeutend mit "Ray Tracing eines Herstellers"?


Jede GPU seit der allerersten kann Ray Tracing - nur eben nicht sonderlich schnell.
Nun wurde eine Methode demonstriert, wie es doch halbwegs performant ohne Spezialkerne geht... natürlich mit diversen Tricks.
Die Methode funktioniert aber auf ALLEN GPUs, nicht nur auf denen von AMD - sagt und betont Crytek sogar explizit.

Du bestehst doch immer darauf, dass die Leute lesen lernen... beherzige bitte deinen eigenen Ratschlag.

Und wie ich auch schon immer wieder sage: Keine einzige GPU hat aktuell genug Rechenpower, um RT komplett abzuwickeln.
Aktuell wird ja entweder Schatten, oder Licht, oder Reflexionen per RT gelöst... extrem selten mal 2 von 3.
Und wir haben pro Technik sogar exakt ein Spiel, welches diese demonstriert... Yay...

Die Neon Noir Demo auf einer RTX Karte laufen zu lassen wäre recht witzlos gewesen, weil es den Punkt nicht rüber bringt.
Und eine 1660 TI ist dann doch noch ein klein wenig schwächer, als eine Vega 56 - und hat für die Voxel basierte Technik womöglich zu wenig VRAM.
Die Technik ist ziemlich hungrig nach RAM und Bandbreite (Welche bei der 1660 TI über 192bit Bus dann doch etwas mager ausfällt).

Dazu kommt noch, dass die Pascal Karten offiziell EOL sind. Eine Demo mit einer 1080, oder 1070 wäre also auch witzlos.

So zeigt die Demo, dass eine Karte mit einer vergleichbaren Rechenleistung (oder eben mehr) ausreicht.
Allerdings sind damit RX590 und kleiner ebenfalls raus.
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Da der Rest noch hanebüchener ist, hab ich mal gekürzt.

Inwiefern ist "Ray Tracing auf einer GPU" gleichbedeutend mit "Ray Tracing eines Herstellers"?

Hörst du jetzt schon nach dem ersten Satz auf zu lesen oder wie?
Da steht dahinter. "Ist ja ganz klar zu lesen, dass du hier nicht von "AMD Ray Tracing" sprichst.
lolaway2.gif
" Zu schwer zu interpretieren?

Jede GPU seit der allerersten kann Ray Tracing - nur eben nicht sonderlich schnell.
Nun wurde eine Methode demonstriert, wie es doch halbwegs performant ohne Spezialkerne geht... natürlich mit diversen Tricks.

Wenn es angeblich seit der ersten GPU geht, weshalb braucht es da Tricks?
Woran oder Womit bestimmst du die Performance der Demo?
Steigt die Peformance, wenn ich im Player auf 2fache Abspielgeschwindigkeit stelle mit an?

Die Neon Noir Demo auf einer RTX Karte laufen zu lassen wäre recht witzlos gewesen, weil es den Punkt nicht rüber bringt.
Stimmt, eine Demo, die nicht von besonderen RT-Cores profitiert und dennoch Nvidia mehr Leistung bestätigen würde (!), wäre der erste Sargnagel für AMD. Naja Augen zu und bis zum Wundertreiber warten, ist ja auch ein Ausweg.

1:1 Benchmarkvergleiche scheut man bei AMD wie der Teufel das Weihwasser, lieber schafft man sich eigene Benchmarks, ob Ryzen, Mantle oder oder oder

Den Rest hab ich mal gekürzt, interessiert einfach keine Sau hier.


So zeigt die Demo, dass eine Karte mit einer vergleichbaren Rechenleistung (oder eben mehr) ausreicht.
Allerdings sind damit RX590 und kleiner ebenfalls raus.

Die Demo zeigt, dass eine Karte mit vergleichbarer Leistung für diese eine Demo ausreicht.
Gut das uns das nochmal jemand deutlich macht.
 
Zuletzt bearbeitet:
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Bin so gespannt, wenn Intel den dGPU Markt betritt.

Ab dann gibt es 3-dimensionale Diskussionen im Forum :D

Ja wobei ich bei Intel jetzt schon n paar Sachen Kritisch sehe.. unter anderen Treiberpflege.. umsonst stecken AMD und Nvidia nicht soviel arbeit in ihre Treiber.. Intel IGPU treiber sind doch sehr.. Rudimentär
auch haben sie sehr viel zum aufholen.. bis sie auf einem Level mit AMD/Nvidia sind wird es doch noch einiges an Zeit, Knowhow und Geld kosten.

Ich frage mich ob Intel nicht eventuell billiger fährt wenn sie einfach Nvidia aufkaufen würden
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Hörst du jetzt schon nach dem ersten Satz auf zu lesen oder wie?
Da steht dahinter. "Ist ja ganz klar zu lesen, dass du hier nicht von "AMD Ray Tracing" sprichst. :lol:" Zu schwer zu interpretieren?

Es ist nicht "AMD-Raytracing", da es weder von AMD konzipiert ist, noch auf AMD beschränkt ist. Es ist eine Techdemo von Crytek, welche auf AMD läuft, um den Punkt klar zu machen, dass es auf jeder halbwegs aktuellen Grafikkarte läuft. AMD ist da als Statement einfach besser geeignet, weil die offiziell kein RT anbieten.
Oder ist Super-Benzin, mit welchem ich meinen Golf betanke, jetzt plötzlich "Golf-Benzin", nur weil ich einen Golf damit betanken kann? Nö, es kommt weder von VW selbst, noch ist es auf einen Golf beschränkt, ich kann auch einen Astra damit volltanken oder was auch immer eben. Es ist höchstens Shell-Benzin, weil ich bei Shell aufgetankt habe.
Dieser Schlussfolgerung nach wurde nicht "AMD-Raytracing" gezeigt, sondern "Crytek Raytracing".

Wenn es angeblich seit der ersten GPU geht, weshalb braucht es da Tricks?
Woran oder Womit bestimmst du die Performance der Demo?
Steigt die Peformance, wenn ich im Player auf 2fache Abspielgeschwindigkeit stelle mit an?

Es braucht zwangsläufig tricks, weil direct lighting Raytracing zwar schnell ist, aber hinsichtlich der Beleuchtungsqualität schon lange von Rasterisierung überholt wurde und Unbiased Raytracing halt Performance ohne Ende braucht, welche sowohl AMD noch Nvidia für die Echtzeitberechnung aktuell zu keinem Zeitpunkt bereitstellen können. Nvidia kommt ja auch nicht ohne Tricksereien aus. Oder findest du, dass ein Raytracer, der 2 samples berechnet und einen KI-Filter raten lässt, "echtes Raytracing" (was das auch immer sein mag, aber es wurde hier ja schon häufig genannt) darstellt?

Die Demo zeigt, dass eine Karte mit vergleichbarer Leistung für diese eine Demo ausreicht.
Gut das uns das nochmal jemand deutlich macht.

Du hast den Punkt nicht verstanden. Die Vega 56 wurde genommen, weil
  • bei einer RTX 2xxx hätten die Zweifler gesagt "Ja sicher, klar läuft das ohne RT-Cores. Verarschen könnt ihr euch selber."
  • bei einer AMD-Karte ist dieser Punkt nochmal etwas stärker, weil AMD offiziell kein RT anbietet, aber es scheinbar trotzdem in Echtzeit geht.
  • Die Vega 56 vergleichsweise viel Rohleistung besitzt (ob das wirklich so ist, weiß ich nicht, wurde aber als Argument genannt)
  • eine RX-Karte wohl in Sachen Rechenleistung nicht ausreicht und mindestens eine Vega 56 gebraucht wurde, um die Demo so darzustellen.
Aus diesen Gründen wurde die Vega 56 genommen und das war der Punkt von Khabarak.
gRU?; cAPS
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Sorry, aber spätestens mit dem Satz bist du raus...
Egal ob Flame baiting, oder offensives Vorspielen von Unwissenheit.

Ich hab diese Äußerung nicht getroffen, sondern hinterfragt.
Jede GPU seit der allerersten kann Ray Tracing - nur eben nicht sonderlich schnell.
Nun wurde eine Methode demonstriert, wie es doch halbwegs performant ohne Spezialkerne geht... natürlich mit diversen Tricks.

Für mich sind das halt jetzt keine Tricks, wenn es seit der allerersten GPU geht und demnach bekannt ist.
Das du dich zum Rest nicht mehr äußern kannst ist nachvollziehbar, das Ding hast du argumentativ an die Wand gefahren.

Siehe:

So zeigt die Demo, dass eine Karte mit einer vergleichbaren Rechenleistung (oder eben mehr) ausreicht.

Denn das tut es eben nicht, es reicht für die Demo, mehr wissen wir nicht.

@cPT_cAPSLOCK: Ja gut dass du wieder da bist, legst du jetzt wieder den Bedarf für alle Mitleser fest?
Davor ist Raytracing für Spiele auch noch nicht relevant.

Ab wann denn nun?

Du hast den Punkt nicht verstanden.

keine Sorge, hab ich, die Vega 56 reicht um eine Demo ablaufen zu lassen. Mehr Informationen sind da nicht rauszuholen, das sag ich schon seit 3 Beiträgen in Folge. Einige würden eben gern mehr daraus ableiten, wird ja deutlich.

der Punkt von Khabarak war mir ein Video aufzuzwängen, das eine selbstlaufende Demo auf einer V56 zeigt, das ist ab Seite 2 nachvollziehbar.
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Man bedenke die Größe welche notwendig ist für solch eine sinnbefreite Grafikoption.
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Irgendwie kann ich das nicht ganz glauben, dass man so viele Pascal Shader benötigen würde. Ich denke da gibt es in Zukunft mehr als einen Weg, wie Echtzeit-Raytracing gerendert wird, ohne spezielle Kerne.

Das kommt daher, weil die Benchs immer in "Ultra-Einstellungen" gefahren werden...ein, zwei Stufen zurück, gerade was RT angeht, (denn Turing tut das mit der Auflösung/DLSS ja auch) und aus den 18 FPS, werden sicher 40-50 FPS...

mfg
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Ja wobei ich bei Intel jetzt schon n paar Sachen Kritisch sehe.. unter anderen Treiberpflege.. umsonst stecken AMD und Nvidia nicht soviel arbeit in ihre Treiber.. Intel IGPU treiber sind doch sehr.. Rudimentär
auch haben sie sehr viel zum aufholen.. bis sie auf einem Level mit AMD/Nvidia sind wird es doch noch einiges an Zeit, Knowhow und Geld kosten.

Intel Graphics hat in den letzten Monaten viel im Bereich Software investiert und aufgestockt. Z.B. wurde das UI erneuert, Kompatibilität und Update Häufigkeit sollen verbessert werden.
Außerdem sucht man aktiv Kontakt zur Community und holt sich Feedback, Verbesserungsvorschläge usw.

Das soll jetzt keine Werbung sein, aber in der Hinsicht darf man von der Vergangenheit nicht auf die Zukunft schließen :)
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Intel Graphics hat in den letzten Monaten viel im Bereich Software investiert und aufgestockt. Z.B. wurde das UI erneuert, Kompatibilität und Update Häufigkeit sollen verbessert werden.
Außerdem sucht man aktiv Kontakt zur Community und holt sich Feedback, Verbesserungsvorschläge usw.

Das soll jetzt keine Werbung sein, aber in der Hinsicht darf man von der Vergangenheit nicht auf die Zukunft schließen :)

Oh ich bin Tendenziell offen für eine Intel Grafikkarte, wenn sie denn entsprechende Bedingungen erfüllt in Sachen Preis/Leistung und User Ergonomie

Ich bin ja auch ein Freund ihrer Netzwerkkarten und da sind die Treiber top, umsonst hab ich nicht eine zusätzliche Intel Karte drin weil ich beim zocken auch durchaus unterschiede festgestellt habe für mich persönlich in sachen Hitdetection.
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

[...]
Ab wann denn nun?[...]

Naja, wenn es eine ordentliche Marktdurchdringung erreicht und von den Spieleentwicklern ohne größere Hindernisse in ihre Spiele eingebaut und von Usern ohne größere Einschränkungen verwendet werden kann. Aktuell ist es für alle drei Punkte noch etwas zu früh. Die Marktdurchdringung ist winzig (wenn man vom gesamten Gaming-Markt mit Konsolen und eventuell sogar Mobile ausgeht, brauchen wir gar nicht erst damit anfangen - auch wenn das den Kohl auch nicht mehr fett macht), Spieleentwickler werden wohl noch etwas brauchen, um flächendeckend DXR-Support in die Spiele einzubauen (die Implementierung wird sich für die meisten Entwickler aus wirtschaftlicher Sicht wohl nicht lohnen, auch im Hinblick dahingehend, dass man Zeit und Geld auch in Optimierungen stecken kann, die allen Nutzern zur Verfügung stehen) und die meisten Nutzer entscheiden sich trotz vorhandener Hardware trotzdem dagegen, weil der Performance Tax gerade einfach zu groß ist.
Wie unzureichend die Technik trotz allem ist, merkt man vor allem, wenn man sich mal anschaut, was RTX alles theoretisch kann und was es in Spielen tatsächlich macht. Im Kern ist RTX nämlich ein Unbiased Raytracer, der theoretisch erst mal so gut wie alles kann: Spiegelungen, Lichtbrechungen, Schattenwurf, Ambient Occlusion, Globale Beleuchtung und das alles auch diffus. Wenn man ein wenig mit Unbiased Raytracern gearbeitet hat, dann weiß man, dass es ein riesen Problem ist, die noise wegzubekommen. Für ein grobes Bild reichen 10 Samples/Pixel. Bei 50 Samples/Pixel weiß man in der Regel schon sehr deutlich, was berechnet wird. Bei 100 Samples/Pixel sieht man auch die Feinheiten sehr deutlich, hat aber immer noch das berühmt-berüchtigte RT-Bildrauschen und erst bei 1000 Samples/Pixel ist das Bildrauschen größtenteils weg. Das war schon lange ein Problem und der KI-Denoiser kann das ziemlich vernünftig lösen. Nur braucht man halt trotzdem erst mal 50 Samples/Pixel, damit der KI-Denoiser überhaupt mal anständig erkennen kann, was denn berechnet wird. Das war der Anwendungsfall, den Nvidia vorgestern gezeigt hat.
Für Spiele nimmt man zur Zeit einen der verfügbaren Effekte (alles andere wäre rechentechnisch kompletter overkill, selbst für die 2080 Ti), lässt den 10 ms lang ein paar Strahlen schießen, kommt mit ach und krach auf 2 Samples/Pixel und reicht das Ergebnis weiter an den KI-Denoiser und sagt "Das ist alles, was ich in der Zeit hinbekomme. Rate beim Rest einfach mal drauf los, das wird schon in etwa passen."
Ich will das jetzt nicht runter spielen, der KI-Denoiser ist schlichtweg genial. Aber um wirklich "wasserdichte" Ergebnisse zu bekommen, sollte man vielleicht auf 20 Samples/Pixel kommen - also 10-Fache Rechenleistung der RT-Cores - und dann hat man immernoch erst einen Effekt. Mit mehreren Häkchen an mehreren Effekten kommt man dann schnell nochmal bei Faktor 20-50 raus (die Zahl der Sekundärstrahlen explodiert gerne, wenn man viele Effekte berechnen lässt). Und vor diesem Berg stehen wir aktuell.
Für Pixar und Co. macht das erstmal keinen Unterschied. Wenn die die notwendige Strahlenanzahl dank dem KI-Denoiser um den Faktor 10 reduzieren können, ist das schon ein riesiger Unterschied für die.

[...]
keine Sorge, hab ich, die Vega 56 reicht um eine Demo ablaufen zu lassen. Mehr Informationen sind da nicht rauszuholen, das sag ich schon seit 3 Beiträgen in Folge. Einige würden eben gern mehr daraus ableiten, wird ja deutlich.

der Punkt von Khabarak war mir ein Video aufzuzwängen, das eine selbstlaufende Demo auf einer V56 zeigt, das ist ab Seite 2 nachvollziehbar.

Das Beeindruckende ist, dass es eine Vega 56 überhaupt schafft, die Demo flüssig darzustellen. Bei Spiegelungen auf Basis von rudimentärem RT auf GPUs sprechen wir in der Regel (ich rate jetzt bei der Szenenkomplexität mal ins Blaue) von Renderzeiten im ein- bis zweistelligen Sekundenbereich, nicht im zweistelligen Millisekundenbereich. Der Ansatz von Crytek ist sicherlich nicht ohne Probleme und auch sicherlich nicht so universell einsetzbar wie RTX, aber als Proof-of-Concept, dass man hinsichtlich der benötigten Zeit überhaupt mal in die richtige Größenordnung vordringen kann, ist das absolut beeindruckend.
Nebenbei: kannst du wirklich nicht diskutieren, ohne andere zu beleidigen? Ist das echt das Niveau, auf dem du dich bewegst?
gRU?; cAPS
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

Naja, wenn es eine ordentliche Marktdurchdringung erreicht und von den Spieleentwicklern ohne größere Hindernisse in ihre Spiele eingebaut und von Usern ohne größere Einschränkungen verwendet werden kann.....

tl:dr

Henne / Ei Paradoxon, mal wieder. Einer muss den ersten Schritt eben machen, liegt doch auf der Hand.
Man stelle sich mal vor da würde ein Spiel mit RT-Zwang released ohne kaufbare Hardware am Markt. Wenn es dann was gäbe, würde hier von Zwang und unmöglichen Entwicklern gesprochen, die bestimmt mit GPU Hersteller XY unter einer Decke stecken. Das wäre der Supergau für jedes Entwicklerstudio und außer Hello Games haben die Studios da draußen viel zu verlieren.
Unter Strich macht es aber 0 Unterschied ob erst Seitens Entwickler zu Investitionen in Millionenhöhe kommt oder der Normaluser einen Aufpreis für evtl bislang ungenutzte HW zahlt. Die Kosten würden in beiden Fällen an die Kunden weiter gereicht, dafür gibt es genügend Möglichkeiten.


Das Beeindruckende ist, dass es eine Vega 56 überhaupt schafft, die Demo flüssig darzustellen. Bei Spiegelungen auf Basis von rudimentärem RT auf GPUs sprechen wir in der Regel (ich rate jetzt bei der Szenenkomplexität mal ins Blaue) von Renderzeiten im ein- bis zweistelligen Sekundenbereich, nicht im zweistelligen Millisekundenbereich. Der Ansatz von Crytek ist sicherlich nicht ohne Probleme und auch sicherlich nicht so universell einsetzbar wie RTX, aber als Proof-of-Concept, dass man hinsichtlich der benötigten Zeit überhaupt mal in die richtige Größenordnung vordringen kann, ist das absolut beeindruckend.
Nebenbei: kannst du wirklich nicht diskutieren, ohne andere zu beleidigen? Ist das echt das Niveau, auf dem du dich bewegst?
gRU?; cAPS

Das Niveau scheint zu passen, es finden sich immer wieder neue Gesprächspartner.

Beeindruckend ist eher wie wenig ihr das Video hinterfragt, aber wie oft es für fragwürdige Aussagen herhalten muss. :nene:

Solang die Demo nicht zugänglich und von jedem 0815-Klaus gestartet werden kann, ist die Demo nicht mehr als ein Prototyp der genau auf sein Gegenpart zugeschnitten und angepasst wurde. Daraus lässt sich weder die benötigte, noch die aufgebrachte Rechenleistung ablesen.
Sondern nur das irgendwas, irgendwie dargestellt werden kann, eine Demo eben.
 
Zuletzt bearbeitet:
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

tl:dr

Henne / Ei Paradoxon, mal wieder. Einer muss den ersten Schritt eben machen, liegt doch auf der Hand.[...]
Das ist richtig. Nvidias Forschung daran ist gut und richtig und es wird ihnen im Markt, in dem viel Raytracing genutzt wird, beispielsweise bei Renderings für Werbung und Marketing sowie bei Animationsstudios (verdient) viel Geld einbringen. Gleichzeitig versucht man bei Nvidia aber halt auch, RTX mit Gewalt in den Spielemarkt zu drücken. Und wer weiß, vielleicht machen da ja andere Ansätze erstmal mehr Sinn?

[...]Das Niveau scheint zu passen, es finden sich immer wieder neue Gesprächspartner.[...]

Das ist ja mal eine Einstellung. Man haut so lange auf die anderen drauf, bis sie keine Lust mehr haben, auf diesem Niveau zu diskutieren. Am Ende kann man immer sagen, man hätte die Diskussion "gewonnen". Scheinst ja ein echt angenehmer Kerl zu sein. :schief:

[...]Beeindruckend ist eher wie wenig ihr das Video hinterfragt, aber wie oft es für fragwürdige Aussagen herhalten muss. :nene:

Solang die Demo nicht zugänglich und von jedem 0815-Klaus gestartet werden kann, ist die Demo nicht mehr als ein Prototyp der genau auf sein Gegenpart zugeschnitten und angepasst wurde. Daraus lässt sich weder die benötigte, noch die aufgebrachte Rechenleistung ablesen.
Sondern nur das irgendwas, irgendwie dargestellt werden kann, eine Demo eben.

Also die Annahmen, die ich treffe, ist dass die Entwickler dem Zuschauer nicht eiskalt ins Gesicht lügen, da hört es aber auch schon auf. Also sprich: die Demo läuft auf einer Vega 56 in Echtzeit (also sagen wir mal > 20 FPS und Full-HD, könnte ja auch upscaled sein) und alles, was nach Spiegelung aussieht, wurde auch geraytraced.
Möglicherweise ist dieser Ansatz erst mal der Sinnvollere. Genau kann das aber keiner sagen, da hast du Recht. Nvidia ist mit spezialisierten Recheneinheiten sicherlich schneller, aber auf der anderen Seite glaube ich auch nicht, dass RTX für Spiele (vorerst) den richtigen Weg darstellt.
War doch klar und verständlich, dass sich Nvidia jetzt Unkenrufe anhören muss, nachdem sie sich mit RTX quasi selbst zum Messias der Grafikberechnung hochstilisieren und jetzt ein Softwareentwickler um die Ecke kommt, bei dem das Feature genau so gut aussieht und der keine RT-Einheiten dafür braucht. Wie nah am Spiel das ganze ist, sei mal dahin gestellt.
Das ändert aber dennoch nichts daran, dass der Ansatz von Nvidia im Spielemarkt noch so gut wie keine Bedeutung findet. Mit einem anderen Ansatz geht es aber vielleicht, wer weiß?
gRU?; cAPS
 
AW: Nvidia: Hypothetischer "Monster Pascal" mit 14.080 Shadern für Raytracing ohne RT-Kerne

crytek zeigt damit das sie immer noch was aufn kasten haben. ebend mal raytracing auf amd machen. und nebenbei zeigen das nvidia einem einen bären aufbindet damit.:ugly:
mal abzuwarten wann es freie physx implementierungen auf amd gcn cores gäben tun wird. und ob per treiber diese rückwirkend wirkbar sind für alte games. um zu zeigen das amd's karten doch genug leistung hätten.
und mal gucken wann die jünger raffen son properiertärer standart alla gsync is käse. sie können halt nicht entscheiden wie viel geld einer bereit ist für technik auszugeben. 3d vision tot, physx unter opensource, gsync defacto wird zu freesync etc.:ugly:
und mal gucken wann die hpc leute merken, opencl is doch besser als cuda :-)

und nebenbei, es ist kein vega rt, es ist microsoft dxr.
Daran ist soviel flasch, inklusive Rechtschreibung, viel Spaß in deiner AMD Traumwelt, der OpenCL part ist am lustigsten :lol:, traurig das es in PCGH nur noch *zensiert* gibt ohne jegliche Mods.
Und natürlich ist es RT auf Vega, punktuelles, Schnittstelle ist wohl DXR wie von mir geschrieben.

Du bist putzig... Darf ich dich behalten?

Offenbar hast du dir Shortys Beiträge nicht durchgelesen und offenbar sehen wir hier zwei verschiedene Demos...
Shorty trifft schlicht eine vollkommen falsche Aussage mit einer dazu noch völlig falsch interpretierten und zitierten Quelle

1) Ich hab nie behauptetn dass es "AMD Ray Tracing" ist - das ist deine Interpretation.
2) Crytek zeigt halt, dass mit DXR auch eine performant funktionierende Alternative zum Nvidia Weg gibt.
3) RT Kerne helfen durchaus, ersetzen reine Rechenpower allerdings nur begrenzt, da sie nur bei einem kleinen Teil der Berechnungen zum Einsatz kommen (Für ein paar Profi Anwendungen klappt das ganz gut, bei Spielen eher weniger).
4) Wie ich auch schon mehrfach geschrieben habe, halte ich RT generell für eine sehr schöne Technik - nur fehlt es bei allen Herstellern schlicht noch an der grundlegenden Rechenpower.
Ach nein ?
Da hat jemand das Video am Ende des Artikels nicht gesehen und die Vorstellung von Echtzeit Ray Tracing in der Cryengine auf der GDC verpasst.
Völliger NonSens ;D. Crytek zeigt hier schlicht ihre Fähigkeiten, sollte jedem klar sein das RT in gewissen Szenarien funktioniert, auch mit 1080ti.

Dein Horizont ist allerdings zu beschränkt, daher hast du auch die einfachste Keynote aller Zeiten nicht verstanden, sonst würdest du nicht behaupten RT Cores hätten keine Rechenpower und der klassische Rechenweg würde bei RT irgendwann reichen :klatsch:.


INU-Edit: Achte mal etwas mehr auf deine Wortwahl!
 
Zuletzt bearbeitet von einem Moderator:
Zurück