Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

es wird immer elendiger, wie diese überteuerten RTX Karten ne angebliche Berechtigung finden sollen, um Leuten das Geld aus der Tasche zu ziehen...tragisch.. man kommt vor Lachen kaum noch in den Schlaf... was kommt als nächstes.. Schach mir RT? :D
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Kommentare sind immer wieder amüsant. Das Highlight aber natürlich irgendein realitätsfernes "halbgar"-Geschwafel. Lange nicht mehr so sehr unterhalten worden.

Zu Minecraft selbst: Falsches Spiel, dass sich Nvidia hier für den nächsten, noch lange imaginären RT-Support ausgesucht hat. Denn RT wird's logischerweise nicht mit der Java-Version geben. Fast schon überflüssig, da niemand freiwillig auf dem PC die W10-Version Java vorzieht. Wäre ja auch ziemlich dumm.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Wow ich seh dieses Video..... mit nem guten Shader sieht es fast gleich aus lol.
Das ist nicht falsch. Aber du musst halt folgendes bei der Technologie verstehen:
1) Um mit Rasterizing realistisches Licht samt Schatten hinzubekommen, brauchte es mehrere Techniken die überlappend angewandt werden. Je näher wir uns dem Fotorealismus nähern, desto mehr Techniken braucht es. Jede einzelne für sich ist meist nicht besonders rechenintensiv.
2) Raytracing ist ein simpler Algorithmus der von Haus aus Licht fast physikalisch korrekt berechnet jedoch viel Leistung benötigt

Der Aufwand den 1) Verursacht wird wie gesagt immer größer und wir befinden uns an enien Punkt, wo - damit beide gleich gut aussehen 1) fast schon genauso viel Rechenleistung benötigt wie 2). Und somit ist es jetzt ein sinnvoller Zeitpunkt es einzuführen.

Rastern ist halt über viele Jahre mit viel Geld weiterentwickelt worden. Raytracing gibts zwar schon ewig, aber da musste man nie in Echtzeit ran sondern hat einfach "rendern lassen" bzw. die Firmen die es schneller gebraucht haben (Pixar und Co) haben halt Supercomputer dafür bauen lassen.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Haben die Entwickler was geraucht?
Welcher Kiffer war da der Meinung, Spieler kaufen sich eine megateure Raytracingkarte für 400-1000 Euro, nur um dann ein 0815 Niemandsspiel damit zu daddeln?
Ist doch wohl totale Idiotie.
:wall: :rollen: :daumen2:

PS: ich habe kürzlich ein Jablinski Video mit/gegen einen angeblich bekannten Heini (ist mir schnurzegal was das für ein D-Promi ist) angeschaut.
Vom Gameplay her war das schon ein Tritt in die Weichteile.
Sandbox-Lego für Zurückgebliebene und Scheintote, sowie Grafik für Blinde, oder für solche, die es unbedingt werden wollen.
Und so etwas benötigt dringend ein Raytracing-Update? Krank, einfach nur krank. :nene:
Demnächst kommt noch Minesweeper in 3D und mit DX12 und RTX-Support, oder wie?
Dann wechsel ich zu Linux... :ugly:
Wie schon erwähnt, ich spiele Minecraft nicht. Aber es ist sicher kein Niemandsspiel. Der große Trend - so dachte ich - ist vorbei. Aber Minecraft erlebt derzeit wie es scheint wieder ein großes Comeback. Es is ein Spiel, das auch in 10 Jahren wohl noch von Millionen gespielt wird. Und dann ist man wohl froh, dass der Schritt gemacht wurde.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Nein die setzen sich mit AMD zusammen und AMD entwickelt mit denen nach Ihren wünschen, deswegen heisst es ja auch Costum Gpu... und du meinst die specs der Konsolen steht erst seid diesem Jahr fest, bzw. Das die auch RT können, würde sagen sowas steht seit mindestens 2 Jahren fest......
Klar eine Custom GPU.
Aber da stehen wohl kaum Technologien drinnen, die AMD völlig neu entwickeln muss. Allgemein steht in der Ausschreibung eher drin: Kosten und Performance, Tools etc.
AMD war die logische Wahl, allein schon wegen dem Preis und der Abwärtskompatibilität.
Ob exakt welche Features drin standen, lässt sich nicht sagen. Dass AMD Raytracing NUR wegen Microsoft und Sony plötzlich mit vielen Leuten beforscht und entwickelt, wo die Leute woanders viel dringender benötigt werden steht zu bezweifeln. Eher ist das ganz einfach so gewesen - wie bislang auch bei den Custom APUs von AMD - dass Microsoft und Sony auf einer APU auswählen, die AMD ihnen anbietet. Bestehend aus Teilen, die schon in Entwicklung waren.
Oder glaubst du Microsoft und Sony haben rein zufällig, so 30 Jahre nach der ersten Erwähnung von Raytracing zeitgleich die Idee gehabt, das brauchen sie für die nächsten Konsolen - so ganz unabhängig voneinander und ohne bei AMD nachzufragen ob das möglich ist? Schließlich kann da nicht jede Firma wild irgendwelche Features verlangen, das geht bei der AMD Manpower nicht. Lol hast du dir das echt so vorgestellt?

AMD hat eine Technologiepipeline, Microsoft und Sony können sich aus den bestehenden Teilen was - grob gesagt - "zusammenstöpseln lassen"..

Dass die bei AMD einfach springen und Features entwickeln, die vorher nicht angedacht oder angestoßen waren, glaubst du hoffentlich selbst nicht.

Was ist also plausibler? AMD arbeitet seit bekannt ist, dass Nvidia Raytracing in ihre Hardware implementieren wird (ca 2016/17) an einer eigenen Lösung, damit man nicht schon wieder Jahre hinterherhinkt im Markt oder MS und Sony sind zufällig Zeitgleich vor ein paar Jahren auf die Idee gekommen - völlig unprovoziert und unabhängig - dass Raytracing in die Konsolen der Zukunft gehört... na was glaubst du ist realistischer?
Kann sein das NVIDIA schneller war wie AMD, aber zu behaupten ohne NVIDIA hätte AMD kein RT implementiert und damit die Konsolen auch kein RT halte ich für eine sehr gewagte Aussage...
Ob deren Implementierung was taugt kann glaub ich mit stand des heutigen wissen nur sehr wenige sagen u sicher keine die hier Posten
AMDs implementierung kenne ich noch nicht, von Nvidias implementierung bin ich auf technischer Seite schon sehr beeindruckt - wenngleich es natürlich Verbesserungspotential gibt.
Ich hatte das zweifelhafte Vergnügen als Projekt an der Uni 2006 einen GPGPU beschleunigten Raytracer zu entwickeln. Somit kenne ich mich - ohne mich weit aus dem Fenster lehnen zu wollen - wohl ein bisschen besser aus, als der Durchschnittsuser.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Haben die Entwickler was geraucht?
Welcher Kiffer war da der Meinung, Spieler kaufen sich eine megateure Raytracingkarte für 400-1000 Euro, nur um dann ein 0815 Niemandsspiel damit zu daddeln?
Ist doch wohl totale Idiotie.
:wall: :rollen: :daumen2:
Vor einem Getränkemarkt stehende Lastwagen werden auch so manchen Kiffer zu der Frage bringen, ob es denn nötig war sich zum Bier holen einen Lastwagen zu kaufen. :D
Herrlich, das hat hier manchmal was von einer Satire Sendung.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Minecraft lebt doch vom Gameplay, Inhalten und dem Spiel an sich, die Grafik ist doch eigentlich das Letzte was da wichtig ist. Warum zum Teufel muss da Raytracing rein? Das interessiert mich nicht einmal bei Grafikkrachern wie BFV.

Dito, lieber mal ein vernünftiges Texturepack passend zum Game ab Werk. :daumen:

Brauche den RT Kram nicht, dann lieber SEUS, der läuft genau so gut oder besser auf meiner 1080. ;)
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Kommentare sind immer wieder amüsant. Das Highlight aber natürlich irgendein realitätsfernes "halbgar"-Geschwafel. Lange nicht mehr so sehr unterhalten worden.
Ja, mit der roten Brille wollen das einige nicht wahr haben.

Zu Minecraft selbst: Falsches Spiel, dass sich Nvidia hier für den nächsten, noch lange imaginären RT-Support ausgesucht hat. Denn RT wird's logischerweise nicht mit der Java-Version geben. Fast schon überflüssig, da niemand freiwillig auf dem PC die W10-Version Java vorzieht. Wäre ja auch ziemlich dumm.
Warum? Die Bedrock-Edition ist weitaus besser wenn man nicht modded spielt - vielfach bessere Leistung.


Das die auch RT können, würde sagen sowas steht seit mindestens 2 Jahren fest......
Ach auch noch sowas als Tatsache ausgeben? XD

Ob deren Implementierung was taugt kann glaub ich mit stand des heutigen wissen nur sehr wenige sagen u sicher keine die hier Posten
Du kannst die Realität noch so sehr verneinen - die Tatsachen ändern sich nicht. Software-Lösungen für Raytracing gibts seit Jahrzenten zuhauf, allen gemeinsam ist das sie langsam sind. Aber hey - du kannst ja gerne weiterhin lügen was das zeug hällt - diejenigen die Lesen können fragen sich dann halt wie man so dermaßen ignorant sein kann.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Ja, mit der roten Brille wollen das einige nicht wahr haben.


Warum? Die Bedrock-Edition ist weitaus besser wenn man nicht modded spielt - vielfach bessere Leistung.



Ach auch noch sowas als Tatsache ausgeben? XD


Du kannst die Realität noch so sehr verneinen - die Tatsachen ändern sich nicht. Software-Lösungen für Raytracing gibts seit Jahrzenten zuhauf, allen gemeinsam ist das sie langsam sind. Aber hey - du kannst ja gerne weiterhin lügen was das zeug hällt - diejenigen die Lesen können fragen sich dann halt wie man so dermaßen ignorant sein kann.

Glaub eher du lügst da du gar nicht wissen kannst wie die Lösumg vom Amd sich schlägt....

Und ms und Sony setzen rt mir wegen druck von nvidia in ihren Konsolen ein, selten so gelacht.. so bin draussen.. bye bye
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Glaub eher du lügst da du gar nicht wissen kannst wie die Lösumg vom Amd sich schlägt....
Vermutlich beschissen, weil es sonst längst was von AMD geben würde. AMD hängt ja so schon in Sachen Performance hinterher. Wieso sollten sie NV bei RayTracing schlagen können?

Und ms und Sony setzen rt mir wegen druck von nvidia in ihren Konsolen ein, selten so gelacht.. so bin draussen.. bye bye
Weswegen sonst? Nvidia schmeißt Ray Tracing auf den Markt und nen Jahr später ziehen die Konsolen nach.
Kannst du nicht 1 und 1 zusammenzählen?
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Klar eine Custom GPU.
Aber da stehen wohl kaum Technologien drinnen, die AMD völlig neu entwickeln muss. Allgemein steht in der Ausschreibung eher drin: Kosten und Performance, Tools etc.
AMD war die logische Wahl, allein schon wegen dem Preis und der Abwärtskompatibilität.
Ob exakt welche Features drin standen, lässt sich nicht sagen. Dass AMD Raytracing NUR wegen Microsoft und Sony plötzlich mit vielen Leuten beforscht und entwickelt, wo die Leute woanders viel dringender benötigt werden steht zu bezweifeln. Eher ist das ganz einfach so gewesen - wie bislang auch bei den Custom APUs von AMD - dass Microsoft und Sony auf einer APU auswählen, die AMD ihnen anbietet. Bestehend aus Teilen, die schon in Entwicklung waren.
Oder glaubst du Microsoft und Sony haben rein zufällig, so 30 Jahre nach der ersten Erwähnung von Raytracing zeitgleich die Idee gehabt, das brauchen sie für die nächsten Konsolen - so ganz unabhängig voneinander und ohne bei AMD nachzufragen ob das möglich ist? Schließlich kann da nicht jede Firma wild irgendwelche Features verlangen, das geht bei der AMD Manpower nicht. Lol hast du dir das echt so vorgestellt?

AMD hat eine Technologiepipeline, Microsoft und Sony können sich aus den bestehenden Teilen was - grob gesagt - "zusammenstöpseln lassen"..

Dass die bei AMD einfach springen und Features entwickeln, die vorher nicht angedacht oder angestoßen waren, glaubst du hoffentlich selbst nicht.

Was ist also plausibler? AMD arbeitet seit bekannt ist, dass Nvidia Raytracing in ihre Hardware implementieren wird (ca 2016/17) an einer eigenen Lösung, damit man nicht schon wieder Jahre hinterherhinkt im Markt oder MS und Sony sind zufällig Zeitgleich vor ein paar Jahren auf die Idee gekommen - völlig unprovoziert und unabhängig - dass Raytracing in die Konsolen der Zukunft gehört... na was glaubst du ist realistischer?

AMDs implementierung kenne ich noch nicht, von Nvidias implementierung bin ich auf technischer Seite schon sehr beeindruckt - wenngleich es natürlich Verbesserungspotential gibt.
Ich hatte das zweifelhafte Vergnügen als Projekt an der Uni 2006 einen GPGPU beschleunigten Raytracer zu entwickeln. Somit kenne ich mich - ohne mich weit aus dem Fenster lehnen zu wollen - wohl ein bisschen besser aus, als der Durchschnittsuser.

Da bin ich absolut deiner Meinung. AMD werkelt seit mindestens zwei bis drei Jahren an RT. Nicht wie der eine behauptet erst seid NVIDIA die Karten auf den Markt gebracht hat. Amd hat MS und Sony gefragt, wollt ihr das Feature haben, die sagten ja. Die Specs der Konsolen sind seid mind. 2 Jahren ziemlich final.
Und wie man bei der derzeitigen Faktenlage behaupten kann AMDs RT ist halbgar und taugt nichts ist mir schleierhaft.. Ausser er hat einen Zugang zu Informationen die wir beide nicht haben .
Vor allem was ist eine Halbgare Lösung? Interessantes Word in Bezug auf Hardware Features
Man darf auch nicht vergessen, falls das Gerücht stimmt, das AMD bei der Navi Entwicklung eng mit Sony zusammengearbeitet hat
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Du kannst die Realität noch so sehr verneinen - die Tatsachen ändern sich nicht. Software-Lösungen für Raytracing gibts seit Jahrzenten zuhauf, allen gemeinsam ist das sie langsam sind. Aber hey - du kannst ja gerne weiterhin lügen was das zeug hällt - diejenigen die Lesen können fragen sich dann halt wie man so dermaßen ignorant sein kann.

Tja nur macht AMD sicher keine reine Software Lösung, das müsste dir auch klar sein, oder? Aber gut, behaupte immer weiter AMD macht eine Softwarelösung die nichts taugt, ich warte ab bis die Karten / Konsolen da sind und bilde mir dann meine Meinung wie die Lösung sich schlägt...

Komisch, wenn es eine Software Lösung ist, warum dann AMD die Hardware anpasst, interessant

Und wie gesagt, sag mal Microsoft und Sony das RT in Ihrer nächsten Konsolen Generation taugt nichts, müssen die übersehen haben...
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Da bin ich absolut deiner Meinung. AMD werkelt seit mindestens zwei bis drei Jahren an RT. Nicht wie der eine behauptet erst seid NVIDIA die Karten auf den Markt gebracht hat.
"Der eine" - cooler Titel. "The only one" wär noch besser. Aber um ehrlich zu sein: das war ich. AMD hatte bislang weder die Manpower noch das Budget um über RT nachzudenken, die sind in der Zeit gerade mit Fury fertig geworden und Vega war die nächste kommende Architektur. Und es war wohl intern schnell klar wieviel man hinter Nvidia ist. Man hat also damals sicher die Köpfe voll gehabt und nicht einfach überlegt: hmm wir brauchen schon jetzt 30% mehr Transistoren als die Konkurrenz bei gleicher Leistung, höherem Stromverbrauch (so toll die 5700 gelobt wird, das ist immer noch ein Problem), wir sollten uns überlegen wie wir noch weitere 30% der Chipfläche für anderes verwenden.

Es ist wohl eher so, dass man hart daran geforscht hat die eigenen Chips kleiner zu machen und rauszufinden, warum man beim traditionellen Rastern unterlegen ist, als dass man an Echtzeit-Raytracing - vor 4 Jahren absolute Zukunftsmusik - zu forschen.

Bevor dann auch ein Produkt rauskommt, werden eigentlich diverse Softwareprojekte "angeworfen" die eine Implementierung der Technologie möglich machen (das passiert nicht erst beim Launch). Also Spiele oder gar nur Techdemos - die haben über 1 Jahr vorlaufzeit.
Nvidias Bemühen in diese Richtung geht auf ca 2016 zurück und seither weiß eben auch AMD, dass Nvidia in diese Richtung arbeitet. Und ich kann dir sagen, dass zumindest mit uns am Institut AMD erst seit diesem Jahr über RT spricht. Also hat man wohl erst als Reaktion auf Nvidia über Echtzeit-Raytracing angefangen nachzudenken, und nicht parallel oder unabhängig. Auch, dass es nach der Ankündigung von RTX sehr schnell nachgeschobene Mitteilungen und Ankündigungen (bislang ohne gezeigtes) gab ist bezeichnend. Da herrscht etwas Panik

Amd hat MS und Sony gefragt, wollt ihr das Feature haben, die sagten ja. Die Specs der Konsolen sind seid mind. 2 Jahren ziemlich final.
Je nachdem was konkret jetzt als Specs gemeint ist, aber die ungefähre Technologie ist klar. Ausführungseinheiten vielleicht auch schon, aber natürlich noch nicht Takt und Co.

Und wie man bei der derzeitigen Faktenlage behaupten kann AMDs RT ist halbgar und taugt nichts ist mir schleierhaft.. Ausser er hat einen Zugang zu Informationen die wir beide nicht haben .
Ja das ist eine vermutung ins Blaue.
Ich gehe davon aus, dass AMDs Lösung (s. oben) etwas hastig erstellt wurde. Ich kenne auch noch keine Tensor Cores ähnliche Lösung von AMD (die es aber braucht, außer man hat was anderes gefunden). Hastig heißt bei RT aber nichts, wie gesagt ist der eigentliche Algorithmus von RT nichts besonderes. Bei der RTX ist das denoising der Schlüssel zur Leistung.
Es ist also noch viel möglich für AMD: eine Lösung ähnlich wie Nvidia, etwas völlig neues auf das ich grad dank "Tunnelblick" nicht komme, oder reine RT Einheiten ohne Denoising (das wäre wohl schade). Blöd wäre eine fast reine Softwarelösung mit wenige Tweaks in der Hardware -> Performance für die Tonne.
Wie gesagt sowohl AMDs als auch Nvidias Lösung muss mit Tricks arbeiten, um Rechenleistung zu sparen.
Ich hoffe auf eine Lösung, die ähnlich gut funktioniert oder gar besser wie die der RTX.

Was mir aber ebenso schleierhaft ist, ist das blöde Gerede von Chatstar, der irgendwie so tut, als wäre AMDs Lösung überlegen und "in Hardware" während Nvidias Lösung das irgendwie nicht sein soll. Wir haben also hier im Forum 2 sehr gegenteilige Meinungen zu einer AMD Hardware, die noch niemand offiziell gesehen hat ;)

Man darf auch nicht vergessen, falls das Gerücht stimmt, das AMD bei der Navi Entwicklung eng mit Sony zusammengearbeitet hat
Das ist kein Gerücht. Das ist aber irgendwie auch nichts besonderes. Wir reden von einem Milliardenprojekt, natürlich arbeitet man da zusammen.
Tja nur macht AMD sicher keine reine Software Lösung, das müsste dir auch klar sein, oder?

Auf AMDs Folien steht, RT in Hardware. Wir wissen nur nicht, was genau davon HW ist und wie es aussieht. Deshalb ist es sicher keine reine Softwarelösung, außer man betrachtet Shader als Hardwarelösung.
Aber man muss vorsichtig sein. RT in HW kann so enorm viel (oder wenig) bedeuten, dass ich mal lieber nicht in Euphorie ausbrechen würde. Absolutes bestcase Szenario ist, dass AMD eine Nvidiaähnliche Lösung zusammenstöpselt, eventuell mit ein paar weiteren Kniffen für die Performance damit das Ding auch tatsächlich nutzbar wurd auf Konsolen (fixed function units für gewisse use cases).
Worst Case sinds leicht angepasste Shader (mehr Cache f die zusätzlichen Lichtcä/Farbdaten). Auch das wäre ein "HW Lösung" per Definition, ist aber natürlich dann doch eher eine Softwarelösung.

Somit muss AMD erst zeigen was sie haben. Im Moment ist es also noch möglich, dass jeder von euch beiden recht hat
 
Zuletzt bearbeitet:
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

"



Je nachdem was konkret jetzt als Specs gemeint ist, aber die ungefähre Technologie ist klar. Ausführungseinheiten vielleicht auch schon, aber natürlich noch nicht Takt und Co.


Ja das ist eine vermutung ins Blaue.

Es ist also noch viel möglich für AMD: eine Lösung ähnlich wie Nvidia, etwas völlig neues auf das ich grad dank "Tunnelblick" nicht komme, oder reine RT Einheiten ohne Denoising (das wäre wohl schade). Blöd wäre eine fast reine Softwarelösung mit wenige Tweaks in der Hardware -> Performance für die Tonne.
Wie gesagt sowohl AMDs als auch Nvidias Lösung muss mit Tricks arbeiten, um Rechenleistung zu sparen.
Ich hoffe auf eine Lösung, die ähnlich gut funktioniert oder gar besser wie die der RTX.

Was mir aber ebenso schleierhaft ist, ist das blöde Gerede von Chatstar, der irgendwie so tut, als wäre AMDs Lösung überlegen und "in Hardware" während Nvidias Lösung das irgendwie nicht sein soll. Wir haben also hier im Forum 2 sehr gegenteilige Meinungen zu einer AMD Hardware, die noch niemand offiziell gesehen hat ;)

Ja mit fast fertigen Specs meine ich ja bis auf endgültige Taktrate und so sind die bei den Konsolen schon längst festgelegt, geht ja auch nicht anders, da Spieleentwickler nicht erst 4 Monate vorm Launch anfangen dafür Spiele zu entwickeln...

Ja, da sind wir uns einig, keiner kann sagen wie AMD RT Berechnungen lösen wird, kann katastrophal sein, kann mit Nvidia mithalten oder auch überholen...

Alles was man jetzt zur Leistung zu der Lösung sagt ist einfach nicht seriös, da wir keine Informationen haben...

Wenn man hier behauptet, das AMD das in Software berechnet und es wird grottenschlecht, ist das einfach nur geraten...

Wenn man sagt, die AMD Lösung wird viel besser als die von NVIDIA, ist das auch nur herbei fantasiert....

Einfach mal abwarten, werden sicher bald Informationen dazu kommen.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Und wie man bei der derzeitigen Faktenlage behaupten kann AMDs RT ist halbgar und taugt nichts ist mir schleierhaft.. Ausser er hat einen Zugang zu Informationen die wir beide nicht haben .
Ne,, das sind einfach Leute die LESEN können was dir anscheinen schwer fällt den AMDs Ansatz wurde bereits mehrmals verlinkt - es ist SOFTWARE Raytracing mit verbessertem Cache - Lass das mal 2mal schneller sein als reines Software Raytracing - wo landen wir dann? Richtig - bei Absolut nutzloser Leistung. Es gibt ja schon genügen Daten zu FireRays, slebst wenn der Cache das ganze jetzt zu 100% beschleunigt und man die Leistung einer Vega64 als vergleich nimmt - man landet dann bei der Raytracing-Leistung einer RTX 2060 - mit dem Unterschied das die Radeon damit auf 100% GPU-last fährt während bei den RTX ein großteil davon von dedizierter Hardware erledigt wird und die Shader idlen.

Tja nur macht AMD sicher keine reine Software Lösung, das müsste dir auch klar sein, oder?
habe ich schon verlinkt - Softwarlösung mit angepasstem Cache - das ist ihr "raytracing".

Aber danke das du nochmal so schön demonstrierst das due die Wahrheit nicht akzeptieren kannst.
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Muss mir den Link heut Abend mal ansehen, danach kann ichs besser beurteilen. Wäre schade wenn du recht hast (nicht deinetwegen sondern wegen der Entwicklung von RT in Spielen)
 
Zuletzt bearbeitet:
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

AMD hat Nvidia Killer angekündigt mit Raytracing in Hardware, das ist was anderes als diese lächerlichen Beipack-Kerne.

Wenn die Leistung für RT da ist, kann es von mir aus kommen, vorher nicht!

Aber wenn AMD dann auch Raytracing-Grafikarten ist es doch ganz gut, dass schon die Spielentwickler schon ein paar Jahre Erfahrung mit dem Raytracing-Zeugs gesammelt haben, denn dann kann es gleich voll losgehen (wenn AMd auch so weit ist) und man muss nicht wieder 3 Jahre warten bist die ersten Spiele dann auch diese Technik unterstützen. Deshalb ist es gut das Nvidia sich schon mal drum kümmert, dass die Technik bei den Spieleentwicklern ankommt,.. (alle werden davon profitieren)

Damit dann, auch so Spieler wie du, wenn sie dann auch mal eine RTX oder so was ähnliches kaufen, (weil die Leistung passt) auch gleich was Schönes zum Spielen haben. - Oder willst du wenn du dir eine Leistungsstarke Ray-Taciingkarte kaufst noch mal Jahre warten bis die Technik von irgendwem bei der Programmieung berücksichtigt wird. Ich denke du würdest dann laut weinen. Also...
 
AW: Minecraft: Mojang ersetzt "Super-Duper-Grafik" durch Raytracing mit Nvidia

Wo bleibt denn nun das Raytracing für Minecraft ? :huh:

Die Grafik könnte ruhig mal eine Aufwertung vertragen. :D Jetzt habe ich mir extra eine RTX 2080 zugelegt und vermutlich benötige dann wohl Ampere um Minecraft mit Raytracing nicht als Slideshow betrachten zu müssen.
 
Zurück