DARPA
Volt-Modder(in)
FalschaussageAMD hat keine extra Hardware-Einheiten für RT Berechnungen
FalschaussageAMD hat keine extra Hardware-Einheiten für RT Berechnungen
Ich freue mich auch schon wie ein Murmeltier auf den heiligen Gral aller APU's, möge auch der größte APU SkeptikerNa das macht doch schon ganz neugierig auf Strix Halo mit möglicherweise ~40CUs auf RDNA 3.5-Basis und der aufgebohrten KI-Einheit XDNA 2
Oder nimm von mir aus eine RTX 4070 (Ti).
Oder WQHD Auflösung.
Nope. RT läuft bei AMD über die Shader, bei Nv über dei RT CoresFalschaussage
Da wird nicht sinnlos gehyped. RT ist die Zukunft und bei Filmen schon lange Standard. Wer das nicht akzeptieren will ist nicht die hellste Kerze auf der Torte.
Ich empfehle die erstmal nen bisschen Know How anzulesen!!Nope. RT läuft bei AMD über die Shader, bei Nv über dei RT Cores
Ich hatte es zum Schluß "WQHD" geschrieben. Außerdem ist das Spiel wohl nicht gerade das beste Beispiel dafür.Anhang anzeigen 1448985
Das wird nicht besser und wie du siehst, liegt das nicht an RT
Dass die Grafikkarten so teuer sind, liegt aber nicht an RT, auch wenn dein Post es suggeriert.
Nein, sie wären nicht wesentlich günstiger, wenn es RT nicht geben würde.
Nvidia ist so teuer, weil sie konkurrenzlos sind und die Herstellung des Chips so teuer ist, aber die DIE Size wäre heute nicht geringer, würde es kein RT geben.
AMD hat keine extra Hardware-Einheiten für RT Berechnungen und ist trotzdem vergleichsweise teuer im Gegensatz zu früher. Sollte euch zu denken geben
Was?Eine RX 7900 XT ist im Rasterzing der 4080 ebenbürtg, ja der 4080.
Und nochmal, was?Während eine 7900 XT mit 799,- € zu Buche schlägt, ist es bei einer 4080
mal eben das Doppelte.
und wie löst AMD das? Über die schon vorhandenen Shader. Wie löst Nv das? Über extra dafür vorgesehene RT coresAMD hat keine Hardware-Einheiten für RT?
Wo hast Du denn den Quatsch her?
Sowohl DXR, als auch Vulkan werden zu 100 % unterstützt,
d.h. in Hardware.
Würdest du sagen die XT ist auch der XTX ebenbürtig?
Und nochmal, was?
Es ist halt der nächste große Schritt zu fotorealistischer Grafik, ohne RT gehts nicht.Hat mit Hater nix zu tun.
Es wird nur sinnlos gehyped..
Eine RTX 4070 ist weit davon High End zu sein.Seit 2 Grafikkartengenerationen hyped NVidia das und
RT ist immer noch nur mit High-End-Karten in hoher Auflösung nutzbar....
Die Mehrzahl der User finden" Nvidia in diesem Forum nicht gut und daher muss RT auch kritisch gesehen werden. War mit DLSS und auch FG 1:1 das gleiche.Niemand hasst RT, aber NVidia und die 50 Nutzer einer 4090 liegen
einem ständig damit in den Ohren...
Ich habe ja RT nicht als abwertendes "Suchspiel" von Effekten bezeichnet, geschweige denn überhaupt davon angefangen zu reden und Crysis mit Cyberpunk verglichen.Wir sind grad in einem Thread über eine sehr interessante APU von AMD
und es kommt RT.....
Wie man es nimmt. Die IGP nimmt sich wenig mit der aktuellen von Intel und die APUs sind sehr teuer.Also Respekt zu, wie immer, Top Ingenieurskunst von AMD.
Nvidia baut keine APUs und Intel kann das auch, ja. Vielleicht 20% langsamer, aber die können das auch.Yes, Cyberpunk ist immer noch State of the Art, wüsste nicht, das Intel/Nvidia
das mit einer APU könnten.
Hm... hast du schon mal etwas von Reglern gehört? Also Medium statt ultra?Mit Mittelklasse-Grafikkarten braucht man das dann gar nicht probieren.
Das ist quasi genau das was ich die ganze Zeit meinte.Eine RTX 4070 ist weit davon High End zu sein.
Alte Einsteiger Karten werden für RT nie genug Leistung haben, woher soll sie denn auch kommen?
Ist doch 1:1 genau das gleiche wie mit Rasterleistung, die kleinen Karten können das nicht flüssig auf Ultra, völlig egal mit welche Methodik angewandt wird.
Doch klar. Aber ich bin vom Maximum als Extrembeispiel ausgegangen.Hm... hast du schon mal etwas von Reglern gehört? Also Medium statt ultra?
Die 4080 ist wesentlich näher an der XTX als an der XTJa, in Anbetracht der Zahlen, sehe ich da schon eher eine Konkurrenzsituation zwischen den beiden Karten.
Rein auf Rasterizing betrachtet und darum ging es grade, RT außen vor genommen.
AMD widerspricht dir:Junge, das Thema ist nen bisschen komplexer.
Vielleicht solltest du meinem Post nochmal genau lesen und verinnerlichen. Raytracing besteht aus mehr als 1 Rechenschritt!AMD führt die intersection tets in den TMUs aus. Die haben keine dedizierten extra Einheiten.
Die RA Cores übernehmen aber nur einen Teil, die RT Cores alles. AMD hat die CUs nur aufgebohrt, Nvidia hat fixed functions dafür.Was sind die RA Cores bei RDNA2 und 3?
Ach fangen wir langsam an zu relativieren. Guck anAlso ja, Nvidia hat dedizierte HW für RT, AMD nicht wirklich.
und wie löst AMD das? Über die schon vorhandenen Shader. Wie löst Nv das? Über extra dafür vorgesehene RT cores
Die RA Cores übernehmen aber nur einen Teil, die RT Cores alles. AMD hat die CUs nur aufgebohrt, Nvidia hat fixed functions dafür.
Naja, relativ zur Gesamtleistung ist der Unterschied deutlich kleiner.Hat eine Mittelklasse-Grafikkarte die selbe RT Leistung wie eine Highend-Karte?
So wie es aussieht, hat AMD genau wie Nvidia eigene unterstützende Einheiten dafür und genau wie bei AMD sind die bei Nvidia über die Cluster verteilt. Bei Nvidia in den SMs, bei AMD in den CUs.Die RA Cores übernehmen aber nur einen Teil, die RT Cores alles. AMD hat die CUs nur aufgebohrt, Nvidia hat fixed functions dafür.
In dem Bild steht doch eindeutig Ray-Intersection-Test im RT-Core, oder? Die berechnen schon was.Was die RT Cores nun machen ist keine "Magic", sie "berechnen" nix.
Wir mögen hier keine Fakten!In dem Bild steht doch eindeutig Ray-Intersection-Test im RT-Core, oder? Die berechnen schon was.