Eine günstige Alternative zu Raytracing gab es schon immer.
Es ging mir um den Preis.
Eine günstige Alternative zu Raytracing gab es schon immer.
Grundlegend werden wir vermutlich in Zukunft mehr von FP32 Berechnungseinheiten haben. Wenn ich es richtig verstehe sind viele Features der angekündigten Unreal Engine 5 wie zum Beispiel Nanite sehr FP32 Rechenintensiv.Mal ne Frage:
Es kommt doch sicher auf's Spiel, bzw. die Engine an, ob nun viele CU + wenig Takt,
oder wenig CU + viel Takt ein besseres Ergebnis liefern?
Das Spiel haben wir doch gerade bei PS5 vs. SX
Sofern ja, muss ein GPU Hersteller sich wohl entscheiden was sinniger ist und wo die Reise der Engines hin tendiert.
(Wobei auf "künftig geht das gut" zu setzen halt schlecht für den Start und somit auch Verkauf ist, dafür gut für Langzeitnutzer)
Also willst du eine Alternative zu RT-Cores haben? Die werden wir ja sicherlich bei AMD sehen. Die werden bestimmt nicht genau den gleichen Aufbau der dedizierten Hardware haben. Laut Microsoft scheint AMD auch nur die Ray-Intersection Abfragen zu beschleunigen und nicht die BVH Berechnung.Es ging mir um den Preis.
Also willst du eine Alternative zu RT-Cores haben? Die werden wir ja sicherlich bei AMD sehen. Die werden bestimmt nicht genau den gleichen Aufbau der dedizierten Hardware haben. Laut Microsoft scheint AMD auch nur die Ray-Intersection Abfragen zu beschleunigen und nicht die BVH Berechnung.
Wird nicht passieren. RT ist Bestandteil der CUs.Nein, ich merke gerade, dass ich im ersten Kommentar statt "ohne" ein "von" geschrieben habe.
Eigentlich meinte ich eine Grafikkarte ohne Raytracing Möglichkeiten, die dafür aber günstiger ist.
Jetzt verstehe ich was du meinst. Das wäre natürlich eine Interessante Idee. Aber da die dedizierte Hardware für Raytracing direkt in die Shader-Cores eingebaut ist (Zumindest gehen wir davon aus) würde man für eine Grafikkarte ohne Raytracing einen abgeänderte Grafikkartenarchitektur benötigen, wessen Entwicklung die Grafikkarte vermutlich teurer machen würde als wenn man einfach die dedizierte Hardware Unterstützung einfach drin lässt.Nein, ich merke gerade, dass ich im ersten Kommentar statt "ohne" ein "von" geschrieben habe.
Eigentlich meinte ich eine Grafikkarte ohne Raytracing Möglichkeiten, die dafür aber günstiger ist.
Ich weiß nicht, warum ihr hier über HBM rätselt.
Die Sachlage ist doch nun seit langem klar:
Sienna Cichlid ist Big Navi und bekommt GDDR6 Speicher und das recht wahrscheinlich mit einem 256Bit Interface. Alles andere ist Wunschdenken.
Die Frage ist nur, wie AMD gedenkt diesen Flaschenhals zu umgehen. Da steht halt Infinity Cache im Raum. Die Infos dazu verdichten sich ebenso.
Die 6900 XT wird mit max. 84 CUs kommen also 5.376 Shadern. Alle Hinweise zeigen auf 80 CUs also 5.120 Shadern. Das ganze wird dann bei um die 2.000 MHz im Boost-Takt laufen. Einige spekulieren sogar über 2.200+ MHz aber das wird vermutlich massiv an Leistung kosten und ordentlich gekühlt werden müssen.
Bei 32GB HBM2e und Shader die SMT-fähig sind (Wie auch immer das gehen soll) fang schonmal an die 2.000€ hinter dem Kamin herzuholenBislang sind das alles nur Gerüchte. Würde mich nicht wundern, wenn die Shader SMT-fähig und bis zu 32GiB HBM2e drauf verbaut wären.
Ich hoffe auf 80/84 CUs und 16/32GiB HBM2e auf der Platinengröße einer Fury. Dazu noch einen passenden Wasserkühler und ich bin glücklich. Dann kommt auf den X570 auch ein Wakü-Block und es herrscht endlich Ruhe.
Soviel teuer als der GDDR6X kann es auch nicht sein. und warum sollte SMT mehr kosten? Bei NV sind die FP32 Einheiten doppelt vorhanden und die 3080 kostet auch keine 2000€.Bei 32GB HBM2e und Shader die SMT-fähig sind (Wie auch immer das gehen soll) fang schonmal an die 2.000€ hinter dem Kamin herzuholen
Wird nicht passieren. RT ist Bestandteil der CUs.
Und du denkst wirklich, dass der ganze R&D Kram für die implementation von HBM2e in die RDNA2 Architektur so wie die Entwicklung von SMT für FP32 Berechnungseinheiten einfach so von AMD übernommen werden?Soviel teuer als der GDDR6X kann es auch nicht sein. und warum sollte SMT mehr kosten? Bei NV sind die FP32 Einheiten doppelt vorhanden und die 3080 kostet auch keine 2000€.
Hört bitte auf, auf HBM zu hoffen...
Das hier sollte eigentlich alles sagen.
Trotz der Schrauben!
Wenn der Hype Train jetzt schon wieder eskaliert wird nachher wieder nur gemosert.
Wenn die Karte so Grob im Bereich der 3080 liegt können wir echt glücklich und zufrieden sein, und vor allem wäre das dann mmn. immernoch ein sehr gelungenes GPU-Comeback von AMD.
Das Bild zeigt, dass die Chips weiter vom DIE weg liegen als es für HBM üblich ist. Dementsprechend ist die Wahrscheinlichkeit für HBM extrem gering.
Das Bild zeigt, dass die Chips weiter vom DIE weg liegen als es für HBM üblich ist. Dementsprechend ist die Wahrscheinlichkeit für HBM extrem gering.Das Bild zeigt eine Karte mit 256 Bit Speicherinterface, mehr nicht.
Ich weitere mich zu glauben, dass AMD derart bescheuert wäre, eine Big-Navi mit diesem Mini Si zu bringen.
Viel mehr Rechenleistung als bei der Bandbreitenlimitierten 5700xt aber das gleiche kleine Speicherinterface. Kein Cache das ausgleichen.
Diesmal denke ich das nicht.So wie ich AMD kenne wird die Karte ab Werk etwas enttäuschend sein und erst nach dem undervolt und der AMD Typischen Leistungssteigerung nach dem UV klasse sein. Sprich, der Verbrauch wird um 50W gesenkt, während die Performance um up to 10% erhöht wird. (so ungefähr) Vermutlich werden sich 3080 UV vs Big Navi UV nicht so viel nehmen.
Dazu würde allerdings nicht passen, dass der Aufkleber auf der Karte ganz klar "Typical Samsung 16GB" sagt.Ich halte das für eine kleinere RDNA2 Karte, die eben mit GDDR6 (vmtl. 8GB) auf einem 256 Bit Speicherinterface kommt und die 5700(xt) beerben wird.
Ist aber ein Dev-Board. Die sind immer anders als die finalen. Da sieht man ja auch viele Messpunkte undso dran.Die Karte ist auch volle Baulänge... also ich bin mir relativ sicher, dass wir hier Navi21 sehen.
Klar, ein paar Änderungen hier und da werden sie sicher noch vornehmen. Stiftleisten entfernen und dies und das...Ist aber ein Dev-Board. Die sind immer anders als die finalen. Da sieht man ja auch viele Messpunkte undso dran.
Wenn das so stimmt mit 220mm² dann hat die RX 6900Xt mehr Shader als bisher angenommen! Und da ist ja schon Raytracing mit drin! Ich glaube das gibt eine böse Überraschung für Nvidia! Würde rein spekulativ auf Leistung > 3090 hinauslaufen!
Mal ne Frage:
Es kommt doch sicher auf's Spiel, bzw. die Engine an, ob nun viele CU + wenig Takt,
oder wenig CU + viel Takt ein besseres Ergebnis liefern?
Das Spiel haben wir doch gerade bei PS5 vs. SX [...]