Crytek demonstriert Raytracing mit Cryengine auf Radeon Vega 56

Dafür gibt's doch Garantie? Ist schade, dass das bei dir so war, aber ich hatte 2 4870 im Umfeld, die wie eine 1 gelaufen sind. Sicher, dass es an der GPU lag und nicht an irgendetwas Anderem? Oder... naja, halt ein Einzelfall war, der mit Nvidia hätte genau so auftreten können? Bei meiner GTX 970 ist auch alle Tage lang der Treiber abgeschmiert. Bei allen anderen GTX 970 war es aber nicht so. Ich hatte halt einfach Pech.
gRU?; cAPS

Ja ich bin mir sicher. Habe an den Einstellungen nix dran geändert. Davor war eine 8800 gtx drinnen gewesen. Laut test war die 10 % schlechter als die HD 4870 gewesen. Weil 768 vs 1024 eigentlich damals einen gewissen Unterschied ausmachte. AMD Grafikkarte reingesteckt. Grafiktreiber ganz samt Reste entfernt. AMD Grafiktreiber installiert. Dann neu gestartet. Spiel gestartet und dann kam es zu diesem Problem. Temp waren auch OK. Am Ende war etwas der gpu Kühler locker gewesen, gekühlt wurde sie aber dennoch ausreichend. Ist halt vorm Verkaufen halt ein wenig weggegangen vom gpu Chip. War mir aber dann schon egal weil ich es ja am Ende weggekriegt hatte.
was anderes ist mir allerdings nicht aufgefallen und an der Hardware habe ich sonst auch nix dran geändert. Darum kann es ja nur an der gpu liegen.
 
Es ist aber auch leider eine Tatsache, dass das letzte Mal, als es eine (High-End)-Radeon, mit einer GeForce vollumfänglich aufnehmen konnte, schon sehr, sehr lange her ist.;)
Naja, das eine ist die Hardware, das andere die Software.
Hardwaremäßig mag AMD hinterher hinken, bei der Anzahl der Software-Lösungen auch, aber der Treiber an sich und die GUI dazu...da kann NVidia sich nochmal ne Scheibe von abschneiden.
 
Ja ich bin mir sicher. Habe an den Einstellungen nix dran geändert. Davor war eine 8800 gtx drinnen gewesen. Laut test war die 10 % schlechter als die HD 4870 gewesen. Weil 768 vs 1024 eigentlich damals einen gewissen Unterschied ausmachte.
Wo war eine 8800 GTX denn schneller als eine HD 4870?:hmm:
Die kam anderthalb Jahre nach der GTX raus und hatte wesentlich mehr Shader, die kann im Schnitt umöglich irgendwo langsamer gewesen sein - schon die HD 4850 war i.d.R. schneller. 1024 x 768 machte damals überhaupt keinen Unterschied aus, weil in der Auflösung auch schon anno 2008 mit einer High-End (!) Karte eigenltich keine Sau mehr gespielt hat.:fresse:
 
Wo war eine 8800 GTX denn schneller als eine HD 4870?:hmm:
Die kam anderthalb Jahre nach der GTX raus und hatte wesentlich mehr Shader, die kann im Schnitt umöglich irgendwo langsamer gewesen sein - schon die HD 4850 war i.d.R. schneller. 1024 x 768 machte damals überhaupt keinen Unterschied aus, weil in der Auflösung auch schon anno 2008 mit einer High-End (!) Karte eigenltich keine Sau mehr gespielt hat.:fresse:

Du scheinst hier ne Aussage zu verdrehen. Schrieb doch das die 8800 gtx 10 % schlechter ist als ne 4870. Also wenn du das so nicht verstehst dann halt so. Die HD 4870 war eigentlich 10 % besser als ne 8800 gtx in vielen Tests. Jedoch bei mir eben nicht. Wären diese wenig fps und hänger nicht gewesen, dann wäre sie wahrlich besser gewesen. Sogar bei noch älteren Spielen machte due HD 4870 Problem. Es fühlte sich trotz genügend fps einfach nicht richtig rund an. Das Spiel gotcha ist von 2004 bzw 2003. Die Grafikkarte von 2009. Sollte ja mehr als dicke reichen. War aber nicht so. Selbst half-live fühlte sich nicht flüssig an. Bei einem Spiel OK, aber bei mehreren. Dann ist doch klar das was mit der gpu nicht stimmt. Und wenn man dann 20 Jahre alte Spiele noch immer ruckeln, dann wird es jedem noob klar, daß das nicht normal ist
 
Das ist aber wenn dann ein Treiberproblem gewesen.
Es gibt 'ne ganze Menge alte Spiele, die auf neuen Grafikkarten ruckeln oder unsachgemäß (mit Framedrops oder Bildfehlern) laufen.
Enter the Matrix z.B. kriegst du auch auf keiner GeForce, die neuer ist als eine FX, flüssig zum laufen.

Viele alte Radeons hatten ein Problem mit noch älteren OpenGL-Spielen. Meistens machte dann der Treiber Probelme, das ist einfach eine Optimierungssache.
Ich weiß auch aus eigener Erfahrung, dass die ATi-Treiber wirklich nicht die besten waren, die zickten gerne mal in mehreren Spielen, besonders ältere, rum. Mit den heutigen AMD-Treibern ist dies aber nicht zu vergleichen, noch dazu war das eine ganz andere Architektur, daher hinkt der Vergleich mit irgendwelchen 10 Jahre alten Grafikkarten und Treibern gewaltig. ;)
 
Gut OK, wenn mal die person die mir die AMD Grafikkarte geschickt hat, dann teste ich gerne nochmal. Habe noch immer die alten Spiele. Im Vergleich zu damals keine bzw kaum neue Spiele die dazu kamen. Spiele von 2009 und 2010 kann man ja die ich zu der Zeit wo ich diese eine AMD Grafikkarte hatte ja kaum ernst nehmen. Wenn ich sogar mit ner gtx 1050 ti und 1060 jedes Spiel auf 2560x1440 mit max setting und extremes kantenglättung einstellen kann. Dann schafft das auch viele AMD Grafikkarten wohl auch perfekt damit klar zu kommen.
 
Darauf erwartest du doch hier nicht ernsthaft ne Anwort oder :ugly:
BVH ähnelt eher einer binären Suche. Dafür sind dedizierte Cores sinnvoll.

Crytek beweisst komischerweise das es auch anders geht, ohne proprietärer Technologie, und das war mit PhysX und später GSync genauso.

Gaussmath hat insoweit Recht, wenn er meint das Speichern von Dreiecken zur Ermittlung der Strahlüberschneidung, wäre ein immer wieder kehrender Vorgang zum Polygontest.

BVH Implementierungen können die Anzahl der Aufrufe zur Ermittlung der Strahlschnittpunkte drastisch reduzieren, nur nicht besonders günstig, denn jeder Strahl muss noch mehrere Tests durchlaufen. Man spinne dieses weiter, wenn für jedes Pixel eine Anzahl von Strahlen benötigt wird. Den größten Rechenaufwand des BVHs machen die Polygone in einer Szene aus, die für Szene und Szene erstellt werden müssen, bevor das Raycasting beginnt. Es war Anliegen der Entwickler bei Implementierung in Engines, BVH Daten so zu modifizieren, um sie wiederverwenden zu können. Alles andere wäre bzgl. RTX zu langsam. Die RT Cores können daher beides relativ schnell, ob sie tatsächlich gebraucht werden, ist wieder eine andere Geschichte. Ich vermute RTX baut stark auf deren Rechenleistung auf, was ja nVidia typisch wäre um andere Mitbewerber auszuschließen.
 
Zurück