Raytracing: AMD patentiert eigene Texturprozessor-Technologie

.... dass AMD - subjektiv - auf dem "richtigeren" (nicht dem einzig richtigen) Weg zu sein scheint - worauf das (allerdings für den konkreten Fall fälschlich) gepostete Video klarmacht, was damit gemeint ist, nämlich einen nicht proprietären Ansatz zu verfolgen.
...
Und falls (!) AMD es tatsächlich schaffen sollte, RT mit stinknormalen Shadern und softwareseitiger Unterstützung zu realisieren, würde zumindest ich das klar vorziehen, da es eine herstellerunabhängige Lösung wäre, die Entwicklern viel mehr Spielraum dafür lässt, das Ganze gut aussehen zu lassen und an der allgemeinen Performance zu feilen, statt an der Unterstützung von zwei oder gar drei (wenn Intel nachzieht) Plattformen herumbasteln zu müssen.

Vosicht- Da täuschst Dich. Schau Dir das Patent vollständig an.

Die verbauen hardwaretechnisch eine zusätzliche Station in der Pipeline der Textureinheiten, die da Speichernah und mit direktem Zugriff die Daten effektiv verarbeiten können.
Raytracing stellt nämlich große Herausforderungen an die Speicherbandbreite bzw. an den Transport innerhalb der involvierten Funktionseinheiten. Sie verlagern also das, was nvidia mit seinen RT Cores macht in Richtung Textureinheiten, die aber genauso fixed function Calls abarbeiten werden, wie es bei Lösung von nvidia geschieht. Sonst wär das auch wenig effektiv.
Auch, dass der Rest, also die Software- Seitige integration shadergestützt abläuft ist genau gleich der Lösung von nvidia.

Insofern halten die sich relativ genau an deren gemeinsam erarbeiteten Lösung bzw. den DXR vorgaben. Und deshalb gehe ich auch davon aus, dass diese Lösung durchaus leistungsfähig sein kann.

Ich gehe mal gefühlsmäßig davon aus dass AMDs Lösung weniger Diespace benötigen wird
Das Integrationsprinzip ähnelt dem Anschein nach stark dem der Tesselations- Einheiten. Insofern entstünde aber genausoviel "Leerstand" bei AMD, wenn diese Einheit innerhalb der TMUs ungenutz bleibt. ich bin echt gespannt, was bei AMDs Ideen dann rumkommt.

Dennoch- Allein die Patentierung zeigt ja, dass es proprietärer nicht mehr geht.
Und zwar so sehr, dass man das Prinzip zum Alleinstellungsmerkmal machen will, so dass bei Nutzung durch andere Lizenzgebüren nach sich gezogen werden.

Naja, die Vergangenheit zeigt eher, dass AMD überall kaum Ahnung hat, um ernsthaft eine Konkurrenz darzustellen. Und das sage ich als ehemaliger Roter.
Sei doch nicht gleich so resolut. AMD hat schon einige schöne und innovative Features in seine Grafikkarten integriert, die schlichtweg von den Entwicklern zum Verhungern verdammt wurden...
Nicht vergessen- Es gab Zeiten da hatte AMD in der Serversparte 60% Marktanteil. Opteron sei Dank.

Und ernsthafte Konkurrenz kommt jetzt aus dem Prozessorlager. Auch Grafikkartentechnisch gab es Zeiten, wo AMD die Konkurrenz ordentlich nass gemacht hat.

LG
Zero
 
Zuletzt bearbeitet:
Vosicht- Da täuschst Dich. Schau Dir das Patent vollständig an.
Die verbauen hardwaretechnisch eine zusätzliche Station in der Pipeline der Textureinheiten, die da Speichernah und mit direktem Zugriff die Daten effektiv verarbeiten können.

Das habe ich durchaus gelesen. Ich gehe nehme allerdings aufgrund AMDs des Umgangs mit solchen Entwicklungen in der Vergangenheit davon aus, dass die Technologie nicht proprietär (also herstellergebunden) sein wird, das sie jeder unkompliziert und kostengünstig in seine Hardware integrieren kann. Das Patent lässt keinen Rückschluss darauf zu, wie später die Lizenz aussieht.

Und bevor jetzt wieder aus bestimmten Ecken Vorwürfe kommen, AMD würde blauäugig in den höchsten Tönen gelobt werden: Mir ist schon klar, dass der Grund dahinter zumeist darin lag, dass AMD (und davor ATI) nicht die Marktmacht hatte, um den exklusiven Gebrauch solcher Technologien durchzusetzen, was sie sonst sicherlich getan hätten, und anderseits mit solchen Features um dringend benötigte Marktanteile buhlten. Aus Kundensicht ist die Intention allerdings unerheblich - was man hat, hat man.
 
Alles beim Alten. AMD ist schlecht, Nvidia besser. Also kauft alle Nvidia, dann wird alles gut. Dann gibt es nur noch einen Grafikkartenhersteller und die Preise purzeln was das Zeug hält. #Einfachmachen
 
Naja, vor knapp nem dreiviertel Jahr haben die Propagandastätten den Anschein erweckt, als habe Nvidia den heiligen Gral entdeckt. Mit magischen RT Kernen, welche die "Neue Zeit" in der Spielelandschaft einleuten werden. Was dabei herauskam war halt eine Beleuchtung.- oder Schattenmechanik, mit Spiegeleffekten. Ein "Wunder", von welchem 95% der Spieler nicht mal den Unterschied erkennen können.

Aber, es hat halt gereicht, um den Konsumidioten eine viel zu teure Generation von Grakas in den Freßnapf zu schmeißen und was ist passiert, es hat MONATE gebraucht, bis da hinterfragt wurde. Der Druck der Konsumenten hat aber anscheinend immer noch nicht zugenommen, da muß das dumme Vieh eben noch weiter ausgebeutet werden, so denkt man in den Finanzetagen von Nvidia und AMD, die formulieren das natürlich netter, daß sich keiner "offended" fühlt, das Ergebnis bleibt, irgendwie legitim!
 
Es sind keine 10%. Das sagt schon der gesunde Menschenverstand. Es sind irgendwas zwischen 20 und 30% - deshalb hab ich 25% gesagt.

Die großen Turings wurden in ihrer Die Fläche bei gleicher Shaderzahl extrem aufgeblasen, die kleinen hingegen nicht.

Die 2080Ti wächst gegenüber der 1080Ti shaderbereinigt um 40%.
Die 2070 wächst gegenüber der 1080 shaderbereinigt um 50%.
Die 1660Ti wächst gegenüber der 1060 shaderbereinigt gerademal um 20%.

Was unterscheidet die großen von den kleinen Turings? (Rhetorische Frage)

Weisst du, ein durchaus denkbares Szenario könnte die separate Weiterführung beider Techniken wie GSync/FreeSync werden.
Dann kommt also ein zusätzliches Adaptieren von AMD Technik weil es mehr Sinn macht hinzu.

Irgendwann dann, krallt sich NVidia die absolut "verschwendete" X-beliebige Grösse, spart sie ein oder gibt der Zukunftsgrafikkarte mehr HorsePower um ohne weitere Mühe in kommenden Benchmarks etwas zu zu legen (NVs Skalierung ist perfekt).
Also mit Einsparung und Erhöhen der Produktpreise, plus Einführung unnötiger Zwischen-Produkte um länger "un-inovativ" mehr Karten verkaufen zu können (rede von mehr als nur Refresh).

Ich habe echt nichts dagegen wenn jemand versucht was neues zu machen, im Gegenteil. Dresche gilt es auszuteilen wenn Versuche wie Dot3, N-Patches oder aktueller Vulkan/Mantel, FreeSync/VariableSync, Crytec`s od. Minecraft`s Ansatz von RT schlecht gemacht werden. Nein noch besser, wenn man dann am Ende doch noch jenes selbst anwendet.

...mal vorweg, G-sync ist auf dem Weg zu seinem Grab, das hat sogar NV jetzt begriffen. Tut mir wieder Leid für die die NV 250Kröten EXTRA in den Hals geworfen haben für Ihren Monitor. Wollten doch auch nur gamen :`-(
 
Zuletzt bearbeitet:
Naja, vor knapp nem dreiviertel Jahr haben die Propagandastätten den Anschein erweckt, als habe Nvidia den heiligen Gral entdeckt.
Polemik vom feinsten, geht das auch ohne? nvidia hat lediglich angekündigt, dass die von allen einvernehmlich als heiliger Gral bezeichnete Rendertechnik durch Hardwareunterstützung in brauchbare Nähe gerückt haben.

Mit magischen RT Kernen
Siehe oben, extrem schlechter Diskussionsstil.

, welche die "Neue Zeit" in der Spielelandschaft einleuten werden.
So kann man das durchaus bezeichnen.

Was dabei herauskam war halt eine Beleuchtung.- oder Schattenmechanik, mit Spiegeleffekten.
Nein- Es kommt eben eine akkurate Beleuchtungs- Schatten- Spiegelmechanik dabei raus.
Und zusätzlich die Möglichkeit in Zukunft die Spielumgebung interaktiver zu gestalten. Mehr Physik in die Level einzubauen, Spielmechaniken zu verwenden, die Zustandsänderungen von Licht herbeiführen oder diese nutzen.

Ein "Wunder", von welchem 95% der Spieler nicht mal den Unterschied erkennen können.
Alle Spieler sehen den Unterschied, wenn man die Ursprungstechnik der neuen Gegenüberstellt. Wer die nicht sieht hat Tomaten auf den Augen.
Wenn man ihnen dann Vergleichsbilder liefert, wird immer darauf verwiesen, dass das Ausnahmen seien.
Wenn man dann viele Vergleichsbilder mit deutlichem Unterschied liefert, kommt meist keine Antwort mehr zurück.
Ist auch klar- Denn sonst müsste man sein von Voreingenommenheit geprägtes Weltbild überdenken.

Aber, es hat halt gereicht, um den Konsumidioten
Polemik diesmal gleich mit Beleidigungen gemischt. Du sinkst immer tiefer....

eine viel zu teure Generation von Grakas in den Freßnapf zu schmeißen
stellst diejenigen, die sich das Produkt gekauft haben und vielleicht die Technik dahinter zu schätzen wissen jetzt schon auf die Stufe abhängiger Haustiere, die auf ihr Futter angewiesen sind.
Schlimmer gehts immer, oder?

und was ist passiert, es hat MONATE gebraucht, bis da hinterfragt wurde.
Das einzige was bei einer überlegenen Technik zu hinterfragen ist, ist wann diese so günstig angeboten werden kann, dass sie weitere Verbreitung erfährt.

Der Druck der Konsumenten hat aber anscheinend immer noch nicht zugenommen,
Offenbar sind sie mit dem Produkt im großen und ganzen zufrieden.

da muß das dumme Vieh eben noch weiter ausgebeutet werden,
Ein Konsument kann nicht zum Kauf eines Luxusproduktes gezwungen werden. Dein Diskussionsstil und Deine Beleidigungen die gegen die Käufer der Produkte gerichtet sind, sind wieder unter aller Sau.

so denkt man in den Finanzetagen von Nvidia und AMD, die formulieren das natürlich netter, daß sich keiner "offended" fühlt, das Ergebnis bleibt, irgendwie legitim!
Die Firmen sind einem NICHTS schuldig. Sie könnten auch einfach garkeine Innovationen bringen und dann das Spielchen so betreiben, wie Intel es mit den Prozessoren getan hat.
Immer schön 10% mit jeder Generation drauf und Ende. Genau das haben aber nvidia und amd inkl. Microsoft nicht gemacht und dafür sollte man auch mal Respekt zeigen.

Ansonsten muss ich anmerken, dass Du Dir mit diesem Beitrag selbst keinen Gefallen getan hast und er sollte Deiner Reputation als ernsthafter Diskussionpartner deutlich geschadet haben. Das Niveau Deines Vortrages ist einfach unterirdisch.
Eigentlich sollte man Dich für so eine Nummer mal für eine Woche vom Forumsbetrieb ausschliessen.

LG
Zero
 
Zuletzt bearbeitet:
AMD s Schwerpunkt lag tratsächlich auf der CPU Entwicklung (in den letzten Jahre). Es sollte kein Wunder sein, dass man mit weniger Geld nicht mehr erreichen kann!?

Zu behaupten AMD hat keine Ahnung, da finde ich keine treffenden "netten Worte" um darauf zu antworten.
Gerade wenn man, Gegenwind für eigene Inovationen (Mantel/DX12Unterstützung) bekommt. Oder dann Ideen von NV pupliziert (hier auch einen Applaus) aufgreift und andere Ansätze aufzeigen kann.

Beispiel:
G-Sync -> Freesync
RTX -> TextureprozessorTech.
...ist doch Genial! Sorry wer hat hier keine Ahnung? Der kleine Wicht in Rot tut mehr als Er können sollte mit seinen Ressourcen und das hat starken Applaus verdient.

Wenn wir auf jemanden runter schauen müssten wäre das Intel. Die Schlappe die die im GPU Bereich bieten und was die die ganze Zeit versprechen... sorry.
 
Zuletzt bearbeitet:
Niemand, wirklich niemand hat behauptet, Nvidia wäre auf dem falschen Weg.
Das ist schlicht unwahr, ein Beispiel:
Das ist doch ein Skandal Nvidia hat gelogen, man braucht die RT Kerne nicht!
Sogar von Lügen war aus gewissen Kreisen die Rede.

Auch wurde häufig behauptet, die NVIDIA-Implementierung wäre schlecht und AMD käme mit was viel Besserem um die Ecke. Hat sich nun ja auch erledigt, was AMD hier zeigt, liest sich zu 99% wie das, was auch NVIDIA in den RT-Cores implementiert hat.

Und falls (!) AMD es tatsächlich schaffen sollte, RT mit stinknormalen Shadern und softwareseitiger Unterstützung zu realisieren, würde zumindest ich das klar vorziehen, da es eine herstellerunabhängige Lösung wäre
Hä? Die RTX-Lösung ist genauso herstellerunabhängig, wie diese Lösung, beide werden schließlich über DXR realisiert.

Warum sollten zwei Implementierungen über die gleiche API einen unterschiedlichen Grad der unabhängig darstellen? Das müsstest du mal erläutern, für mich klingt das so, als hättest du etwas grundlegendes nicht verstanden.
 
@seahawk & gaussmath

Ich spiele in 1440p (144Hz & G-Sync) hauptsächlich den Multiplayer in Ultra. Bisher habe ich immer so 80-120 Fps (mein 2600X limitiert da leicht wird jedoch gegen Zen2 getauscht) und würde gerne hauptsächlich wegen Raytracing zur RTX umsteigen. Allerdings gefällt mir DLSS überhaupt nicht sodass ich wenn gerne nativ spielen möchte.
Der SP interessiert mich überhaupt nicht ^^

Desweiteren würde ich sonst später das neue Metro spielen (gerne in Maxed out).

Bin eben am grübeln was ich machen soll. Rein von der Rohleistung brauch ich die 2080ti eigentlich noch nicht. 2020 möchte ich aber dann auch auf 2160p und 120/144Hz aufrüsten.

Grüße und danke fürs Feedback :)

Multiplayer auf Ultra in BF5, ist imho schwierig, da man durch die schöneren Partikel- und Raucheffekte sowie die dichtere Vegetation mit erheblichen Nachteilen spielt.
 
Die Rede war einmal von einer "interessanteren Herangehensweise" und einmal davon, dass AMD - subjektiv - auf dem "richtigeren" (nicht dem einzig richtigen) Weg zu sein scheint - worauf das (allerdings für den konkreten Fall fälschlich) gepostete Video klarmacht, was damit gemeint ist, nämlich einen nicht proprietären Ansatz zu verfolgen.

Danke. :daumen: Wenigstens "einer", der seiner Muttersprache noch halbwegs mächtig ist, nicht nur liesst was er lesen will UND auch noch verstanden hat.

Das mit dem Video - ja, war mir halt tatsächlich nicht so wirklich klar. Deshalb ja auch mein "angenommen". Im übrigen habe ich es auch nur gepostet, damit man es sich auch in 4k ansehen kann. Der pcgh-player kann das ja nicht.
 
Zurück