Radeon-Chef David Wang: AMD wird auf DirectX Raytracing antworten

Solange sie 1080 Ti Leistung für ~400€ bringen, und Preisbewusste Spieler nicht in Schubkarren dem Jen das Geld zur Haustür bringen müssen wäre das ein echter Fortschritt.

Die Vega 64 müsste einfach nur in 7nm Billiger und etwas Sparsamer werden, dann passt das. Mal sehen wen sie dann für ihre 5 Minuten Terrine alias RTX 2080 begeistern können.
 
Solange sie 1080 Ti Leistung für ~400€ bringen, und Preisbewusste Spieler nicht in Schubkarren dem Jen das Geld zur Haustür bringen müssen wäre das ein echter Fortschritt.
Natürlich.
Mit 7nm kann man viel erwarten :)
Die Vega 64 müsste einfach nur in 7nm Billiger und etwas Sparsamer werden, dann passt das. Mal sehen wen sie dann für ihre 5 Minuten Terrine alias RTX 2080 begeistern können.
Naja AMD muss da wohl nochmal ordentlich neu Designen. Vega 20 (gut, hat mehr DP Einheiten etc) ist nämlich nicht gerade der große Wurf. Weder besonders schneller, noch sparsamer
 
Die Vega 64 müsste einfach nur in 7nm Billiger und etwas Sparsamer werden,

Und Pascal der eh schon wirtschaftlicher ist ,wird dann in 7nm teurer u stromhungriger damit die Milchmädchenrechnung aufgeht ?

Und das man mit Turing bereits nochmals dazugepackt hat, was Effizienz betrifft ist auch aus dem begrenzten Horizont entfleucht?

AMD müsste "einfach nur"... n kleines Wunder her in Form einer komplett neuen Architektur, aber gewiss nicht der oben beschriebene Shrink als simpler Problemlöser,.Denn dieser Shrink steht selbstredend Nvidia auch zur Verfügung, und die haben seit Pascal mehr bewegt was das eigentliche Chipdesign betrifft

Deine rote Instantsuppe hat das Haltbarkeitsdatum also schon weit überschritten, und kein 7nm 5 Sterne Koch wird daran was signifikant ändern, wenn sie nicht die verrottenden GCN Zutaten endlich mal austauschen
 
Zuletzt bearbeitet:
wie immer bei solchen Features - es geht zuallererst mal nur darum, das ganze in ausgewählten Szenarien zu bestaunen. Zu sehen "das ist die Zukunft".

Das ist jetzt wohl das höchste Maß an Sarkasmus überhaupt. Der Unterschied zu herkömmlichen Spiegelungen ist vielleicht mit einer Lupe sichtbar, wenn man sich gerade nicht bewegt.
Dafür verliert man so viele FPS, dass es selbst in 1080p eng wird. Und dann redest Du von „staunen“? Das, was wir bisher gesehen haben ist ein guter Witz, mehr nicht.
Da hat ja selbst VR mit diesen komischen Brillen um Universen mehr Potenzial.

Vielleicht schafft ein Quantencomputer ja in 20 Jahren Fullscreen-Raytracing mit „nur“ 20% FPS-Verlust. Das könnte manche dann tatsächlich dazu verleiten, es zu aktivieren, um Spiegelungen als kleinen Bonus ein wenig aufzupeppen.
 
Volta ist Nvidias erste GPU, die sich echte DX12 GPU schimpfen darf.
Die Architektur ist nett, aber maximal eine Generation vor AMD.
Abseits der Tensor Cores ist es nur die aufgeblasene Shaderzahl, die den Chip aus dem mickrigen einstelligen Performancezuwachs gegenüber Pascal herausbefördert.
Das Mehr an Shadern erkauft man sich mit einer größeren Chipfläche - das kann sogar Intel.
Noch mehr Chipfläche geht für ein Feature drauf, das derzeit niemand haben will, weil PC Spieler nicht so geil auf 30 fps sind - ganz besonders nicht die, die Nvidia mit 800 Euro GPUs anspricht. Beschissenste Marktanalyse, die ich je gesehen habe!

Was bleibt:
Nvidia kann Tensor Cores bauen, die bei partiellem Raytracing zusammenbrechen und hat eine KI entwickelt, die eine 1440p -> 4K Rekonstruction (DLSS) kann, die genauso detailarm und unscharf aussieht wie 1440p -> 4K Upscaling - genial!

Wenn ich AMD wäre, würde ich erstmal 'nen Kaffee trinken gehen. Als Nvidia 2006 die 8800 GTX rausgehauen hat, sah es viel viel düsterer für AMD (damals noch ATI) aus.
 
Das lag daran, dass sich die R6xx-Generation in Form von Radeon HD2xxx verspätet hatte und ATi dann irgendwie mit dem Radeon X1xxx-Vorgänger (welcher nie als direktes Konkurrenzprodukt zum GeForce 7xxx-Nachfolger geplant war) gegen die GeForce 8800 andümpeln musste.

Die Radeon HD2xxx hatten dann ja selber bereits Features, welche die GeForce 8xxx nicht hatten, die waren aber custom based und zu dem Zeitpunkt noch nicht in DirectX enthalten.

Darum ging es mir nicht sondern eher das zu dem Zeitpunkt eigendlich kein Gamer Nachteile hatte.
 
K.a wie du darauf kommst , selbst die X 1XXX Reihe war noch genauso DX9 wie die Nvidia 7XXX Karten anno 2006 , und 2007 kammen dann ziemlich zeitnah die Ati 2XXX und legendaeren Nvidia 8XXX mit DX10 , die HD 3XXX Karten waren die ersten unter AMD Regie soweit ich das im Kopf habe ... gehoert hat denen der Laden aber schon vorher ;)
Ich hab aber mal gelesen das die HD 4XXX Karten schon beinahe denn Kompleten DX 11 features Katalog koennen, da wuerde wohl kaum was fehlen und die HD5XXX konnte ja schon DX11 bevor der standard Fix war ;)

War dann eben nicht DX 10 sondern DX9.0 / 9.0a / 9.0b / 9.0c
Macht die Sache aber auch nicht wirklich anders :ugly:
 
Ich denke mal im high-end Bereich ist 4k eh längst die Standardauflösung. So lange Rytracing inter unter 4k keine min 60fps schafft ist raytracing nichts weiter als Pilotversuch im Alpha-Stadium.
 
die Einführung einer hardware-basierten neuen Technik muss und kann vor allem nicht zwangsläufig direkt massenkompatibel selbst für low-end sein. ist nicht das erste mal, dass neue Technik teurer ist. ist ebenso auch nicht das erste mal, das neue Technik erstmal nen Zeitraum des Etablierens braucht.
wer hier heult, hat das offensichtlich nicht verstanden und heult eigentlich nur, weil einem der Preis zu teuer ist, oder wie hier der gute Wang, weil die Konkurrenz nochmal ne Schippe drauf legt.
hat irgendwer bei Mantle geheult, dass Mantle nicht sämtliche Spiele unterstützt? oder hieß es: is ne neue Technik, sowas braucht Zeit, etc. ...?!
wo is das Problem, das mal zu verstehen und dem ganzen Zeit zu geben? is ja keiner gezwungen ne RTX zu kaufen. ihr könnt euch zurücklehnen und ohne RTX spielen. ihr seid frei selbst zu wählen.
nur "Geiz is geil" und "ich will das aber jetzt, sonst bin ich beleidigt" werden nix an der Realität, bzw dem Zeitraum den eine neue Technik nun mal braucht, ändern.
 
Das ist jetzt wohl das höchste Maß an Sarkasmus überhaupt. Der Unterschied zu herkömmlichen Spiegelungen ist vielleicht mit einer Lupe sichtbar, wenn man sich gerade nicht bewegt.
Dafür verliert man so viele FPS, dass es selbst in 1080p eng wird. Und dann redest Du von „staunen“? Das, was wir bisher gesehen haben ist ein guter Witz, mehr nicht.
Da hat ja selbst VR mit diesen komischen Brillen um Universen mehr Potenzial.
Der Unterschied ist am Beginn oft mit der Lupe sichtbar gewesen, oder völlig übertrieben gewesen.

Ja, ich staune über solche Möglichkeiten schon bei 1080P, ich hätte das in den nächsten 5 Jahren, ja vielleicht sogar 10 noch nicht erwartet. Dass manche so auf die Auflösung abgehen ist deren Sache, mir bringt es nichts alle paar Jahre die Auflösung zu erhöhen, bei gleichbleibender Grafik. Um am Ende Fotorealismus zu erreichen, braucht es leider Raytracing. Und da ist uns das jetzt leider im Weg, dass ein paar immer "Auflösung!" rufen.

Abgesehen davon war es bei jeder neuen Technik so. T&L, DX8,9,10,11,12 usw.

Und manchmal geht es auch schnlee bis eine Feature Standard wird, auch wenn es am Tag des Launchs sinnlos erscheint: Transform, clipping, and lighting - Wikipedia
Ja, so ist das nunmal. Auch bei 3dfx' AA Methoden musste man mehrere Auflösungen runter bei der Konkurrenz.
Shadereffekte liefen auch immer nur in ausgewählten Szenarien und die Performance ging in die Knie (oder es sah bescheiden aus), bevor die Karten endlich genug Performance dafür mitbrachten.

Ich erinnere mich auch noch gut, als die ersten DX10 Godrays aufkamen und die Performance bei manchen Spielen plötzlich in den einstelligen FPS Bereich ging. Das ist im Prinzip nix anderes.
 
Wer kam eigentlich auf die Idee, dass nur die RTX-Karten Raytracing beherrschen? Und dass man dazu dedizierte corea braucht? Theoretisch können das auch die GTX280 und HD4870 :hmm:
 
ja klar können sie das auf den lahmen klassischen Shadern mit 8 fps die Sekunde , nur eben nicht in Echtzeit u das ist der springende Punkt

Wenn du meinst du wuppst das mit althergekommener Technik ohne Tensor Cores, ohne dafür gleich ein ganzes Rechencluster an Karten einzusetzen ,hast du leider nicht verstanden welchen Boost der AI Denoiser Trick der ganzen Sache verleiht

Das Komplettieren des verrauschten Bildes mit AI macht es überhaupt erst möglich das Ganze, was Hollywood schon seit Jahren als CGI Effekte in ihre Filme bringt für Games zu portieren
 
Zuletzt bearbeitet:
Wäre es nicht klüger von AMD gar keine RayTracing Sachen herzustellen? Einfach mal NVIDIA im Regen stehen lassen?

Im Endeffekt ist AMD am längeren Hebel, weil sie die APUs für die Next Gen Konsolen herstellen.
Wenn die keine RayTracing Funktion haben, was ich glaube, dann wird sich RayTracing die nächsten 10 Jahre sehr schwer tun.

Technische Entwicklungen werden doch immer erst von den Konsolen vorangebracht, weil die in höheren Stückzahlen verkauft werden.

"Im Regen stehen lassen" wird man Nvidia damit nicht. Nvidia ist der Weltmarktführer. Die bestimmen, welche Technologie sich durchsetzen kann. Die Konkurrenz kann i.d.R. nur mithalten, indem sie Lösungen präsentieren, deren Implementierung nichts kostet und die technisch offen sind. Siehe Vulcan, siehe Freesync, siehe OpenCL. Und was grafische Effekte angeht: Nvidia Gameworks sollte gezeigt haben, dass es kein Problem für Nvidia ist, einen Fuß in die Grafikberechnung moderner Engines zu setzen. Schon alleine, weil Nvidia Raytracing unterstützt, werden das einige Spiele als Option einbauen.

Das ist jetzt wohl das höchste Maß an Sarkasmus überhaupt. Der Unterschied zu herkömmlichen Spiegelungen ist vielleicht mit einer Lupe sichtbar, wenn man sich gerade nicht bewegt.
Dafür verliert man so viele FPS, dass es selbst in 1080p eng wird. Und dann redest Du von „staunen“? Das, was wir bisher gesehen haben ist ein guter Witz, mehr nicht.
Da hat ja selbst VR mit diesen komischen Brillen um Universen mehr Potenzial.

Vielleicht schafft ein Quantencomputer ja in 20 Jahren Fullscreen-Raytracing mit „nur“ 20% FPS-Verlust. Das könnte manche dann tatsächlich dazu verleiten, es zu aktivieren, um Spiegelungen als kleinen Bonus ein wenig aufzupeppen.

Das ist gleich an mehreren Ecken nicht ganz richtig ;)
1) es ist das erste Mal, dass überhaupt mal Spiegelungen berechnet werden. Vorher hat man die "Spiegelungen" hinbeschissen, mit Raytracing werden die Simuliert. Du hast Recht, wenn man die richtige Szene auswählt, ist der Unterschied nicht so riesig, wenn man aber von falschen Blickwinkel schaut, sieht das Ganze ohne Raytracing furchtbar aus. Raytracing macht das alles, unabhängig von der Szene, vom Blickwinkel und von allen Objekten, automatisch richtig: "it just works".
2) mir ist kein Quantenalgorithmus bekannt, der für Raytracing irgendetwas bringen würde. Es ist ja nicht so, dass der Quantencomputer in allen Bereichen schneller ist, als ein traditioneller Computer, im Gegenteil. Bloß in ganz bestimmten Berechnungen kann man überhaupt einen Geschwindigkeitsvorteil rausfahren. Der ist dann aber meistens ziemlich enorm, was das Ganze irgendwie rechtfertigt.
Ich kann mir schon vorstellen, dass man über fortgeschrittene Suchalgorithmen schnellere Strahlengänge berechnen kann - aber ob das rechtfertigt, dass man eine - in 20 Jahren im besten Falle - Box im Zimmer stehen hat, welche den Quantencomputer innen drin auf wenige Kelvin herunter kühlt, dass diese überhaupt in der Lage ist, Quantenberechnungen durchzuführen? Ich glaube kaum :P
gRU?; cAPS
 
Zuletzt bearbeitet:
Eine kleine Klitsche wie EGOSOFT schafft es ein Spiel komplett auf Vulkan zu entwickeln währen Großkonzerne die im Geld schwimmen sich kaum an DX12 rantrauen. Wozu hat man eigentlich DX12 / Vulkan entwickelt wenn der Großteil der Branche da überhaupt keinen Bock drauf hat?
Ob jetzt Raytracing daran etwas ändert? Ich bezweifle es. Soll AMD ruhig langsam machen.
 
Zuletzt bearbeitet:
hat irgendwer bei Mantle geheult, dass Mantle nicht sämtliche Spiele unterstützt? oder hieß es: is ne neue Technik, sowas braucht Zeit, etc. ...?!

Ich gebe dir sicher Recht, dass RT etwas Zeit braucht und die Zukunft darstellt. Dass nV diesen Schritt geht, heiße ich eigentlich gut, nur den Zeitpunkt und vor allem die daraus resultierenden Preise nicht. Aber, um deine Frage zu beantworten: unter anderem der Typ dem dein Beitrag gefällt, hat laut herumgetönt, ebenso Meister Schaffe, dass das ja "proprietär" sei...
 
da erinnere ich mich an mich selber, wie ich damals in den Kaufberatungen mit meiner Meinung angeeckt bin, dass Mantle ja kein relevanter Kaufgrund wäre. Mantle war damals technisch ne gute Zielsetzung, aber kein Kaufgrund. RTX is ebenfalls ne gute Zielsetzung. aber aktuell kein Kaufgrund.
 
Wer kam eigentlich auf die Idee, dass nur die RTX-Karten Raytracing beherrschen? Und dass man dazu dedizierte corea braucht? Theoretisch können das auch die GTX280 und HD4870 :hmm:
Wurde ein paar Seiten vorher mal erläutert: Radeon-Chef David Wang: AMD wird auf DirectX Raytracing antworten

Theoretisch kann das jede DirectX10-Karte ab Werk und wenn ich mich jetzt nicht irre, wohl auch jede Grafikkarte mit Pixel-Shader (die immerhin schon mit der GeForce 3 eingeführt wurden), die aber noch keine Compute-Shader hatten. Und die GPUs mit (also im Prinzip alle ab der DX10-Generation) waren für Echtzeit-Raytracing wohl zu lahm.
 
Zurück