Radeon-Chef David Wang: AMD wird auf DirectX Raytracing antworten

YouTube

besser als 1070 wenn mich nicht alles täuscht ist das besser als 1060.
Aber ernsthaft ich habe keine Lust auf diese Diskussionskultur (Weihnachtsmann, Krank-,hart- lachen, Schrott usw.) bleib mal seriös wenn Du kannst
kommt natürlich immer auf die Kühlung an und im speziellen auf die Vorgaben des Produzenten.
Aber die generelle Aussage war einfach nicht korrekt.

Hier noch mal und nicht alle MAXQ sind gleich spezifiziert
NVIDIA GeForce GTX 1080 Max-Q GPU - Benchmarks and Specs - NotebookCheck.net Tech
 
Zuletzt bearbeitet:
Jo, so siehts aus...
Was mir nicht in den Kopf will, wie kann man nur einen Shooter mit einem Gamepad zocken!?

Das geht schon, so verrückt es klingt. Weil an der Konsole die Reaktionszeit so träge ist passt sich die träge Latenz des Controllers an. Am PC sieht 's eher schrecklich aus. Da zockt man mit 60 FPS und mehr und bis man mit dem Controller seitwärts geschaut hat, noch viel schlimmer, umgeschaut hat, ist man seit 10 Sekunden abgeschossen. Aber für Rennspiele ist so 'n Controller optimal, dagegen hat die Tastatur-plus-Maus-Lösung das Nachsehen, weil in diesem Fall die zu abrupte Reaktion der Steuerung das ruhige Feingefühl nimmt.

Die Sequenz von 2:18 bis 2:24 ist wohl ziemlich gleich dem Konsolen-Niveau:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

och, im Singleplayer is das durchaus ganz nett. aber auch nur da.

Weil der Gegner latenztechnisch über keinen Vorteil verfügt. ^^

@Lamaan
Mit der GTX 1060 habe ich mich geirrt, es ist die GTX 1070. Hatte es in so in Erinnerung. Dennoch kann man den Chib in der PS4 nicht mit dem in der RX 480 gleichsetzen, wohl eher mit der RX 460, der ist nun mal restriktiviert. Retail-Hardware ist immer viel lesitungsfähige rwie Bulk-Hardware.
 
Zuletzt bearbeitet:
2080 Ti mit doppelt so viel Leistung wie die alte Ti, dann darf die für Enthusiasten auch ruhig doppelt so teuer sein, weil der Chip deswegen so groß sein muss.
Dann haben die endlich eine tolle Karte für 4K mit Option auf Zuschaltung von diversen Ultra Details und trotzdem hohen Bildraten.

Wäre schön gewesen ist aber technisch unmöglich. Mit GV100 hat nV bereits feststellen können, wieviele Shader noch echte Mehrleistung bedeuten. Irgendwann ist es einfach vorbei, bei AMD s GCN war der Punkt mit den 4096 Shadern der Fury XT und Vega64 erreicht, bei nVs Maxwell-Shadern scheint dieser Punkt irgendwo um jene 4600 der größten Turing zu liegen. Da nV aber den Geldgebern verpflichtet ist, musste eine neue GPU her, die mögliche Mehrleistung aber sehr überschaubar. Also musste auch ein neues Feature als Kaufanreiz her: Raytracing in Hardware...
 
Wenn ich mich noch an die offizielle Präsentation per YouTube erinnere zu The Crew 2: Ständig hat 's geschliert und teils auch geruckelt. Die FPS waren meistens unter 30, laut FPS-Meter in der Präsentation Drops in bis zu 21 FPS. Es waren zwar 1080p, aber vergleichend zur PC-Version nur mittlere bis hohe Details. Und das von der aktuellen, gegenüber der vergleichsweise lahmen PS4 Pro haushoch überlegenen Referenz Xbox One X. Eine PS4 Pro würde dagegen bei 5 FPS herumdümpeln. Sie ist der reinste Flop dagegen.
 
DLSS ist der verzweifelte Versuch uns Spielern die für uns vollkommen nutzlosen Die-Flächen-Verschwendung und daraus exorbitant gestiegene Preise schmackhaft zu machen. Es gäbe andere, ähnlich performante Wege, diese Bildaufhübschung umzusetzen...
RT hingegen ist grundsätzlich genial und wirklich die Zukunft für Computerspiele aber in 16/12nm leider etwas zu früh. AMD wird es sicher irgendwann implementieren aber sicher noch nicht mit Navi, also frühestens 2021 mit dem GCN-Nachfolger.

Naja, die Karten haben ja eh erst das Licht der Welt erblickt und Microsoft hat das für RT wichtige Oktoberupdate bisher nicht gebracht. Bei DLSS geh ich jedoch davon aus, dass das in den Triple-A Titeln durchaus Einzug halten wird.

Und sein wir mal ehrlich, Vega schleppt selbst sehr viel Compute-Ballast mit sich rum, der bis auf Bethesdas Spiele ähnlich selten genutzt wird (manche Features bis heute nicht oder sind noch immer standardmäßig deaktiviert) und wie lang gibts Vega schon zu kaufen? Bin gespannt, ob und wann die RTX Familie die Vega-Familie im Steam Survey überholt (wohl eher wann statt ob)
 
Welche technischen Fortschritte waren zu Beginn nicht Gimmicks?
Ah, da kommt es auch wieder völlig darauf an was jemand als "Gimmick" bewertet.
Jeder der ein wenig in die Historie schaut weiß, dass die Verbreitung von neuen Sachen eher schleppend vorangeht.
Aber jeder kann selber entscheiden, welche Features ihm das Geld wert sind und wenn wir über Dinge diskutieren und allgemein pauschalisieren möchten, wäre es da nicht angebracht, immerhin auf die ersten praktischen Ergebnisse zu warten?

Natürlich waren alle neuen Entwicklungen erst mal Gimmicks.
Auf GPUs bezogen ist aber nur Ray Tracing seit 30+ Jahren ein Gimmick.
Inklusive mehrfacher Ankündigung von Echtzeit Raytracing fähigen GPUs..
Sei es Intel mit ihrer iGPU und später mit Larrabee...

Intel: Raytracing-Games kommen – Hartware
YouTube

Dann 2011 mit neuer Demo unter dem Namen Knights Corner:
http://www.pcgameshardware.de/CPU-C...any-Integrated-Core-Architektur-preis-830379/

Anno 2007 lief alles noch auf 8 CPU Kernen:
Intel zeigt Raytracing-Engine fuer PC-Spiele - ComputerBase
YouTube


Seit 1999 gibt es dedizierte Ray Tracing Hardware:

https://en.wikipedia.org/wiki/Ray-tracing_hardware

Nvidia auf der Siggraph 2008:
CUDA für echtzeit Ray Tracing mit der GTX280 - übrigens teilweise mit den gleichen Demo Bildern aus der Geschichte des Ray Tracings.
https://developer.download.nvidia.com/presentations/2008/NVISION/NVISION08-IRT.pdf

OptX Ray Tracing SDK für GTX 280:

https://www.geeks3d.com/20100121/nvidia-optix-ray-tracing-sdk-available-with-geforce-support/


Aktuell kann man Echtzeit Ray Tracing schon beinah als Vapor Ware bezeichnen - zumindest für Spiele.

Nach all den vollmundigen Versprechen sehe ich aktuell keinen Grund, dass RT dieses Mal besser wird - vor allem, weil die Endkunden diesmal ein vielfaches mehr zahlen sollen
 
Ganz genau das. Alles andere wäre schwachsinnig

Und dafür ist AMD prädestiniert ,weil der Entwicklungschef ,wieder einen Koduri raushängen lässt? ;)

Die schnippen wahrscheinlich einfach mit den Finger und haben dann ne Lowend Lösung nein,,doch, ja ,oh ?

Und Nvidia dreht derweil Däumchen mit ihrem massiven R&D Budget u gibt das für Koks ,Nutten und neue Lederjacken aus...
 
Zuletzt bearbeitet:
Jetzt wissen Nvidia-Besitzer endlich, wie es uns Radeon-Nutzern geht: Warten auf die passende Softwareunterstützung :lol:
Gruß T.

Ja, ja - AMD Advanced Media Framework mit Support für MPEG-H Part 2 in 10-Bit von 4:2:0 und 4:2:2 (Hi10P und Hi422P) und TrueMotion VP9 in 10-Bit von 4:2:0 mit Decoding per AMD Unified Video Decoder 6.0 und 7.0 (einschließlich AMD Video Core Next 1.0). Letztendlich ist es bloß die reinste Verarsche per Shader Array seitens dem Hauptprozessor, dieser in YouTube per VP9 in 2160p@60 bis an seiner Kotzgrenze zu schuften und zu heizen hat, der Bulldozer, Piledriver und Steamroller total über sein Limit hinaus ausgelastet, weil dieser nutzlose Videoprozessr ausgenommen von Microsoft Visual C++ Accelerated Massive Parallelism, Microsoft Video Decode Acceleration Framework und Microsoft DirectX Video Acceleration offenkundig zu nichts weiterem befähigt ist, was die CPU in der Streaming-Wiedergabe entlastet. Und warum all dies!? Weil AMD mehr Label und Definitionen einführt als etwas Pragmatisches umzusetzen. Das AMD Advanced Media Framework ist ein Flop.
 
Ja, ja - AMD Advanced Media Framework mit Support für MPEG-H Part 2 in 10-Bit von 4:2:0 und 4:2:2 (Hi10P und Hi422P) und TrueMotion VP9 in 10-Bit von 4:2:0 mit Decoding per AMD Unified Video Decoder 6.0 und 7.0 (einschließlich AMD Video Core Next 1.0). Letztendlich ist es bloß die reinste Verarsche per Shader Array seitens dem Hauptprozessor, dieser in YouTube per VP9 in 2160p@60 bis an seiner Kotzgrenze zu schuften und zu heizen hat, der Bulldozer, Piledriver und Steamroller total über sein Limit hinaus ausgelastet, weil dieser nutzlose Videoprozessr ausgenommen von Microsoft Visual C++ Accelerated Massive Parallelism, Microsoft Video Decode Acceleration Framework und Microsoft DirectX Video Acceleration offenkundig zu nichts weiterem befähigt ist, was die CPU in der Streaming-Wiedergabe entlastet. Und warum all dies!? Weil AMD mehr Label und Definitionen einführt als etwas Pragmatisches umzusetzen. Das AMD Advanced Media Framework ist ein Flop.

Fluid Motion ist aber im Gegenzug ein wunderbares Feature für die Wiedergabe insbesondere von BluRay Discs und stellt einen deutlichen Mehrwert dar. Das Feature ist allein der Grund warum in meinem HTPC eine AMD Karte werkeln MUSS.
 
@Gurdi
Es erspart Intra-Frames und reduziert die Rechenleistung. Ob es die Video-Motion realitätsgetreuer umsetzt, ich denke dies obliegt in der überwiegenden Mehrzahl im nicht sichtbaren Spektrum (Infra). Ich kann mir aber gut vorstellen, dass die Kameraschwenks bei Sportübertragungen in weniger ruckeln und schlieren, abgesehen von dem Anteil dieser von der Quantisierung ausgeht.

Nett - es hilft nur nichts auf YouTube, wenn VP9-Clips in 2160p60 wiedergegeben werden, dann muss die CPU schuften und wenn sie damit überfordert ist, gemäß AMD K15 und älter, dann ist die Videowiedergabe ein Graus.

NVIDIA Video Decode and Presentation API for Unix - Feature Set E (NVIDIA Maxwell Microarchitecture w/ NVIDIA PureVideo HD 6.0)

Maxwell with CPU, with GPU and without VPU.jpg

vs.

NVIDIA Video Decode and Presentation API for Unix - Feature Set H (NVIDIA Pascal Microarchitecture w/ NVIDIA PureVideo HD 8.0)

Pascal with CPU, with GPU and with VPU.jpg

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

An einem solchen Videodatenstrom hat sich der AMD FX-8350 meines alten Rechners so richtig ausgekotzt - flüssige Wiedergabe an der heizenden Kotzgrenze mit vereinzeltem Stocken. Der AMD FX-6300 meiner Brüder zeigte in mehrfaches Stocken, aber beheizte wenigstens nicht gleich die Nachbarschaft mit.

Meine Empfehlung mit der Ambition zur Videowiedergabe von Internetstreams wie YouTube ist in mindestens NVIDIAs Pascal-Mikroarchitektur, in älter muss die CPU ordentlich Dampf machen können, ohne das Resultat der Wiedergabe negativ zu beeinträchtigen und ohne zum Heizkessel zu mutieren.
 
Zuletzt bearbeitet:
Glaub ich dir ja, wobei ich mich damit nicht wirklich beschäftige. Bei 24p BluRays ist das aber ein Segen das kannst du mir glauben.
 
Mal ernsthaft: Nvidia hat sich doch total ins Strategische Aus befördert:

Wenn sie bei der nächsten Generation RTX nicht bringen und stattdessen auf Performance für 4K gehen, wird es einen Shitstorm geben - unter anderem auch von Besitzern von RTX-Karten und der naht ja sowieso eventuell schon aus anderen Gründen.

Wenn sie RTX bringen, verpulvern sie Die-Fläche die ihnen ihre preisliche (und stromverbrauchsmäßige) Konkurrenzfähigkeit nimmt. AMD kann dem Mainstream einfach günstige 4K und VR-Karten liefern und sich ins Fäustchen lachen.

Die Zukunft mag ja tatsächlich irgendwann in Raytracing liegen. Aber die Leute können sich doch nicht mal einen 4K-Bildschirm kaufen, weil die Leistung nicht reicht. Und von 144Hz brauchen wir gar nicht reden. Da stehen teilweise 60"-4K-Fernseher herum, die einfach nur schlecht in 1080p aussehen und die Leute können die noch nicht mal anständig ansteuern.
Und Nvidia meint dann, sie müssten jetzt so ein unsinniges Feature bringen(Edit: Dessen mathematischer Vorteil meistens nicht mal im Bild sichtbar ist), weil sie ihre Tensor-Cores auch dem Mainstream verkaufen wollen, damit sie - wie AMD - nur noch einen Chip für Profi- und Consumersegment produzieren müssen. Aber so einfach, wie sich das träumt, geht es eben doch nicht, schon gar nicht, wenn man die Leute schon vorher mit Dingen wie G-Sync gereizt hat. Irgendwann läuft das Fass über und es rächt sich.

Ich hoffe sehr, dass AMD ihre Technik weiter verbessert. Für Leute, die zocken und die Grafikkarte auch noch als Beschleuniger für Programme benutzen (und auch besonders für Linux-Nutzer, die Open Source-Treiber nutzen wollen), sind die Karten perfekt. Damit kann man eigentlich gar nichts falsch machen. Es hat sehr lange gedauert - Nvidia ist ein schwerer Gegner für AMD gewesen im Vergleich zu Intel :) - Aber jetzt haben sie auch mal einen dummen Fehler gemacht. Und ich bin mir sicher, dass AMD den nutzen wird.
 
Zuletzt bearbeitet:
Mal ernsthaft: Nvidia hat sich doch total ins Strategische Aus befördert:
[...]
Wenn sie RTX bringen, verpulvern sie Die-Fläche die ihnen ihre preisliche (und stromverbrauchsmäßige) Konkurrenzfähigkeit nimmt. AMD kann dem Mainstream einfach günstige 4K und VR-Karten liefern und sich ins Fäustchen lachen.
Wenn deine Darstellung auch nur annähernd der Realität entsprechen würde und wahrscheinlich wäre... :schief:

Nvidia ist ein schwerer Gegner für AMD gewesen im Vergleich zu Intel :) - Aber jetzt haben sie auch mal einen dummen Fehler gemacht. Und ich bin mir sicher, dass AMD den nutzen wird.
Gegen Intel wird AMD in naher Zukunft auch nichts zu lachen haben.
2020/21 hört der konkurrenzlose Spaß auf.

Und AMD hat nichts, um die Chance auszunutzen, woher denn auch?
Navi ist fertig und das ganze R&D der letzten Jahre war auf Sparflamme.
Nvidia hat alle Finanzen der Welt und arbeitet an 7nm Designs und wird sowieso mächtig Asche mit Turing machen, einige Monate gegen 7nm AMD Karten zu konkurrieren, wird die auch nicht sonderlich jucken.
 
Und AMD hat nichts, um die Chance auszunutzen, woher denn auch?
Navi ist fertig und das ganze R&D der letzten Jahre war auf Sparflamme.
Nvidia hat alle Finanzen der Welt und arbeitet an 7nm Designs und wird sowieso mächtig Asche mit Turing machen, einige Monate gegen 7nm AMD Karten zu konkurrieren, wird die auch nicht sonderlich jucken.
Selbst wenn, ist fraglich wie viele dieser "Monate" das sind. Schon in der Vergangenheit waren die AMD Karten immer wesentlich früher angekündigt und kamen dann doch maximal zeitgleich (Polaris vs Pascal).
Falls AMD doch im Raytracing konkurrieren wollen, müssen auch sie Transistorbudget für fixed Function Units und Co verbraten. Falls sie das nicht wollen, haben sie halt ein Feature weniger.
Sollte AMD tatsächlich nur einen Mittelklassechip in 7nm bringen - was ich nicht hoffe- ist es zwar für Nvidia Aufwändig, aber nicht unmöglich, selbst einen Mittelklassechip ohne Tensor Cores und RT Cores zu bauen. Und dann wissen wir ja doch wieder wie das ganze ausgehen könnte...
 
Im Moment ist RTX für Gamer sinnlos. Der Konsument muss einfach nur für Mist zahlen weil nVidia mit allen Finanzen der Welt es nicht schafft Gaming von Pro zu trennen...

Aber zugeben, dass ein Produkt des Herstellers seiner Wahl, auch mal Mist Baut wie bisher alle, das kann man einfach nicht.

Bis nVidia mit 7nm kommt hat doch AMD schon alles abgegrast....

Damit Raytraycing jetzt ein Erfolg werde würde, dürfte die 2080Ti max 250€ kosten, weil dass ist (zwar aus meiner Sicht überteuerter) Standard für 1080p @ 60 FPS.
 
Im Moment ist RTX für Gamer sinnlos. Der Konsument muss einfach nur für Mist zahlen weil nVidia mit allen Finanzen der Welt es nicht schafft Gaming von Pro zu trennen...
Du sagst es selbst: IM MOMENT. Wer sagt, dass nicht in einem Jahr Spiele rauskommen, die Raytracing maßvoller einsetzen - aber dennoch effektiv?
Und jetzt bitte nicht argumentieren mit: ich kaufe eine Grafikkarte mit völlig neuem Featureset, damit das ganze "im Moment" und nicht nächstes Jahr funktioniert. Denn das war noch nie so. Du kannst in heutigen GPUS zig Technologien finden, die zuerst nicht sinnvoll erschienen.
Aber zugeben, dass ein Produkt des Herstellers seiner Wahl, auch mal Mist Baut wie bisher alle, das kann man einfach nicht.
Ich selbst bin ob der großen Chipflächen etwas verwundert, das damit einhergehende Leistungsplus ist auch am unteren Ende der Erwartungen - aber innerhalb der Erwartungen gewesen.
Dass Nvidia Raytracing langsam zum Durchbruch verhelfen will finde ich absolut genial (ich würds auch genial finden, wäre es AMD, aber da letztere weniger Marktmacht haben mit ihren 20%, ist es besser, Nvidia machts)
Bis nVidia mit 7nm kommt hat doch AMD schon alles abgegrast....
AMDs Navi kommt erst im 2. Halbjahr. Das ist lang und kann vieles heißen. Von Juli weg bis Dezember. Aber wohl eher nicht Juli, sonst hätte man sich bei AMD etwas genauer ausgedrückt. Nvidia kann bei baldigem Tapeout genauso gleichzeitig aufschlagen. Wir erinnern uns: Im Dezember 2015 wurde uns Polaris als Effizienzwunder angepriesen.
Im Juli/August kam Polaris dann endlich. Langsamer und weniger Effizient als die Jahre alte Konkurrenz im Form der 980 etwa. Noch blöder: Nvidia, die gar nichts rausgerückt haben an Details und wo auch manche angenommen haben, sie werden erst viel später Releasen, haben kurz vorher GPUs angekündigt und auch gleich Released.
Nur weil AMD schon zigfach darauf hingewiesen hat, dass man etwas 2019 bringt, heißt das noch lange nicht, dass Nvidia nicht auch was plant. Wenngleich ein Release nur 1 Jahr nach Turing verwundern würde.

Ob AMD bis dahin auch nur irgendwas abgegrast hat, würde ich mal bezweifeln. Im Moment zeichnen sie sich eher dadurch aus, dass sie seit 2016 Nvidia völlig den Markt übrig lassen und ihr Name bei Gamern mit Anspruch völlig in Vergessenheit gerät. Selbst wenn Navi ein super Produktt wäre, bis das wieder in aller Munde ist, hat Nvidia längst auch 7nm Produkte am Markt. So funktioniert das mit dem Markt, der Mundpropaganda, dem Marketing etc. nunmal. Es war nicht besonders gut von AMD - ob man die Wahl hatte oder nicht, lasse ich mal dahingestellt - dass man den Markt eigentlich hingeworfen hat - wenngleich mans mit Vega wenigstens versucht hat (aber leider ein Fail war).

Damit Raytraycing jetzt ein Erfolg werde würde, dürfte die 2080Ti max 250€ kosten, weil dass ist (zwar aus meiner Sicht überteuerter) Standard für 1080p @ 60 FPS.
Inwiefern sich eine Technologie die für Early Adopter (und somit Hochpreiskunden) irgendwie am Preis oder einer Auflösung messen muss, muss ich wohl nicht verstehen.
Ob das ganze jetzt 2K,4K oder 8K läuft hängt ja auch von den Spielen selbst ab, aber viel wichtiger ist, dass man sich klar macht - wie immer bei solchen Features - es geht zuallererst mal nur darum, das ganze in ausgewählten Szenarien zu bestaunen. Zu sehen "das ist die Zukunft".

Und Raytracing oder ähnlichen Technologien gehört die Zukunft.
 
Zurück