Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor

Ich bin ein bisschen entäuscht. Hätten sie nicht die Raytracing -Cores weglassen können um doppelt so viele Tensor Cores einzubauen? So wie es aktuell ausschaut, lohnt sich die Karte für mich nicht.
 
Bei den Konsolen wird Raytracing so schnell kein Thema werden.
Navi z.B. wurde ja extra für die PS5 entwickelt, und RT scheint da kein Thema zu sein, auch nicht beim Nachfolger der X-Box.
Wenn überhaupt kommen da die Nachfolger der PS5 und der übernächsten X-Box in Frage.
Ob es dann überhaupt noch klassische Konsolen geben wird ist auch fraglich, da MS schon in der nächsten Gen parallel eine Streaming-Konsole anbieten wird.
Und Nintendo wird wieder ein ganz anderes Konzept machen, ähnlich der Switch, und mit Sicherheit auch ohne RT.

Was man aber merkt ist das Nvidia Raytracing gewaltig pusht.
Langsam bekomme ich auch den Eindruck das für Nvidia die Geforce-Sparte nicht mehr so wichtig ist, und man sich lieber auf die anderen Sparten konzentriert.
Deshalb hat man auch die Siggraph als Bühne für die neue Architektur genommen, die sich ja nicht an PC-Gamer richtet, sondern ganz andere Kundschaft hat.
 
Wobei man die 12 Rechenschritte pro Pixel für die Abprallefekte nutzen kann. Mehr als 2-3 Reflektionen braucht man eigentlich nicht, da dann das Licht zu schwach, bzw. zu stark gesträut ist.

Selbst mit einer Reflektion würden 12 Strahlen pro Pixel ggf. schon nicht mehr für Antialiasing reichen, aber die meisten Oberflächen reflektieren gar nicht zu 100 Prozent – und genau das ist das Problem bei reinem Raytraycing: Um die Beleuchtung einer streuenden Oberflächen zu ermitteln braucht es sehr viele Sekundärstrahlen. 20 GRay/s sind dennoch eine Ansage und vor allem eine Grundlage für die Entwicklung effizienterer Verfahren.
 
Zuletzt bearbeitet:
...
Das galt und gilt aber für viele neue Rendertechniken. Tesselation wurde z.B. mit der Radeon 5870 bzw. GTX 480 eingeführt, und war lange Zeit kaum nutzbar und deshalb eben nur ein Feature. In Spielen wie Metro konnte man Tesselation dann anschalten, und "tiefe" Fußspuren oder etwas weniger kantige Pflanzen bewundern, aber mehr eben auch nicht. Und Mittelklassegrafikkartenbesitzer haben es einfach ausgemacht, weil eine GTX 460 in Metro bei angeschaltetem Tesselation einfach zusammengebrochen ist.

Mit dem Siegeszug von DirectX 11 ist Tesselation Standard geworden, und heute ist es ein integraler Teil des Renderprozesses. Aktuelle Grafikbomben verwenden es in fast jeder Szene, abschalten kann man es wenn überhaupt nur noch über einen generellen Detailregler.

Ich denke mal so wird es mit Raytracing auch laufen. Ein am Anfang nettes Gimmick, das von wenigen Karten unterstützt wird, sich aber dann langsam zum Standard mausert. Aber eben erst in ~ 5 Jahren oder so, wenn jeder eine fähige GPU besitzt und das Feature auch auf Konsolen implementierbar ist.

Tessellation gibt es schon seit der HD 2000 Serie.
Es hieß damals nur ATI TruForm:
ATI TruForm - Wikipedia

Hat damals leider keine Entwickler interessiert.. zw. eindeutig zu wenige.

Edit:
Ansonsten hast du natürlich Recht.
Allerdings werden noch sehr viele Jahre vergehen, bis Raytracing wirklich ein Feature in Spielen wird - zumindest Echtzeit Raytracing.
Versprochen wurde es uns ja auch von Nvidia schon vor 6 Jahren...
Und von Intel vor 8 Jahren.
 
Oh Gott, ich seh es schon kommen.
Die V100 kostete 8.999 die RTX 8000 10.000.

Bei den Desktop-Ablegern wird's dann auch wieder teuer.
Ich tippe mal auf 2080 so bei €799 ,2070 €699 und 2060 mit €399 oder €499.
Und als Highlight die 2080Ti mit nem satten Tausender.
 
Ich sage nichts gegen Raytracing an sich.
Wenn du meine Kommentare liest, wird dir das auch aufgefallen sein.
Ich seh nur nicht wirklich, dass ein "großer Push" kommen wird.

Die Rechenleistung ist schlicht bei weitem noch nicht da, wo sie für den Massenmarkt sein müsste, um aus Raytracing mehr als ein Marketing Feature zu machen.
Die 2080 wird die Hardware bekommen.
Wahrscheinlich noch die 2070.
Alles darunter... eher nicht.
Dazu fehlt es schon an der Rohleistung der Karten unterhalb einer XX70.
Und selbst bei der 2070 bin ich momentan eher skeptisch.
Wenn der 745mm² Profi Chip es gerade so auf 16 TF bringt. Wo soll dann ein kleinerer Chip landen, der irgendwie in das Budget von Endkunden passen soll?
Ja, es gibt den dicken Profi Aufschlag.

Aber selbst die Quadro P6000 hat maximal €7999 gekostet.
Da liegt die neue RTX deutlich drüber.

Ich würde nicht drauf wetten, dass wir Endkunden den dicken Chip vor dem Release der 2080 TI sehen.

Und selbst mit dem 745mm² Chip geht es zwar in eine gute Richtung, aber es fehlt die Rechenleistung im Bereich um €300, damit das Feature auch nur ansatzweise mehr wird, als ein Marketing Feature in ein paar AAA, oder Indie Spielen.

Vor ein, zwei Jahren sagte noch ein Entwickler (ich meine, es war wer bei DICE), dass es 21 TF braucht, um Raytracing gut umzusetzen.
Im High End könnten wir dank Tensor Kernen und Raytracing Hardware (was auch immer das sein mag) auf dem Wert sein - aber auch nur beim Raytracing.

Für alle anderen ist das noch ein unerreichbares Ziel.
Im Prinzip habe ich niemanden direkt angesprochen, aber man spürt und sieht die Skepsis und Kritik in jedem Forum.

Nun was bedeutet aber ein "großer Push"? War Mantle ein großer Push? In meinen Augen ja, dass hat DX12 endlich aus dem schwarzen Loch herausgebracht und ist in Vulkan aufgegangen.
Haben wir deswegen schon etliche DX12/Vulkan-Spiele mit massiven Vorteilen? Leider nicht, aber seit der Mantle-Zeit ist jedenfalls meine persönliche Freude nach wie vor da.
Der Grundstein war endlich gesetzt, wir haben schon einige sehr positive Beispiele und das ganze Ökosystem entwickelt sich gut weiter.
Für Raytracing kann man sich das gleiche wünschen und ich bin froh über den Push von Nvidia, wobei es mir natürlich auch Sorge bereitet wie sehr sich Nvidia noch weiter von der Konkurrenz absetzen wird.

Wenn die Siggraph zu Ende ist und die Präsentationen hochgeladen worden sind, dann bekommt man möglicherweise ein besseres Bild davon, was in Echtzeit möglich sein wird, wobei man natürlich eher auf Metro: Exodus warten wird, einem echten Spiel.
Bei Twitter findet man Zahlen über ein Area-Light-Vergleich durch Raytracing, wo eine Quadro RTX6000 4-5 mal so schnell wie eine 1080 GTX rechnet, die genauen Specs zur ersten GPU hat man nicht, aber die Rechenleistung ist selbst im besten Fall nicht ganz bei Faktor 2 und die Bandbreite etwas höher als Faktor 2 , dennoch schafft man es die Szene überproportional schneller zu berechnen:
Soufiane KHIAT auf Twitter: "@CasualEffects "Real-Time Ray Tracing ship it" #SIGGRAPH2018 #SIGGRAPH… "

Für 4 Lights/Tile benötigt die Quadro "nur" 4,9ms oder schafft das ganze mit ~204FPS.
Die 1080 GTX müht sich dagegen mit 24,5ms pro Frame bzw. 40FPS ziemlich ab.

[...]
Mit dem Siegeszug von DirectX 11 ist Tesselation Standard geworden, und heute ist es ein integraler Teil des Renderprozesses. Aktuelle Grafikbomben verwenden es in fast jeder Szene, abschalten kann man es wenn überhaupt nur noch über einen generellen Detailregler.

Ich denke mal so wird es mit Raytracing auch laufen. Ein am Anfang nettes Gimmick, das von wenigen Karten unterstützt wird, sich aber dann langsam zum Standard mausert. Aber eben erst in ~ 5 Jahren oder so, wenn jeder eine fähige GPU besitzt und das Feature auch auf Konsolen implementierbar ist.
Integral ist Tessellation sicherlich nicht, über alle Spiele bezogen liegt der prozentuale Anteil vermutlich unter 20%, wenn nicht noch deutlich niedriger und dabei wird es meistens auch nur für Teile der Geometrie verwendet.
Battlefield und Mass Effect, welche es für die Teile der Landschaft verwenden, sind mir beinahe die einzig bekannten prominenten Beispiele im AAA-Bereich.
Es liegt auch daran das die Tessellation-Spec einfach schlecht ist und teilweise auch die Hardwareumsetzungen.

Bei den Konsolen wird Raytracing so schnell kein Thema werden.
Navi z.B. wurde ja extra für die PS5 entwickelt, und RT scheint da kein Thema zu sein, auch nicht beim Nachfolger der X-Box.
Wenn überhaupt kommen da die Nachfolger der PS5 und der übernächsten X-Box in Frage.
Ob es dann überhaupt noch klassische Konsolen geben wird ist auch fraglich, da MS schon in der nächsten Gen parallel eine Streaming-Konsole anbieten wird.
Und Nintendo wird wieder ein ganz anderes Konzept machen, ähnlich der Switch, und mit Sicherheit auch ohne RT.

Was man aber merkt ist das Nvidia Raytracing gewaltig pusht.
Langsam bekomme ich auch den Eindruck das für Nvidia die Geforce-Sparte nicht mehr so wichtig ist, und man sich lieber auf die anderen Sparten konzentriert.
Deshalb hat man auch die Siggraph als Bühne für die neue Architektur genommen, die sich ja nicht an PC-Gamer richtet, sondern ganz andere Kundschaft hat.
Navi wurde maximal stärker für Sonys Wünsche angepasst, nicht extra für die PS5 entwickelt.
Und wer kennt Sonys Wünsche? Vielleicht will Sony ja hardcore Raytracing Hardware für die PS5 haben?
Bei den Konsolen geht es um Spiele und im Prinzip ist es klar was AMD so oder so verbessern muss bzw. sollte.

Ich weiß nicht wieso du den Eindruck hast, dass Nvidia die Geforce-Sparte nicht mehr so wichtig ist?

Tessellation gibt es schon seit der HD 2000 Serie.
Es hieß damals nur ATI TruForm:
ATI TruForm - Wikipedia

Hat damals leider keine Entwickler interessiert.. zw. eindeutig zu wenige.
[...]
Es war Herstellerexklusiv und mit Einschränkungen versehen.
Tessellation ist deutlich flexibler und genießt den Support von allen Herstellern, dennoch interessiert es die meisten Entwickler nicht.
 
Zuletzt bearbeitet:
Navi wurde maximal stärker für Sonys Wünsche angepasst, nicht extra für die PS5 entwickelt.
Ich weiß nicht wieso du den Eindruck hast, dass Nvidia die Geforce-Sparte nicht mehr so wichtig ist?
Die Gerüchte dazu das Navi exklusiv für Sony entwickelt wurde gibt es schon länger, und sie sind auch glaubwürdig.
Das ist ja auch gar nicht schlimm, und kann sich für den PC-Ableger von Navi auch sehr positiv auswirken.
Immerhin ist für die Konsolen der Fokus auf Gaming, was bei einigen anderen Chips von AMD davor nicht der Fall war.

Und Turing wurde als neue Architektur erstmals so auf der Siggraph vorgestellt, und nicht zuerst auf der Gamescom.
Wo hier für Nvidia der Fokus liegt ist doch ganz klar, ohne dass sie direkte Worte dazu finden müssen.

Und du bist eigentlich intelligent genug das selbst erkennen zu können.
Fragst du nach um mich zu ärgern? ^^
 
Die Gerüchte dazu das Navi exklusiv für Sony entwickelt wurde gibt es schon länger, und sie sind auch glaubwürdig.
Das ist ja auch gar nicht schlimm, und kann sich für den PC-Ableger von Navi auch sehr positiv auswirken.
Immerhin ist für die Konsolen der Fokus auf Gaming, was bei einigen anderen Chips von AMD davor nicht der Fall war.

Und Turing wurde als neue Architektur erstmals so auf der Siggraph vorgestellt, und nicht zuerst auf der Gamescom.
Wo hier für Nvidia der Fokus liegt ist doch ganz klar, ohne dass sie direkte Worte dazu finden müssen.

Und du bist eigentlich intelligent genug das selbst erkennen zu können.
Fragst du nach um mich zu ärgern? ^^
Ich habe es zuerst von Ashraf Eassa gelesen auf Twitter und es ging nicht darum das Navi exklusiv für Sony entwickelt wird, sondern das 2/3 von der RTG an Navi gearbeitet haben und um Sonys Wünsche zu erfüllen, während dem Projekt Vega deswegen Manpower gefehlt haben soll.
Ohne genaueren Kontext kann man mit der Aussage aber auch nicht viel anfangen, da man nicht weiß wie viele Leute von der RTG an Navi zu welcher Zeit gearbeitet haben.
Es waren sicherlich nicht von Heute auf Morgen 2/3 und immer konstant über die Zeit, genauso wie man nicht weiß welchen Aufwand AMD betreiben muss, um Sonys Wünsche zu erfüllen und was genau Sony eig. hinzugefügt haben möchte oder extra verbessert.

Pascal wurde auch zuerst als HPC-Produkt vorgestellt, war Pascal für Gamer etwa eine Ente und hat man sich mehr Liebe von Nvidia in der Hinsicht gewünscht?
Die Siggraph ist eine professionelle Veranstaltung und es passt zeitlich einfach sehr gut, weil die Themen Rendering, Raytracing und Ähnliches umfassen.
Am 20. August gibt es eine Geforce-Präsentation, dass ist eine Woche später.
Vielleicht sollte man danach sein Urteil fällen, welchen Fokus Nvidia zu haben scheint.
 
Bei Pascal gab es für eine neue Gen relativ wenig Änderungen zu Maxwell, was du auch selbst weißt.
Hier lag der Fokus auch nicht beim PC-Gaming, sondern auf reinen Profit, um mit möglichst wenig Aufwand maximalen Gewinn zu erreichen, besonders weil Nvidia auch wusste dass es von der einzig verbliebenen Konkurrenz kaum Gegenwehr gibt.

In den Gerüchten zu Navi hieß es auch, dass Su persönlich sich dafür eingesetzt hatte dass 2/3 der RTG dafür abgestellt werden, obwohl Koduri dass nicht wollte.
Und wenn bei Navi hauptsächlich die Wünsche von Sony umgesetzt wurden, kann man natürlich davon schreiben dass Navi für Sony entwickelt wurde.
Wortklauberei bringt hier niemand weiter.....
Das passt auch dann zu Koduris Entscheidung AMD zu verlassen, wenn er für Vega kaum Manpower hatte, und der CEO sich persönlich in seine Angelegenheiten einmischt.
Unterm Strich hatte er kaum noch etwas zu sagen, und diente nur als Sündenbock für dass gescheiterte Vega.

Nvidia hätte auch auf der Computex Turing vorstellen können, was die deutlich größere Fachmesse ist.
Und das Huang nicht zimperlich ist ein Holzmodell zu präsentieren, hatten wir davor schon öfter einmal.
Er hat sich gezielt für die Siggraph entschieden.
Abgesehen davon wird es nicht leicht werden RT auf den Geforce-Ablegern in der Hardware umzusetzen.
Die neuen Quadro-GPUs 6000 und 8000 sind echte Monster was Größe betrifft, und besitzen extra für RT viele Einheiten.
 
Zuletzt bearbeitet:
Bei Pascal gab es für eine neue Gen relativ wenig Änderungen zu Maxwell, was du auch selbst weißt.
Hier lag der Fokus auch nicht beim PC-Gaming, sondern auf reinen Profit, um mit möglichst wenig Aufwand maximalen Gewinn zu erreichen, besonders weil Nvidia auch wusste dass es von der einzig verbliebenen Konkurrenz kaum Gegenwehr gibt.

In den Gerüchten zu Navi hieß es auch, dass Su persönlich sich dafür eingesetzt hatte dass 2/3 der RTG dafür abgestellt werden, obwohl Koduri dass nicht wollte.
Und wenn bei Navi hauptsächlich die Wünsche von Sony umgesetzt wurden, kann man natürlich davon schreiben dass Navi für Sony entwickelt wurde.

Trotzdem stimmte ja die Leistung und die Arch Verbesserungen waren sinnig.
 
Und Turing wurde als neue Architektur erstmals so auf der Siggraph vorgestellt, und nicht zuerst auf der Gamescom.
Wo hier für Nvidia der Fokus liegt ist doch ganz klar, ohne dass sie direkte Worte dazu finden müssen.

die Quadros werden 7 Tage vor den Geforce vorgestellt ... die Welt geht unter

hätte es die Verzögerung nicht gegeben, wären die Geforce Modelle wohl eher dran gewesen
 
Ich habe meinen Post noch einmal ergänzt.
Mir ging es nicht um blöde 7 Tage.......
 
Bei Pascal gab es für eine neue Gen relativ wenig Änderungen zu Maxwell, was du auch selbst weißt.
Hier lag der Fokus auch nicht beim PC-Gaming, sondern auf reinen Profit, um mit möglichst wenig Aufwand maximalen Gewinn zu erreichen, besonders weil Nvidia auch wusste dass es von der einzig verbliebenen Konkurrenz kaum Gegenwehr gibt.

In den Gerüchten zu Navi hieß es auch, dass Su persönlich sich dafür eingesetzt hatte dass 2/3 der RTG dafür abgestellt werden, obwohl Koduri dass nicht wollte.
Und wenn bei Navi hauptsächlich die Wünsche von Sony umgesetzt wurden, kann man natürlich davon schreiben dass Navi für Sony entwickelt wurde.
Wortklauberei bringt hier niemand weiter.....
Das passt auch dann zu Koduris Entscheidung AMD zu verlassen, wenn er für Vega kaum Manpower hatte, und der CEO sich persönlich in seine Angelegenheiten einmischt.
Unterm Strich hatte er kaum noch etwas zu sagen, und diente nur als Sündenbock für dass gescheiterte Vega.
Und wann lag dann der Fokus auf PC-Gaming?
Ich meine woran erkenne ich das und wieso ist es jetzt eindeutig anders?

Und woher wusste Nvidia das von der verbliebenen Konkurrenz keine Gegenwehr kommen wird?
Falls Nvidia eine robuste Spionage bzw. Analyse der Konkurrenz durchgeführt hat, dann schätzen sich die Hersteller untereinander vermutlich halbwegs brauchbar ein, aber AMD hatte die Möglichkeit wieder einen größeren Schritt nach vorne zu machen.
Polaris ist auch nachdem ersten Pascal auf den Markt erschienen und laut ursprünglicher Planung sah AMD Vega Anfang 2017 vor.
Das AMD bei Polaris einen relativ geringen Fortschritt erzielt hat und Vega sich deutlich verspätet und auch die geplanten Ziele nicht erreicht hat, nun im Falle vom letzteren hat Nvidia wohl selber abschätzen können, wie es um HBM2 bestellt ist, aber ansonsten denke ich nicht das Nvidia Pascal als Abzockprodukt designed hat, mit dem reinem Gewissen das man die Konkurrenz gar nichts zu befürchten hat.

----

Es ist keine reine Wortklauberei auf die ich mich beziehe.
Es ist ein Gerücht, wo keine genauen Informationen vorliegen, wann, wie, wo, was.
Man weiß nicht wann die Leute von Vega zu Navi abgezogen worden sind und man weiß auch nicht wie viele Leute davon extra an Sonys Wünschen arbeiten müssen.
Navi war von Anfang an als Nachfolger von Vega geplant und wenn man nicht weiß welche Änderungen Sony haben möchte bzw. inwiefern sich das von den ursprünglichen Plänen unterscheidet, dann kann man auch nicht einfach sagen das Navi extra für Sony entwickelt worden ist.
Unter Umständen mag es wahr sein, möglicherweise auch nicht, möglicherweise teilweise ja, teilweise nein.
Von unserer Position aus gibt es nicht genügend Informationen, um zur jetzigen Zeit faktische Urteile auszusprechen.
 
Klingt zwar reizvoll, aber lässt nichts Gutes für die Preise der RTX 2080/2070 ahnen... (1000/800 Euro oder so in dem Dreh)

Hm wird dann wohl doch ne Sale oder Outlet 1080ti in ein paar Wochen oder Monaten... Schade
 
Es ist ein Gerücht, wo keine genauen Informationen vorliegen, wann, wie, wo, was.
Man weiß nicht wann die Leute von Vega zu Navi abgezogen worden sind und man weiß auch nicht wie viele Leute davon extra an Sonys Wünschen arbeiten müssen.
Du versteifst dich wieder auf Wortklauberei, was ich schon befürchtet habe.
Viele für uns interessante News sind reine Gerüchte geblieben in den letzten 20 Jahren IT-Geschichte.
Es gab noch NIEMALS 100% Transparenz, und wird es auch niemals geben, erst recht nicht mit Nvidias Null-Info-Politik seit einigen Jahren.

Mich unterscheidet nur das ich einige Gerüchte glaube, und daraus auch meine Position dazu ableite.
Das mache ich aber auch nur wenn sie halbwegs glaubhaft sind.
Und Koduris Entscheidungen passen nahtlos zu den Gerüchten, auch wie sich Vega entwickelt hatte.

Übrigens hatte ich in der Vergangenheit oft damit Recht.
Kannst du dich noch an unsere Treiberdiskussion zu Vega erinnern?
AMD hat das danach selbst zugegeben, dass Probleme mit den Treibern bestehen, selbst Monate nach dem Release von Vega.
Ich würde ja noch verstehen wenn wir streiten, wenn ich oft Unrecht haben, aber nicht so.
 
Zuletzt bearbeitet:
Integral ist Tessellation sicherlich nicht, über alle Spiele bezogen ist der prozentuale Anteil vermutlich unter 20% wenn nicht noch deutlich niedriger und dabei wird es meistens auch nur für Teile der Geometrie verwendet.
Battlefield und Mass Effect welche es für die Teile der Landschaft verwenden sind mir beinahe die einzig bekannten prominenten Beispiele im AAA-Bereich.
Liegt auch daran das die Tessellation-Spec einfach schlecht ist und teilweise auch so die Hardwareumsetzungen.
Hab mal meine Steam/Origin/Uplay Liste durchgeschaut:

Metro, Crysis 2&3, Mass Effect, Battlefield ab Bad Company 2, Tomb Raider 2013 & Rise of the Tomb Raider, The Witcher 3, Deus Ex und Rainbow 6 verwenden Tesselation. Mal mehr, mal weniger sichtbar, manchmal auch kontrovers um vermeintlich bestimmte Grafikkarten zu bremsen. Klar, über alle Spiele gemittelt macht das weniger als 20%, irgendwelche 2D Indie Jump&Runs werden wohl kaum Tesselation verwenden. Aber ich behaupte mal bei AAA-Spielen ist der Prozentsatz deutlich höher.

Und was meinst du überhaupt mit "nur für Teile der Geometrie"? Das ist doch der primäre Einsatzzweck! Schicke Haare sind natürlich auch toll, aber ursprünglich wurde Tesselation doch eingeführt um nicht mehr auf Krückenlösungen wie Parallax Mapping zurückgreifen zu müssen.
 
Zurück