Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor

Hab mal meine Steam/Origin/Uplay Liste durchgeschaut:

Metro, Crysis 2&3, Mass Effect, Battlefield ab Bad Company 2, Tomb Raider 2013 & Rise of the Tomb Raider, The Witcher 3, Deus Ex und Rainbow 6 verwenden Tesselation. Mal mehr, mal weniger sichtbar, manchmal auch kontrovers um vermeintlich bestimmte Grafikkarten zu bremsen. Klar, über alle Spiele gemittelt macht das weniger als 20%, irgendwelche 2D Indie Jump&Runs werden wohl kaum Tesselation verwenden. Aber ich behaupte mal bei AAA-Spielen ist der Prozentsatz deutlich höher.

Und was meinst du überhaupt mit "nur für Teile der Geometrie"? Das ist doch der primäre Einsatzzweck! Schicke Haare sind natürlich auch toll, aber ursprünglich wurde Tesselation doch eingeführt um nicht mehr auf Krückenlösungen wie Parallax Mapping zurückgreifen zu müssen.

Pro Jahr kommen deutlich über 3000 neue PC Spiele raus... selbst wenn alle AAA Spiele in 100% der Szenen Tessellation benutzen, wäre das noch immer nicht mal 1%.
Durch immer mehr prominente Beispiele bleiben diese Techniken mehr im Gedächtnis, aber es bleibt dennoch ein vergleichsweise kleiner Anteil an allen Spielen.
 
Pro Jahr kommen deutlich über 3000 neue PC Spiele raus... selbst wenn alle AAA Spiele in 100% der Szenen Tessellation benutzen, wäre das noch immer nicht mal 1%.
Durch immer mehr prominente Beispiele bleiben diese Techniken mehr im Gedächtnis, aber es bleibt dennoch ein vergleichsweise kleiner Anteil an allen Spielen.
Ja eben, das meine ich ja. Natürlich verwenden irgendwelche Tier 3 Spiele wie der Angel Simulator kein Tesselation, genauso wenig wie die Steamabzocker, die einfach Unity-Assets zu einer exe verpacken und das dann zehn mal auf Steam hochladen. Mit der gleichen Begründung könnte man sagen CGI in Filmen befindet sich noch in der Nische, denn knapp 0% aller jährlich auf Videoplattformen veröffentlichten "Filme" verwenden es.

Ich meinte schon die "großen" Spiele, genauso wie die meisten bei "Film" vermutlich zuerst an Hollywood denken, und nicht an Tante Emmas Strickanleitung auf Youtube.
 
[...]
Nvidia hätte auch auf der Computec Turing vorstellen können, was die deutlich größere Fachmesse ist.
Und das Huang nicht zimperlich ist ein Holzmodell zu präsentieren, hatten wir davor schon öfter einmal.
Er hat sich gezielt für die Siggraph entschieden.
Abgesehen davon wird es nicht leicht werden RT auf den Geforce-Ablegern in der Hardware umzusetzen.
Die neuen Quadro-GPUs 6000 und 8000 sind echte Monster was Größe betrifft, und besitzen extra für RT viele Einheiten.
Das sind jetzt aber eine Menge hypothetische Ideen.
Du meinst vermutlich die Computex, welche im Juni stattfand, dafür müsste es handfeste Gründe geben, wieso Nvidia extra den Launch verschoben haben soll, nur damit man zuerst auf der Siggraph Profi-Lösungen präsentieren kann?
Das ergibt für dich Sinn?

Auch das er einfach eine Holzpuppe zeigen könnte, was bei Fermi verschmäht wurde, weil wenn man es einmal getan hat, was schadet schon ein zweites mal?

Nvidia hat laut dem Datenblättern zwei unterschiedliche Chips mit RT-Cores, einmal vermutlich der GT102 als >700mm² Koloss und einmal der GT104, wo es noch keine Größenangaben gibt.
Beide wird Nvidia sehr wahrscheinlich für Gamer umsetzen, den ersten vielleicht erst später und/oder massiv beschnitten oder eben für eine sehr hohe Summe.
Nvidia geniert sich auch nicht Volta als TitanV für >3000$ zu verkaufen.
Wir erfahren es wahrscheinlich in einer Woche, wie Nvidia es umsetzen wird.

Du versteifst dich wieder auf Wortklauberei, was ich schon befürchtet habe.
Viele für uns interessante News sind reine Gerüchte geblieben in den letzten 20 Jahren IT-Geschichte.
Es gab noch NIEMALS 100% Transparenz, und wird es auch niemals geben, erst recht nicht mit Nvidias Null-Info-Politik seit einigen Jahren.

Mich unterscheidet nur das ich einige Gerüchte glaube, und daraus auch meine Position dazu ableite.
Das mache ich aber auch nur wenn sie halbwegs glaubhaft sind.
Und Koduris Entscheidungen passen nahtlos zu den Gerüchten, auch wie sich Vega entwickelt hatte.

Übrigens hatte ich in der Vergangenheit oft damit Recht.
Kannst du dich noch an unsere Treiberdiskussion zu Vega erinnern?
AMD hat das danach selbst zugegeben, dass Probleme mit den Treibern bestehen, selbst Monate nach dem Release von Vega.
Ich würde ja noch verstehen wenn wir streiten, wenn ich oft Unrecht haben, aber nicht so.
Ich setze persönlich gerne einen höheren Standard, als aus einer nicht verifizierbaren Quelle mit sehr wenig Hintergrundinfos pauschal Urteile zu predigen.
Ausgehend von dem Tatbestand ist es dann ziemlich nah an einem Ratespiel, ob da irgendwann mal, irgendwo etwas als wahr herausstellt.

Ich erinnere mich an folgendes Schema bezüglich der Treiberdiskussion, du kannst mich natürlich jeder Zeit korrigieren.
Koduri meinte das Vega sehr unterschiedlich gegenüber der alten Generation ausfällt und das Treiberteam eine Menge Arbeit vor sich hat, darauf hast du dich gerne bezogen und selber den DSBR vermutet und in der Tat scheint AMD die Treiber nicht weit genug entwickelt zu haben, denn eine Frontiers Edition wurde als Alibi Produkt gelaunched um das versprochene Zeitfenster einzuhalten, wo der DSBR noch nicht aktiviert war, ebenso war das Power-Management noch nicht fertig implementiert.
Zum Launch der Vega64/56 war dagegen alles* aktiviert und entgegen meiner Vorstellung, dass AMD die neuen Features weiter optimieren wird hat sich glaube ich einem Treibertest (CB?) nach einigen Monaten gar nichts bis wenig getan.

*Außer Primitive Shader, die für AMD eine gegessene Sache zu sein scheinen.

Hab mal meine Steam/Origin/Uplay Liste durchgeschaut:

Metro, Crysis 2&3, Mass Effect, Battlefield ab Bad Company 2, Tomb Raider 2013 & Rise of the Tomb Raider, The Witcher 3, Deus Ex und Rainbow 6 verwenden Tesselation. Mal mehr, mal weniger sichtbar, manchmal auch kontrovers um vermeintlich bestimmte Grafikkarten zu bremsen. Klar, über alle Spiele gemittelt macht das weniger als 20%, irgendwelche 2D Indie Jump&Runs werden wohl kaum Tesselation verwenden. Aber ich behaupte mal bei AAA-Spielen ist der Prozentsatz deutlich höher.

Und was meinst du überhaupt mit "nur für Teile der Geometrie"? Das ist doch der primäre Einsatzzweck! Schicke Haare sind natürlich auch toll, aber ursprünglich wurde Tesselation doch eingeführt um nicht mehr auf Krückenlösungen wie Parallax Mapping zurückgreifen zu müssen.
Tessellation hat theoretisch einen extrem breit gefächerten Einsatzbereich, weit mehr als nur eine bessere Alternative für Parallax Mapping darzustellen, da man jede Form von Geometrie nachträglich erweitern kann, aber du siehst Tessellation in fast keinem Spiel, wo es einen integralen Bestandteil der Content-Creation-Pipeline darstellt und für eine vielzahl an unterschiedlicher Geometrie und Effekten verwendet wird.
In den genannten Spielen wird Tessellation arg selektiv für unterschiedliche Bereich eingesetzt, aus unterschiedlichen Gründen.
Die Performance gibt mehr nicht her und zum anderem muss man aufpassen das keine Cracks entstehen, bei Bewegung die Geometrie nicht wobbelt und die zusätzliche Geometrie optisch passt, weswegen bei der Content-Erstellung man darauf achten muss.
Viele Entwickler wünschen sich an der Stelle eine programmierbare Geometry-Pipeline und eine bessere Kontrolle über die Erstellung und Kompression von Geometrie, was die bisherige Spec einfach ungenügend umsetzt.
In eine ähnliche Kerbe schlagen Geometry-Shader aus der DX10-Zeit, für einen breiten Praxiseinsatz sucked die Spec einfach, vor allem für Architekturen, welche breite Threadgroups verwenden, sprich Nvidia und vor allem AMD.

Primitive Shader von Vega10 scheinen ein Konzept zu sein, welches die Bedürfnisse direkt befriedigt und auch Turing scheint bezüglich der Programmierbarkeit etwas Neues zu haben.
Das Thema ist hoffentlich nicht vom Tisch und zukünftige DX12/Vulkan-Versionen bieten vielleicht ein API-Update an und bieten eine neue logische Geometrie-Pipeline an, mit weniger Nachteilen und mehr Kontrolle.
 
Aufgrund der aktuellen Ankündigung kann man bei der RTX2080 auf welche Geschwindigkeit schließen?
Turing scheint ja doch um einiges schneller zu sein als erwartet.
Ich denke die "2" in 2080 steht für die doppelte Geschwindigkeit zur GTX1080, also +100%.
 
Aufgrund der aktuellen Ankündigung kann man bei der RTX2080 auf welche Geschwindigkeit schließen?
Turing scheint ja doch um einiges schneller zu sein als erwartet.

Man kann auf gar nichts schließen.
Ist es überhaupt sicher, dass Turing auch die Generation für Gamer ist?, war nicht das Gerücht in der Luft, dass man Turing und Ampere bringt? Denn dadurch, dass auch Tensor Cores dabei sind löst Turing ja auch Volta ab, auch, wenn es weniger Shader hat.
 
Das sind jetzt aber eine Menge hypothetische Ideen.
Du meinst vermutlich die Computex, welche im Juni stattfand......
Auch das er einfach eine Holzpuppe zeigen könnte, was bei Fermi verschmäht wurde, weil wenn man es einmal getan hat, was schadet schon ein zweites mal?

Ausgehend von dem Tatbestand ist es dann ziemlich nah an einem Ratespiel, ob da irgendwann mal, irgendwo etwas als wahr herausstellt.

Ich erinnere mich an folgendes Schema bezüglich der Treiberdiskussion, du kannst mich natürlich jeder Zeit korrigieren.
Natürlich meinte ich die Computex. Das war wieder einmal ein Schreibfehler, den ich korrigiert habe.
So eine "Holzpuppe" hatte Huang öfter gezeigt. Deshalb nannte ich auch das Bsp., weil Huang kein Problem bisher damit hatte.
Turing hätte also auch auf den viel wichtigeren Computex von Nvidia vorgestellt werden können, und nicht auf der Siggraph.

Und das das hier oft ein Ratespiel ist, weil es zu wenige Infos gibt, ist eigentlich normal.
Wenn du das anders in Erinnerung hast, stimmt dass so nicht.
Gerade in der IT-Branche gibt es viel Geheimniskrämerei.

Beim Thema Treiber hatte ich noch vor dem Release von Vega geschrieben, dass ich vermute dass die Treiberpflege für Vega länger dauern wird, und auf Maxwell verwiesen wo Nvidia auch länger brauchte.
Du hattest noch nachgefragt warum dass länger als "normal" dauern sollte.

Bei derart viel neuen Features wie bei Vega hatte ich das schon selbst erkannt, dass AMD entsprechend viel Zeit brauchen wird, du nicht.
Und es kam genau so wie ich vermutet hatte, so gar noch etwas schlimmer bei Vega.
AMD tat sich sehr schwer die Treiber zu optimieren, selbst Monate nach Release.

Das war jetzt aber nicht das einzigste Bsp. wo ich nur Gerüchte für eine eigene Einschätzung hatte, und trotzdem richtig lag.
Es geht halt nicht anders wenn es wieder einmal keine Infos gibt.
Leo macht das übrigens viel länger als ich im 3dcenter, seit über 20 Jahren, und lag oft damit richtig.
 
Zuletzt bearbeitet:
Dann eröffne doch einfach eine Glaskugelfabrik, oder steh Nvidia und AMD beratend zur Seite, wenn du alles voraussagen kannst.
 
Ganz im Gegenteil, dass was die neuen GPUs für Raytracing interessant macht, ist auch für die Miner sehr wichtig.
Diese GPUs haben damit auch fürs Mining große Vorteile, und werden mit Sicherheit gekauft wenn es sich rechnet.

Dann eröffne doch einfach eine Glaskugelfabrik, oder steh Nvidia und AMD beratend zur Seite, wenn du alles voraussagen kannst.
Glaskugelthemen hatten wir hier mehr als genug.
Teilweise haben sich die User, zu Recht, schon darüber beklagt.
Und wenn du Glaskugelthemen nicht magst, was du andeutest, kannst du PCGH gleich völlig vergessen.
Weit über die Hälfte aller News besteht aus Gerüchten und Spekulationen, und nur ganz selten aus Fakten.
Bei CB, 3dcenter, Tom´s Hardware, u.s.w. sieht dass übrigens nicht viel anders aus. ^^
 
Den großen Chip gibt es eh erst mal nicht für Spieler.

sagt wer?

Titan Brand vergessen?

Ganz im Gegenteil, dass was die neuen GPUs für Raytracing interessant macht, ist auch für die Miner sehr wichtig.
nein denn die Tensor Units sind mit 8 Bit zu ungenau für den Mining Irsinn gut so!!
Was für den AI Denoiser funktioniert , ist Gott sei dank unpraktikabel für diese Typen
Der Rotz soll endlich in der Gosse verschwinden wo er herkam

Das Geschmeiß braucht immer noch einfache Genauigkeit, und da setzt Turing keine signifikante Erhöhung ins Feld, zwar wird es den einen oder anderen Run geben , wegen der gestiegenen Effizienz, aber setzt sich der Abwärtsztrend an der Coin Börse so fort wie bisher, ist Turing dort auch bald uninteressant, weil die Amortisierung zu lange dauert
 
Zuletzt bearbeitet:
Langsam bekomme ich auch den Eindruck das für Nvidia die Geforce-Sparte nicht mehr so wichtig ist, und man sich lieber auf die anderen Sparten konzentriert.
Lol, was? 60% des Umsatzes kommen von der Gamingsparte bei Nvidia, Tendenz steigend.
Deshalb hat man auch die Siggraph als Bühne für die neue Architektur genommen, die sich ja nicht an PC-Gamer richtet, sondern ganz andere Kundschaft hat.
Das sind Quadro Karten, die Geforcekarten wird man immer in einer Spielemesse wie der Gamescom oder einer eigenen Messe vorstellen.
 
Seit wann macht es denn Sinn eine max übertaktete Grafikkarte mit einer Grafikkarte bei Standard Taktfrequenzen zu Vergleichen? Der riesige GV100 hat doch schon gezeigt, daß sich dieser 12nm Chip an die 2GHz takten lässt. Dann dürfte das sicherlich auch auf den GT102 zutreffen. Womit der Vorsprung zu einem OC GP102 gewahrt bleibt.

Nun, ich denke, es ergibt schon in sofern Sinn als sich darin zeigt, wie (rein rechnerisch und ohne eventuelle Energieersparnisse gesehen) gering der Vorsprung der neuen Kart wäre.

Ich zumindest würde mir kein neues Top Produkt kaufen, bei dem ich gleich an der Taktschraube drehen muss um die vorangegangene Generation auf Abstand halten zu können.

Das ist freilich alles nur Theorie; denn es handelt ist bei der Quadro RTX Turing eben um eine Karte für spezielle Aufgaben.

Heißt also schlicht abwarten uns schauen was bei den Consumern ankommt.

Grüße

phila
 
Seit wann macht es denn Sinn eine max übertaktete Grafikkarte mit einer Grafikkarte bei Standard Taktfrequenzen zu Vergleichen? Der riesige GV100 hat doch schon gezeigt, daß sich dieser 12nm Chip an die 2GHz takten lässt. Dann dürfte das sicherlich auch auf den GT102 zutreffen. Womit der Vorsprung zu einem OC GP102 gewahrt bleibt.

nicht nur zutreffen ,die RTX Quadro zeigt schon das Nvidia ordentlich an der Taktschraube gedreht hat, bei der neuen Turing Architektur

Ein Gamer salvage GT102 könnte diese gezeigten Quadro Werte also genauso pulverisieren , denn er muss ja nicht auf Zero Error ausgelegt werden, wie die Profikarten die mit sicheren Frequenzen für den produktiven Einsatz laufen

Auch GP102 als GTX /Titan (Resteverwertung) war dem Quadro Vollausbau "mindestens" ebenbürtig, gibt also keinen Grund hier nicht auch das selbe zu erwarten, für die Zockerkarten
 
Man sieht bereits an den Tflops das da nicht viel am Takt gedreht wurde.

Hohen Takt werden die Geforce Modelle haben.
Das 5120 Shader Modell hätte mit 2 Ghz, was Pascal ja problemlos erreicht bereits 20,5 Teraflops.

Die Quadro Karten haben immer einen niedrigen Takt.

Außerdem ist womöglich die Effizienz um einiges besser, also die FPS/Teraflops.

Die ist ja gerade bei AMD Karten eine Katastrophe, wenn eine Vega 64 mit 13 Teraflops einer 10 Teraflops GTX 1080 unterliegt.
 
@Gurdi
aha hast du mal die Ausführungseinheiten in Relation zum Takt gestellt:ugly:

da ist unbestreitbar an der Taktschraube gedreht wurden bei Turing, und das nicht zu knapp, um aus 12nm+ die benötigte Leistung zu quetschen, ohne das DIE Limit zu sprengen

Oder das Volta Monster dazu ins Verhältnis gebracht, ergibt das selbe Resultat das Nvidia hier eine hochtaktende Architektur gebaut hat, die sich aber trotz allem bei der Effizienz keine Blöße gibt (Bulldozer anywhere ...)

Man fragt sich eher wie sie die Leckströme so gut in den Griff bekommen haben, für die verbauten Transistoren, das sie Pascal/Volta ,nochmals so deutlich abhängen konnten,im fast unveränderten TSMC Prozess

Das Maximum was geht, verpackt in 12nm+

Und nächstes Jahr die Neuauflage in 7nm mit noch höheren Frequenzen???, und oder mehr Units, je nachdem, was mehr Sinn ergibt...
 
Zuletzt bearbeitet:
Zurück