Nvidia Turing: Erstmals auf der Hot Chips ein Thema?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Turing: Erstmals auf der Hot Chips ein Thema?

Nvidia Turing könnte auf der Hot Chips erstmals ein Thema werden. Turing ist der Codename, so nimmt man es derzeit an, für die kommenden Mainstream-Grafikkarten, die mutmaßlich im vierten Quartal 2018 starrten sollen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Turing: Erstmals auf der Hot Chips ein Thema?
 
Oh schon im August....das ist ja früh.
Dafür dass einige hier schon im April mit der neuen Gen gerechnet hatten....
 
Da weder der Name der Chips, noch der Serie (11, 20 oder was ganz anderes) abzusehen ist, kann man nur abwarten.

Einzig, dass AMD s miese Werbung scheinbar mit Volta (zumindest aus Sicht eines Gamers) mit "poor" Recht hatte, ist irgendwie witzig, selbst wenn nV-Fans verdient auf Kosten der Radeons lachen können...
 
Wie ist das mit der GTX1150, kam die GTX1050 auch erst einige Monate später oder sogar erst 1 Jahr später nach GTX1070/80?
 
Die neuen Nvidia Gamer-Grafikkarten kommen höchstwahrscheinlich, gegebenenfalls und eventuell oder doch schon früher ....
=> evtl. sind die im Juni bereits weltweit angekündigt & im Juli schon auf dem Markt! ;o)

Denn jeder kann es so schreiben wie er will, auch PCGH für 1000' weiter 'Clickbait' Artikel
>>> Turing: Nvidia bespricht nachste Grafikkartengeneration im August - Golem.de

"Für Turing passt das, denn bisherige Meldungen sprechen für einen Marktstart im Juli oder August, zumal kurz vor der Hot Chips die Grafikkonferenz Siggraph stattfindet.
Dort wird Nvidia aller Wahrscheinlichkeit nach die Quadro-Modelle mit Turing-Architektur vorstellen, die Geforce-Ableger erscheinen üblicherweise vorher."
 
Wirst sehen .... Nvidia wird AMD, dank der neuen Nvidia "RTX™ Technology" mit vielen tollen CGI Real-Time Ray Tracing Effekten in Games, endgültig den Rang ablaufen .... bald!

EOL aller AMD GPU Produkte, da total ineffizient & stromhungrig für 2018 Produkte:

AMD Polaris - EOL
AMD Vega - EOL

Volta Next-Gen 'Tensor-Cores' forever!
 
Zuletzt bearbeitet:
Da weder der Name der Chips, noch der Serie (11, 20 oder was ganz anderes) abzusehen ist, kann man nur abwarten.

Einzig, dass AMD s miese Werbung scheinbar mit Volta (zumindest aus Sicht eines Gamers) mit "poor" Recht hatte, ist irgendwie witzig, selbst wenn nV-Fans verdient auf Kosten der Radeons lachen können...

Ähm, inwiefern hatte AMD damit recht? Der GV100 klatscht immer noch jeden anderen Chip von Nvidia oder AMD gegen die Wand.
 
Ähm, inwiefern hatte AMD damit recht? Der GV100 klatscht immer noch jeden anderen Chip von Nvidia oder AMD gegen die Wand.

Jepp, aber nur wegen der hohen Kernzahl und damit der unglaublichen Chipgröße.
Die Tensor Kerne tragen ihren Teil dazu bei... immerhin ist Matrixmultiplikation ein ziemlich häufiger Fall - auch im Gaming.
 
Zuletzt bearbeitet:
Schade, dass sich Nvidia so versteckt und keine Infos mehr herausgibt. Mir kommt es so vor, als würde Nvidia auf die Produkte von AMD abwarten und ggf. Kontern.

Die Marktsituation und -Entwicklung ist aus Consumer-Sicht total unbefriedigend.

Wirklich Schade...
 
Jepp, aber nut wegen der hohen Kernzahl und damit der unglaublichen Chipgröße.
Die Tensor Kerne tragen ihren Teil dazu bei... immerhin ist Matrixmultiplikation ein ziemlich häufiger Fall - auch im Gaming.

Es ist doch egal wie man an sein Ziel kommt, denn schaden tut diese Art und Weise nicht.

Schade, dass sich Nvidia so versteckt und keine Infos mehr herausgibt. Mir kommt es so vor, als würde Nvidia auf die Produkte von AMD abwarten und ggf. Kontern.

Die Marktsituation und -Entwicklung ist aus Consumer-Sicht total unbefriedigend.

Wirklich Schade...

Zum Kontern würde Nvidia nicht einmal eine neue Generation benötigen, der GP100 würde alles problemlos schlagen, was AMD in kurzer Zeit bringen könnte.
 
Stromhungrig? RX Vega in den Ryzen M und Ryzen 2000G scheint mir ziemlich sparsam^^ und diese APUs gehen definitiv nicht EOL.

Und die reinen Polaris und Vega-GPUs gehen auch erst EOL wenn da Nachfolger anstehen. Warum soll AMD es nicht ausnutzen das Nvidia erst nur die teuren GTX xx70 und xx80 auflegt und die Modelle drunter erst 4 oder 8 monate später kommen? Solange hat Polaris freie fahrt. Außerdem sind die nun bei weutem nicht so Katastrophal vom verbrauch her wie die 390er-Reihe.

Und wegen Raytracing: Das wird bei Nvidia in der xx60-Klasse und drunter zu viel Performance fressen und ist daher nicht Entscheidungsrelevant in dem Preisbereich.
 
Schade, dass sich Nvidia so versteckt und keine Infos mehr herausgibt. Mir kommt es so vor, als würde Nvidia auf die Produkte von AMD abwarten und ggf. Kontern.

Die Marktsituation und -Entwicklung ist aus Consumer-Sicht total unbefriedigend.

Wirklich Schade...

Jein. Ich möchte nicht abstreiten, dass zeitweise ein Konter erfolgt (wie bei der 1070Ti zu vermuten war), doch ich möchte auf etwas anderes hinaus. Der markierte Satz ist eigentlich die Grundmaxime jedweder Kommunikationspolitik einer Firma, erst DANN Informationen zu neuen Produkten/Dienstleistungen heraus zu geben, wenn man es zum Stichtag X für richtig hält. Umso erstaunlicher ist es, dass bisher kaum/keine Leaks zustande kamen. Blizzard zum Beispiel ist Meister in der Informationspolitik, die gerade so viel sukzessive veröffentlichen oder anteasern, um die Erwartungshaltung hochzuhalten, ohne gleichzeitig zu viel zu verraten und Interpretationsspielraum zu halten.

Im Gegensatz zu CPUs sind ja die Leistungen von GPUs und die später damit verbauten Grafikkarten in ihrem Leistungszuwachs unmittelbar zu erfahren, weshalb hier der Bedarf an einem Leistungsplus (und oder eine Reduzierung der Leistungsaufnahme bei gleicher Leistung im mobilen Bereich) stets vorhanden ist. Einzig das preisliche "Unter Druck setzen" kommt die letzten Jahre etwas zu kurz und könnte sich noch weiter verschärfen...
 
Es ist doch egal wie man an sein Ziel kommt, denn schaden tut diese Art und Weise nicht.

Der GV100 ist für Endkunden vollkommen ungeeignet.
Viel zu teuer in der Produktion mit viel zu geringer Ausbeute.
Da der GV100 ansonsten keine Sprünge macht, ist Volta nur mit Implementierung von Tensor Kernen für Raytracing und andere Spezialaufgaben ein Schritt nach vorn.
Und damit ist Volta eben keine besonders "heilsbringende" Architektur, sondern schlicht Pascal + Tensor Kerne + andere Anbindung an die CPU.
Volta ist genauso gut wie Pascal - Maxwell 3.0.
Das ist ja nichts schlechtes, nur eben kein Sprung, der irgendeinen Wert für aktuelle Spieler hat.
Die Tensor Kerne werden hauptsächlich interessant, wenn sich Nvidias RTX Technologie mehr verbreitet hat - also in 3-5 Jahren, wenn mehr als eine Handvoll Leuchtturm-Spiele mit der Technologie erschienen sind.
Laut Aussage einiger Entwickler brauchen GPUs für Raytracing auch "nur" noch 10 GF Mehr an Rechenleistung.. also von ca. 12 TF einer Titan Xp auf 21-23 TF.
Das klappt natürlich locker in einer Generation... - sofern man die Spezialleistung der Tensor Kerne mit einrechnet und damit wieder deutlich größere Chips baut, die dann für Endkunden deutlich teurer werden, da die Ausbeute viel geringer ist.
 
Der GV100 ist für Endkunden vollkommen ungeeignet.
Viel zu teuer in der Produktion mit viel zu geringer Ausbeute.
Da der GV100 ansonsten keine Sprünge macht, ist Volta nur mit Implementierung von Tensor Kernen für Raytracing und andere Spezialaufgaben ein Schritt nach vorn.
Und damit ist Volta eben keine besonders "heilsbringende" Architektur, sondern schlicht Pascal + Tensor Kerne + andere Anbindung an die CPU.
Volta ist genauso gut wie Pascal - Maxwell 3.0.
Das ist ja nichts schlechtes, nur eben kein Sprung, der irgendeinen Wert für aktuelle Spieler hat.
Japp, sehe ich auch so.
Die Tensor Kerne werden hauptsächlich interessant, wenn sich Nvidias RTX Technologie mehr verbreitet hat - also in 3-5 Jahren, wenn mehr als eine Handvoll Leuchtturm-Spiele mit der Technologie erschienen sind.
Die Tensorkerne sind mitnichten für Spiele gedacht. Sie sollen vielmehr eine Alternative für Googles AI-Hardware oder andere Mitbewerbe sein. Die GPU ist dabei fast schon Ballast, weil zu allgemein gehalten. Es geht eher um eine Zweitverwertung, denn die Gamer sind immer noch nVidias Haupteinnahmequelle und das wollen sie gern ändern.
Laut Aussage einiger Entwickler brauchen GPUs für Raytracing auch "nur" noch 10 GF Mehr an Rechenleistung.. also von ca. 12 TF einer Titan Xp auf 21-23 TF.
Das klappt natürlich locker in einer Generation... - sofern man die Spezialleistung der Tensor Kerne mit einrechnet und damit wieder deutlich größere Chips baut, die dann für Endkunden deutlich teurer werden, da die Ausbeute viel geringer ist.

In einer Generation? Die jetzige 32Bit-Leistung reicht dafür noch lange nicht aus. Viel besser wäre es. GPUs anders zu designen, so daß sie eben nicht mehr für Rasterizing sondern für Raytracing geeignet sind. Einen ähnlichen Umschwung gab es nach der Einführung der Voodookarten.
 
Zurück