Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Also wer da noch ein langes Gesicht macht wenn neue Hardware schneller ist als seine (ggf. teure) alte was absolut unweigerlich immer so kommen wird dem ist nicht mehr zu helfen. :ugly:

So langsam wie das heute passiert (10% pro Generation bei CPUs und vielleicht 30-40% pro Generation bei GPUs) lacht man sich als älterer Nerd schon fast kaputt. Als ich angefangen habe Hardware zu kaufen kam alle 6-12 Monate ne neue CPU/GPU raus die die alte um Faktor 2-3 weggehauen hat^^

Und jetzt? Ich hab 2014 ne CPU gekauft die erst 2,5 Jahre später für den halben Preis knapp geschlagen wird (1800er Ryzen). 2,5 Jahre!!
Und die Grafikkarte ist jetzt auch schon über ein halbes Jahr alt und es ist nichts nennenswert schnelleres zu sehen. Sowas war vor 10 oder gar 20 Jahren undenkbar.
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Diesmal glaube ichs noch nicht - beim letzten Mal kam ein SEHR viel besserer Fertigungsprozess ins Spiel von Maxwell auf Pascal (28 --> 14nm sind zwei generationen da 20nm übersprungen wurde und wir ewig auf 28nm festsaßen), daher war eine große Steigerung bei quasi unveränderter Architektur möglich (Pascal ist normiert auf Takt und Shadereinheiten keinen Millimeter schneller als Maxwell).

Da jetzt kein neuer Prozess ansteht sondern nur ein ausgereifterer 16nm - ob man den jetzt 12nm oder noch Beispiel von Intel "16+" nennt ist egal - muss NVidia die Mehrleistung nahezu ausschließlich aus der neuen Architektur ziehen. Da würde ich vielleicht 20-30% als optimistisches/realistisches Ziel anpeilen, vielleicht noch 5-10% mehr Takt durch den besseren Prozess.

Wenn ein GV104 (alias sagen wir GTX1180) weil der Prozess nicht kleiner geworden ist wieder über 2560 Shadereinheiten verfügt müsste man schon sehr sehr gut dabei sein mit der Architektur und dem Takt um eine 3584-Shader-1080Ti einzufangen.

Ich sehe dafür drei Möglichkeiten dass das klappt:
1.) Die Volta-Architektur ist 30+ % schneller als Pascal (unwahrscheinlich für mich).
2.) Der 12nm erlaubt nochmal deutlich höhere Taktraten, sprich etwa GTX1180 mit 2 GHz Basistakt und 2,2+ GHz Boost ab Werk.
3.) NV vergrößert den GV104-Chip gegenüber dem GP104 auf 3072 Shader.

tja, das is halt die Frage ... wieviel kann NV aus ner neuen Arch rausholen

seit wann is die in Plannung? 4 Jahre? da sollte ja schon was gehen

wenn NV wieder ähnlich fähert wie in den letzten Gens dann müsste es ja ungefähr so sein:

GV102=max; GV104=0,66*max; GV106=0,33*max

wenn GV104 dann ~400mm² mit ~3000 Shadern, ~2,2GHz und 1,2*Pascal wäre das ja schon besser als die 1080Ti
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

@Alk; gut, dass diese Zeiten vorbei sind.
Anfang 2014 einen E3-1230v3+270X 2GB gekauft und dann vor kurzem mit ner 470X 8GB ersetzt.
Ganz ehrlich, mehr brauch ich nicht und hab wieder für 3 Jahre Ruhe und kann alles auf Hoch spielen.
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

@Alk; gut, dass diese Zeiten vorbei sind.
Anfang 2014 einen E3-1230v3+270X 2GB gekauft und dann vor kurzem mit ner 470X 8GB ersetzt.
Ganz ehrlich, mehr brauch ich nicht und hab wieder für 3 Jahre Ruhe und kann alles auf Hoch spielen.

sei froh, dass du kein 120Hz/FpS Junkie bist ^^
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

wenn GV104 dann ~400mm² mit ~3000 Shadern, ~2,2GHz und 1,2*Pascal wäre das ja schon besser als die 1080Ti

Dann ja - ich sehe NV aber nicht ansatzweise so in Bedrängnis dass sie den GV104 auf 400 teure mm^2 aufblähen müssten. Wieso? Wegen Vega? Den schlagen sie leider wahrscheinlich auch so und mit dem GV102 erst Recht wenn AMD nicht ne Bombe platzen lässt.
Ich denke da wird alles über Architektur und Takt gemacht. Chips größer zu machen ist teuer und senkt den Gewinn. Das wird nur gemacht wenns nicht anders geht (etwa bei Fermi als AMD konkurrenzfähig im High-End war - da gabs nen 530 mm^2 großen Vollausbau für 500€).
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Also wer da noch ein langes Gesicht macht wenn neue Hardware schneller ist als seine (ggf. teure) alte was absolut unweigerlich immer so kommen wird dem ist nicht mehr zu helfen. :ugly:

So langsam wie das heute passiert (10% pro Generation bei CPUs und vielleicht 30-40% pro Generation bei GPUs) lacht man sich als älterer Nerd schon fast kaputt. Als ich angefangen habe Hardware zu kaufen kam alle 6-12 Monate ne neue CPU/GPU raus die die alte um Faktor 2-3 weggehauen hat^^

Und jetzt? Ich hab 2014 ne CPU gekauft die erst 2,5 Jahre später für den halben Preis knapp geschlagen wird (1800er Ryzen). 2,5 Jahre!!
Und die Grafikkarte ist jetzt auch schon über ein halbes Jahr alt und es ist nichts nennenswert schnelleres zu sehen. Sowas war vor 10 oder gar 20 Jahren undenkbar.

Früher war ja auch noch die Grafik der Spiele deutlich hässlicher und somit wurde es immer mehr unerlässlicher größere Sprünge pro Generation zu wagen. Ich meine, die Spiele machen jetzt auch schon nicht länger mehr die großen grafischen Sprünge. Vielleicht ist einfach technisch gesehen das Limit erreicht was so aktuell möglich ist. AMD bringt aktuell praktisch aller-höchstens nur Mittelklassenkarten heraus. Früher wäre das auch undenkbar gewesen. Die PCs müssen sich wohl nach den Konsolen richten, denn dort wird der Marktwert hauptsächlich bestimmt, inklusive der Grafik. Hier und dort sind bessere und höhere Auflösungen auf den PC möglich und man hat ab und zu ein paar nette (teure) Gameworkseffekte als Nvidia-Besitzer. Aber das wars im großen und ganzen schon.
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Früher war ja auch noch die Grafik der Spiele deutlich hässlicher und somit wurde es immer mehr unerlässlicher größere Sprünge pro Generation zu wagen.

Es geht nicht darum was gewagt wird sondern was technisch möglich ist. Je fortgeschrittener eine Technik ist desto kleiner werden die möglichen Verbesserungen pro Zeitabschnitt nunmal. Es ist nicht so dass NV keine Karte bauen will oder sich trauen würde die 3x so schnell wie ne 1080Ti ist - sie können es schlichtweg nicht (mehr).

Früher war ja auch noch die Grafik der Spiele deutlich hässlicher und somit wurde es immer mehr unerlässlicher größere Sprünge pro Generation zu wagen. Ich meine, die Spiele machen jetzt auch schon nicht länger mehr die großen grafischen Sprünge. Vielleicht ist einfach technisch gesehen das Limit erreicht was so aktuell möglich ist.
Das ist eine Täuschung die dein Wahrnehmungsapparat dir beibringt.
Folgendes: Wenn Lara Croft mit 500 Polygonen dargestellt wird sieht das für dich schwer hässlich/eckig aus. Eine Steigerung um Faktor 10 ist eine extreme Qualitätsverbesserung, denn jetzt werden Dinge runder die... naja bei Frau Croft rund sein sollten (:haha:). Nochmal Faktor 10 (gleiche "Leistungssteigerung") bringt noch was aber weniger, denn der Unterschied von 5000 zu 50.000 Polygonen ist nicht mehr groß sichtbar. Wer jetzt nochmal Faktor 10 drauflegt erkennt kaum noch einen Unterschied.

An der Stelle sind wir schon seit Jahren angekommen - die letzte Zeit wird Leistung mehr in fps gesteckt (früher waren 25 fps "flüssig", jetzt gehen wir auf 144 zu) und in Auflösung (früher war 1280x1024 extrem hochauflösend bei Spielen, jetzt sind wir bei 4K). Und auch hier naht der Moment wo es nichts mehr praktisch bringt - denn ob 120 oder 240 oder 480fps ist bis auf wenige Spezialfälle egal und an einem normal großen TFT siehste auch den Unterschied zwischen 4K und 8K nicht wirklich.

Dass Spiele nicht mehr schöner werden liegt nicht daran dass ein technisches Limit erreicht wäre sondern daran, dass technisch gleich starke Verbesserungen dem Menschen immer weniger auffallen wenn die Ausgangsposition schon sehr gut ist.
Provokant ausgedrückt: Ob du 5 oder 50 Bier kalt hast wenn ne Handvoll Leute zu Besuch kommen ist ein gewaltiger Unterschied. Obs 50 oder 500 sind ist dagegen egal. :fresse:
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Ich pflichte Incredible Alk bei, momentan kannste nur Produktoptimierung betreiben, siehe Intel.
Aber große Sprünge erwarte ich nicht mehr, auch nicht bei AMD oder Intel oder NVidia.

Selbst beim Chipsatz wird nur Optimierungen betrieben, da kommt auch kaum was großes neues hinzu.

Mal schauen, aber ich vermute mein I7 bleibt mir noch lange erhalten :D
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Es geht nicht darum was gewagt wird sondern was technisch möglich ist. Je fortgeschrittener eine Technik ist desto kleiner werden die möglichen Verbesserungen pro Zeitabschnitt nunmal. Es ist nicht so dass NV keine Karte bauen will oder sich trauen würde die 3x so schnell wie ne 1080Ti ist - sie können es schlichtweg nicht (mehr).


Das ist eine Täuschung die dein Wahrnehmungsapparat dir beibringt.
Folgendes: Wenn Lara Croft mit 500 Polygonen dargestellt wird sieht das für dich schwer hässlich/eckig aus. Eine Steigerung um Faktor 10 ist eine extreme Qualitätsverbesserung, denn jetzt werden Dinge runder die... naja bei Frau Croft rund sein sollten (:haha:). Nochmal Faktor 10 (gleiche "Leistungssteigerung") bringt noch was aber weniger, denn der Unterschied von 5000 zu 50.000 Polygonen ist nicht mehr groß sichtbar. Wer jetzt nochmal Faktor 10 drauflegt erkennt kaum noch einen Unterschied.

An der Stelle sind wir schon seit Jahren angekommen - die letzte Zeit wird Leistung mehr in fps gesteckt (früher waren 25 fps "flüssig", jetzt gehen wir auf 144 zu) und in Auflösung (früher war 1280x1024 extrem hochauflösend bei Spielen, jetzt sind wir bei 4K). Und auch hier naht der Moment wo es nichts mehr praktisch bringt - denn ob 120 oder 240 oder 480fps ist bis auf wenige Spezialfälle egal und an einem normal großen TFT siehste auch den Unterschied zwischen 4K und 8K nicht wirklich.

Dass Spiele nicht mehr schöner werden liegt nicht daran dass ein technisches Limit erreicht wäre sondern daran, dass technisch gleich starke Verbesserungen dem Menschen immer weniger auffallen wenn die Ausgangsposition schon sehr gut ist.
Provokant ausgedrückt: Ob du 5 oder 50 Bier kalt hast wenn ne Handvoll Leute zu Besuch kommen ist ein gewaltiger Unterschied. Obs 50 oder 500 sind ist dagegen egal. :fresse:

Bin ich voll dabei, wenns um Screenshots geht. Allerdings denke ich dass in Animations - und Physik Bereich noch sehr viel Luft nach oben ist. Ich hab mich früher immer schon gfragt ob es nich mehr immersion bringen würde, auf extremste Texturdetails einer z.B. Jacke zu verzichten, diese aber glaubwürdiger zu animieren. Aus diesem Grund sehen Rennspiele häufig ziemlich gut aus - abgesehen von simplen Fahrwerks Geschaukel gibts da kaum was zu animieren und sieht gleich "Fotorealistisch" (das Unwort überhaupt) aus.

Selbst bei Animations betonten Prügelspielen halten sich die Opponenten noch den Bauch nach einem Kopftreffer...

Mit Ragdoll gab es erste Schritte in die richtige Richtung und weitere Dinge passieren zur Zeit, aber meiner Meinung nach ist dass noch der größte Immersionsbrecher. Und ich befürchte, dass gute Echtzeit Animationen auch gern noch Leistung beanspruchen - Das PC Masterace läuft also neben Hz und Auflösungen weiter.

Ich bezweifel aber dass nach 4 K ein Umbruch stattfindet, Animationen und Physik werden wohl auch weiterhin sehr kleine Sprünge machen während man die Ressourcen in 8 K investiert. Ein bisschen Hoffnung machen mir allerdings immer mehr schlafende Kerne und ein paar Projekte.
 
Zuletzt bearbeitet:
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Physik, Animation und Ki sind Dinge, die sehr gut parallelisierbar sind und einen Riesenvorteil von vielen CPU-Kernen haben (sofern sie auf dieser berechnet werden).
Nachdem AMD mit Ryzen endlich CPUs mit mehr als 4 Kernen salonfähig macht wäre hier zumindest mal ein Grundstein gelegt. Da es aber noch viele jahre dauern wird bis die Mehrzahl der Spieler mehr als 4 Kerne hat würde ich da nicht allzufrüh was erwarten.
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Physik, Animation und Ki sind Dinge, die sehr gut parallelisierbar sind und einen Riesenvorteil von vielen CPU-Kernen haben (sofern sie auf dieser berechnet werden).
Nachdem AMD mit Ryzen endlich CPUs mit mehr als 4 Kernen salonfähig macht wäre hier zumindest mal ein Grundstein gelegt. Da es aber noch viele jahre dauern wird bis die Mehrzahl der Spieler mehr als 4 Kerne hat würde ich da nicht allzufrüh was erwarten.

Deshalb verstehe ich auch diese Aussagen nicht, die meinen 8 Kerne + würden fürs Gaming keinen Sinn machen, da Parallelisierung ja Grenzen hat. Sicher gibt es Grenzen, ich weigere mich nur zu glauben, dass diese Zufällig erreicht wurden als Intel in AMD keinen Gegner mehr hatte... Viel eher hat sich die Software der vorhandenen Hardware Möglichkeiten angepasst und wird dies auch weiter tun. Alles andere ergibt schlicht keinen Sinn. Und Arbeit für weitere Kerne zu finden, sollte angesichts vieler nur rudimentärer Systeme in Engines, durchaus möglich sein. Wenn z.B. Star Citizen aus allein technischer Sicht gelingt, wird es Erwartungshaltungen jenseits von höherer Auflösung und FPS schüren, die andere dann bedienen sollten...

Back to Topic:

Hoffentlich wird Vega was, sonst wird es schwer, noch aufzuholen.
 
Zuletzt bearbeitet:
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Deshalb verstehe ich auch diese Aussagen nicht, die meinen 8 Kerne + würden fürs Gaming keinen Sinn machen, da Parallelisierung ja Grenzen hat.

Parallelisierung hat Grenzen - und die liegen für >90% aller Aufgaben weit niedriger als die meisten denken (bereits der Performanceunterschied zwischen 4 und 8 Kernen ist oftmals kleiner 20% bei realen Aufgaben die nicht besonders gut parallelisierbar sind).
ABER: Ein Spiel muss zig verschiedene Dinge tun (DrawCalls, Physik, KI, Streaming, Animation, was weiß ich alles). Es muss nicht alles gut parallelisierbar sein um hier einen großen Nutzen von zig kernen zu haben - alleine jeder Aufgabe einen (oder mehrere) eigene(n) Kern(e) zuweisen zu können wäre schon ein massiver Fortschritt. So könnte man auch 32 Kerne sinnvoll nutzen - wenn auch sicherlich nicht auslasten.

Aber wir bewegen uns vom Thema weg... ;-)
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

AMD ist immer noch nicht aus dem Quark gekommen, da veröffentlicht nVidia schon erste Infos zur nächsten Gen ...
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

AMD ist immer noch nicht aus dem Quark gekommen, da veröffentlicht nVidia schon erste Infos zur nächsten Gen ...
Leider Wahr - ich kann kaum glauben, dass Vega ein Volta Gegner wird, auch wenn ich es hoffe...
 
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Diesmal glaube ichs noch nicht - beim letzten Mal kam ein SEHR viel besserer Fertigungsprozess ins Spiel von Maxwell auf Pascal (28 --> 14nm sind zwei generationen da 20nm übersprungen wurde und wir ewig auf 28nm festsaßen), daher war eine große Steigerung bei quasi unveränderter Architektur möglich (Pascal ist normiert auf Takt und Shadereinheiten keinen Millimeter schneller als Maxwell).

Da jetzt kein neuer Prozess ansteht sondern nur ein ausgereifterer 16nm - ob man den jetzt 12nm oder noch Beispiel von Intel "16+" nennt ist egal - muss NVidia die Mehrleistung nahezu ausschließlich aus der neuen Architektur ziehen. Da würde ich vielleicht 20-30% als optimistisches/realistisches Ziel anpeilen, vielleicht noch 5-10% mehr Takt durch den besseren Prozess.

Wenn ein GV104 (alias sagen wir GTX1180) weil der Prozess nicht kleiner geworden ist wieder über 2560 Shadereinheiten verfügt müsste man schon sehr sehr gut dabei sein mit der Architektur und dem Takt um eine 3584-Shader-1080Ti einzufangen.
Nicht zu vergessen: Es wird falls HBM benutzt wird auch Chipfläche frei.
Aber mit all deinen Verbesserungen (20-30 +5-10%) sind wir dann doch wieder einen Sprung nach vorne und ein 300mm² Chip (also eine 1080 etwa) schafft dann knapp das, was vorher nur die Titan geschafft hat. Nehmen wir an es kommt auch ein 450mm² Chip oder gar ein 600mm² Chip und schon haben wir eine deutliche Steigerung
tja, das is halt die Frage ... wieviel kann NV aus ner neuen Arch rausholen

seit wann is die in Plannung? 4 Jahre? da sollte ja schon was gehen
An und für sich ist jede Architektur heutzutage 4-5 Jahre in Planung, selbst wenns nur ein Shrink ist
The RV770 Story: Documenting ATI's Road to Success
An interview with ATI - Dave Baumann - Interview with ATI's Dave Baumann - Page 1
Physik, Animation und Ki sind Dinge, die sehr gut parallelisierbar sind und einen Riesenvorteil von vielen CPU-Kernen haben (sofern sie auf dieser berechnet werden).
Nachdem AMD mit Ryzen endlich CPUs mit mehr als 4 Kernen salonfähig macht wäre hier zumindest mal ein Grundstein gelegt. Da es aber noch viele jahre dauern wird bis die Mehrzahl der Spieler mehr als 4 Kerne hat würde ich da nicht allzufrüh was erwarten.
Muss man aufpassen: gibt ja bei den Engines 2erlei Arten von Physik. "Weltenphysik", also diejenige die auswirkungen auf die Spielwelt hat macht eigentlich hauptsächlich die CPU. Diese wird sich noch Jahrelang nicht besonders weiterentwickeln, das zeigt auch, dass Intel Havok verkauft hat.
Zweitens wäre da noch die Effektphysik (Rauch, Wasser, Explosionseffekte usw). Das läuft über die CPU, aber es gibt eigentlich keine gute Open Source Engine und was proprietäres gutes bietet hauptsächlich Nvidia.
Ich weiß ja nicht, was aus AMDs Techtelmechtel mit "Bullet Physics" geworden ist, aber eine Middleware für Spieleengines wurde es nicht. Es gibt da also nur noch PhysX, denn Havok FX wurde ja eingestellt
 
Zuletzt bearbeitet:
AW: Nvidia Volta: Details auf der GPU Technology Conference 2017 in der nächsten Woche?

Letztendlich ist es ja egal, wer oder was die Physik, Animationen & Co berechnet, hauptsache dat wird besser. Bethesda mal als Beispiel anführ. Mal angnommen es gäbe eine GPU, die nicht so schnell wie das vergleichbare Konkurrenzprodukt ist, aber bei solchen Prozessen deutlich mehr zu bieten hat. Die würde ich kaufen.
 
Zurück