Nvidia Geforce 2018: Erstes Turing-Tape-Out soll fertig sein

Hey, ich hab seit fast 4 Jahren nen 5960X und seit 1,5 Jahren ne TitanX (P) - und beides scheint in absehbarer Zeit nicht ersetzt werden zu müssen. Vor 10 Jahren hab ich in den Zeiträumen gefühlt drei neue PCs gekauft :ugly:
Auf Seiten der CPU werden es im Sommer bei mir 5 Jahre, schon wieder:schief::D Und wie es scheint, wird der i7-4770k auch noch ein weiteres Weilchen drin bleiben dürfen. Warum auch den Unterbau wechseln, für`s daddeln reicht meine CPU immer noch dicke. Mir zumindestens:daumen:

Und auch von der GPU her kann ich mich zurücklehnen und schauen was da (verspätet) kommt. Wird das Geld halt gehortet oder woanders investiert...

Gruß
 
Zuletzt bearbeitet:
GDDR5X wird vielleicht bei der xx80/xx70 bleiben,
GDDR6 könnte vielleicht nur auf die Titan T / 80TI kommen
 
Ich denke die 1150ti wird 6GB, 1160 wird 8GB und die 1170/1180 12GB bekommen.

Es ist nicht einmal unwahrscheinlich dass sie die Rammenge nicht ändern, vielleicht bei der 1180.
Wozu auch?
Meine 6GB reichen eigentlich selbst für 4K fast immer.

Bin von den gängigen Interface ausgegangen der letzten Jahre. Sollte die neue Sperspitze "GTX1180' wirklich über 12GB GDDR6 verfügen bedeutet das, dass die Karte ein Interface von lediglich 192 Bit aufweisen würde aka GTX1060 Niveau. Das wäre schon krass für den aufgerufenen Preis von sicher 600€+
 
Das denke ich auch. Bin gespannt wieviel RAM die neue Generation bekommen wird.
16GB für die GTX1170/1180
12GB für die GTX 1160
8GB für die GTX 1150 Ti
4GB für die GTX 1150

Da ich die Generation wahrscheinlich überspringen werde, interessiert mich vor allem die Leistung der GTX 1160 und der GTX 1150 Ti.

Nach meiner Meinung nach sind die Speicherausstattung für die oben genannten Grafikkarten durchaus realistisch.

Sonst eher:

GTX 1160 -> 9 GB
GTX 1170 -> 12 GB
GTX 1180 -> 12 GB
GTX 1180 Ti -> 16 GB

Wir warten mal ab. :)
 
Mal ne blöde Frage warum werden die Prozesse nicht einfach nach der Breite benannt die sie haben? Ich mein in welchem Wettbewerb hilft das, die Firmen die bei Global usw. bestellen wissen doch selbst ganz genau was sie bekommen und der Endkunde hat darauf sowieso kein Einfluss.

Früher war das so...
Und irgendwann kamen die üblichen Flächenhalbierungen ("Full-Nodes", der nächste volle Schritt ist immer SQRT((x^2)/2), bedeutet nach beispielsweise 14nm kommt SQRT((14^2)/2)= 9,899 --> 10 nm, die "12nm" sind nur ein Zwischenschritt und in dem konkreten Fall aktuell nicht mal das, denn TSMCs "12nm" ist iirc gleich groß wie der "14nm", nur in der fertigung verbessert. Intel nannte das "14+"...) aus technischen Gründen nicht mehr zustande - um das nicht so wirklich zuzugeben hat mans aber eben trotzdem so benannt. Und wenn du das mehrfach hintereinander machst kommste nach x Schritten eben auf die Differenzen wo wir heute sind.
 
Zuletzt bearbeitet:
Diese Leistung wird eher der Nachfolger der GTX 1070 besitzen.
Den Nachfolger der GTX 1060 schätze ich eher auf GTX 1080 Niveau.

So wie aktuell:

GTX 980 ==> ~GTX 1060
GTX 980ti ==> ~GTX 1070

Das ist doch Quatsch, diesmal steht kein großer Shrink an. Vorallem welcher Kunde sollte eine Mittelklasse Karte für 800 Euro oder mehr kaufen. Der Nachfolger der GTX 1070 dürfte ein paar % schneller als eine GTX 1080 werden, das wars aber auch und wird sich auch in der Preisregion einordnen. Also 500 - 700 Euro, dann wird man sehen ob die Miningblase da nicht schon geplatzt ist oder der Markt sich mal beruhigt hat.
 
Ethereum steht aktuell bei knapp über 300 Euro, Anfang des Jahres waren es über 1000 Euro.

Die Blase ist hat also den einen oder Anderen Schaden abbekommen.
Sollte sich der Kurs so weiterentwickeln dürfte es in wenigen Tagen eine GPU Schwemme am Gebrauchtmarkt geben.
 
Und was war mit Kepler -> Maxwell ?
Und was war mit GP100 -> GV100 ?

GP100 auf GV 100 war die große Steigerung hauptsächlich durch die Chipgröße und die zusätzlichen Spezialkerne - Matrixmultiplikation (wie sie die Spezialität der Tensor Kerne ist) kommt ja durchaus auch in einer Vielzahl mathematischer Berechnungen vor - inklusive Spiele.

Beim Sprung von Kepler auf Maxwell hat Nvidia eine ziemliche Änderung der Architektur gemacht - seitdem sehen die Blockschaltbilder interessanterweise mehr nach GCN aus^^.
Dieses Mal wird Turing aber eine Iteration von Maxwell / Pascal - also Maxwell 4.0 (750 TI war Maxwell 1, GTX 900 Serie Maxwell 2 und Pascal Maxwell 3 - Taktbereinigt gab es ja nachweislich keine Steigerung zwischen Maxwell und Pascal.)

Aber um den Zeitrahmen mal realistisch abzustecken:
Wenn das Tape out gerade erst erfolgt ist, dürfte es noch knapp ein Jahr, bis zur Verfügbarkeit beim Endkunden, dauern.
Wie ich drauf komme?
Sowohl AMD, als auch Nvidia haben in den letzten paar Generationen jedes Mal knapp ein Jahr von Tape Out zum verfügbaren Produkt gebraucht.

Es kann ja sein, dass es schon mal einen tape out gab, dabei aber irgendwas entdeckt wurde, was zu einer neuen Revision geführt hat.
Dann würden wir allerdings GT11X Chips sehen und nicht GT10X.
Das war bei big Kepler ja auch so. GK100 kam nie auf den Markt, sondern erst GK110.
 
GP100 auf GV 100 war die große Steigerung hauptsächlich durch die Chipgröße
Beim Sprung von Kepler auf Maxwell hat Nvidia eine ziemliche Änderung der Architektur gemacht
<combine stick with rope>
<use slingshot>
;)

Da haste doch einen möglichen Ansatz. Man verbessere die Effizienz und erhöhe die Anzahl der Einheiten. Dazu gabs mit Volta eine neue ISA.

Falls du aber bereits konkrete Details zur kommenden µArch hast, dann immer her mit den Infos. Danke! Freue mich über jede Spekulationsgrundlage.
 
<combine stick with rope>
<use slingshot>
;)

Da haste doch einen möglichen Ansatz. Man verbessere die Effizienz und erhöhe die Anzahl der Einheiten. Dazu gabs mit Volta eine neue ISA.

Falls du aber bereits konkrete Details zur kommenden µArch hast, dann immer her mit den Infos. Danke! Freue mich über jede Spekulationsgrundlage.

Jepp... bei 16nm auf einen verfeinerten 16nm Prozess aka 12nm zu schrumpfen macht es ja auch möglich einen Chip von GV100 ausmaßen auf GP104 Größe zu schrunpfen^^
 
Die Frage ist wie ein solcher Prozess dann heißt. Die "12nm" von heute sind in der Realität eher das vier bis fünffache. Da kommen noch 10, 7, 5, 3 nm als Markennamen bevor wir überhaupt real in die Nähe von Qualtentunneleffekten kommen. Immer im Hinterkopf behalten, dass die x nm Prozesse Markennamen sind, keine realen Größen!
Beispiel: der kommende "7nm" Prozess von Globnalfoundaries hat eine reale Pitchlänge von 40 nm, bei Intels "7nm" der gefühlt 2020+ irgendwann kommt sinds noch reale 25-30nm.

ok das wusste ich nicht. Dachte, dass z.b 7nm wirklich 7nm wären. Aber ich habe damals irgendwann gehört, dass durch eine Drehung des ätzprozesses von z.b 40nm per Markenname zu einer 14 nm wird, obwohl die reale Größe 40 nm sind. Ich hab mich schon gewundert, welche Maschinen heutzutage 7 nm fertigen können.
 
Ich bin sehr auf den Leistungsanstieg zu den jetzigen Karten gespannt. Hoffentlich ist dieser groß, sodass ich mir gleich einen holen kann.:D
 
Jepp... bei 16nm auf einen verfeinerten 16nm Prozess aka 12nm zu schrumpfen macht es ja auch möglich einen Chip von GV100 ausmaßen auf GP104 Größe zu schrunpfen^^

Hä, wer spricht davon?

Die einzigen Fakten, worauf man sich stützen könnte, ist der Sprung Pascal -> Volta:
+ 40% SM bei +33% Fläche in selbem Powerbudget - das ganze inkl. 1:2 FP64 und Tensor Cores

Wie aber tatsächlich die neue Geforce Serie aussehen wird, steht immer noch in den Sternen.
 
Ich hab so meine Zweifel dass Nvidia einen ähnlichen Gewinn wie bei Pascal hinlegen kann, der Leistungssprung war zu großen Teilen eine Kombination aus Treiber und verfeinerter Fertigung. Ich denke dass der Treiberansatz aktuell erst mal ausgereizt ist solange man nicht in den LowLevel Bereich geht, den aber scheut Nvidia wie der Teufel das Weihwasser.

Die Chips werden wohl eher auf kosten des Powerbudgets mehr Leistung bringen.
 
Dann wird hoffentlich die 16nm 1080Ti auch im dritten Quartal durch den 12nm GA102 ersetzt und nicht wie bisher üblich gegenüber GA104 verzögert erst 2019.
 
Vom 7980XE hätte ich schon einen ordentlichen Mehrwert (die CPU ist 90% der Zeit mit Videobearbeitung beschäftigt, ich kann 36 Threads problemlos auslasten) - nur lohnt sich das einfach nicht da ich nicht so viel Workload habe und schon gar nicht derart Gewinne damit mache. Der 5960X braucht vielleicht 10 Stunden für nen Task wo der 7980XE nur 6 Stunden bräuchte aber hey, ich muss nicht aufn Zug, ich hab Zeit. Das kann die CPU im Hintergrund mitmachen während der PC ohnehin läuft. :schief:

Ein bischen Basteln brauche ich noch und habe noch den Xeon V4 12 Core (65Watt) und möchte gerne einen Mini-Itx CAD Pc, 32 Gib Ram und einer 8GiB. AMD Fire Pro auch nur 17Cm Länge verbauen. Ein SFX Netzteil mit gleicher Länge. Gehäuse aus Klaren/Schwarz/Grünen Acryl, ein paar Smd's und selbstgedruckten Teilen muß dann doch selbst gebaut werden.
Ein bischen Spaß muss sein.;)
Gruss
Edit: Interressant wie zufrieden man mit seiner Hardware sein kann, wenn genügend davon vorhanden ist, so etwas war mir bisher unbekannt..
Ich hätte niemals gedacht diese Einstellung zu bekommen ohne immer mal Herumzunörgeln.
Cool.
Hm, kann man mit einer 75 Watt Fire Pro Wx5100 überhaupt zocken, weiß das jemand ob es dafür Treiber gibt?
 
Zuletzt bearbeitet:
[...]
Dieses Mal wird Turing aber eine Iteration von Maxwell / Pascal - also Maxwell 4.0 (750 TI war Maxwell 1, GTX 900 Serie Maxwell 2 und Pascal Maxwell 3 - Taktbereinigt gab es ja nachweislich keine Steigerung zwischen Maxwell und Pascal.)
[...]
Zum einem weiß man das nicht, zum anderem ist damit nicht gesagt, wo Turing letztendlich landet.
 
@DARPA
Zwischen GP100 und GV100 gabs einen entsprechenden Preisanstieg, u. a. weil die Chip-Fläche deutlich gewachsen ist, um wirtschaftlich zu bleiben findet das Binning auf Kante statt und was ist die Ausbeute des Ganzen? Die Titan V liegt in Games durchschnittlich ca. 15% vor der Titan Xp, im GPU-Limit, also UHD. Das TDP-Budget konnte gehalten werden, weil man kostspielig in die Breite ging (kein Taktanstieg nötig) und HBM2 inkl. Interface insgesamt sparsamer ist als GDDR5X inkl. Interface (wobei letzterer ebenfalls merklich sparsamer als GDDR5 inkl. Interface sein dürfte, ähnlich wie GDDR6).
 
Zuletzt bearbeitet von einem Moderator:
Zurück