Nvidia Geforce GTX 1180: Release bereits ab Juli 2018?

alerdings mussten die dann entweder ein 192 Bit oder ein 384 Bit Interface dran knallen

das erste is irgendwie mickrig und das zweite zu viel xD (zumindest für nen GX104)

Naja, GDDR6 sollte doch 4 eher GQDDR6 heißen weil statt zwei doch vier Signale per Takt übertragen werden wenn ich das richtig verstanden habe.

Um Geld zu sparen und noch mehr Marge zu bekommen (denn die UVP bzw. MSRP wird ja nicht sinken, eher steigen) könnte man einfach aufgrund der doppelten Daten das Interface halbieren und man hätte bei gleichem Takt keine Einschnitte.
(korrigiert mich wenn ich falsch liege)

Ich bin ja mal richtig gespannt. Eine 1170 für unter 400 würde ich sofort nehmen. Aber ich denke das wird eher nicht so werden.
Never :ugly: eher 550-600+ würde ich behaupten. nVidia weiß wie man mit Early Adoptern umgeht, ob mit FE oder dann mit noch teureren Customs.

Nein wird nicht so kommen.

1080Ti + 20%. wird eine Titan Xa werden für 1349€

Die 1180 wird auf die 1080Ti mit +- 0% kommen. 699€

Wie auch schon die Jahre davor.
Ich denke man wird leicht vor der 1080ti liegen, aber eben nicht weltbewegend, nur damit die Balken besser aussehen. Bestimmt um die 10-20% @ Stock.

Die Whatever TI wird da dann natürlich nächstes Jahr, lange nach der Titan, nen guten Schub geben um die neusten Ampere Käufer wieder zum wechseln zu bewegen :D
 
Zuletzt bearbeitet:
Nein wird nicht so kommen.

1080Ti + 20%. wird eine Titan Xa werden für 1349€

Die 1180 wird auf die 1080Ti mit +- 0% kommen. 699€

Wie auch schon die Jahre davor.


——————————

Werde auf die Titan Xa im Augsust warten , was typisch wäre für NVIDIA wenn die 1180 im Juli erscheint.

Was mich etwas abschreckt ist der Garantieverlust beim Kühlerwechsel bei NVIDIA.

Die 1080 hat die 980 Ti klar geschlagen, gleiches gilt für die 980 zur 780 Ti. Dementsprechend sollte man eindeutig die von @Wanderer1980 erwarteten ~20% Mehrleistung als realistisch betrachten, die Titan wird eher auf +50% kommen.
 
Bei den aktuellen RAM-Preisen und einer entsprechenden Bestückung wird die neue NV-Generation meiner Schätzung nach mit bestimmt 50-100€ mehr zu Buche schlagen als noch Pascal zu Release.
 
Bei den aktuellen RAM-Preisen und einer entsprechenden Bestückung wird die neue NV-Generation meiner Schätzung nach mit bestimmt 50-100€ mehr zu Buche schlagen als noch Pascal zu Release.

Wer sagt denn das man keinen Kredit für seine Grafikkarte(n) aufnehmen kann :D (Ich sag nur Facebook Kommentar Konrad Klose :lol:)
 
Ich hoffe, hier glaubt niemand ernsthaft daran, dass die neu, günstig und schnell werden. Man kann immer höchstens zwei von drei Dingen haben. ;)

So siehts wohl aus. Wenn ich mir die Gerüchtedaten so ansehe (3.584 CUDA-Cores, bis zu 1,8 GHz Takt und 8 oder 16 GiByte, 170 und 200 Watt) siehts so aus, als würde das sowohl Leistungs- als auch effizienztechnisch ziemlich genau da landen, wo ich seit fast zwei Jahren mit der TitanX (Pascal) @80% PT +OC bin.

Das war damals die Option "neu + schnell" und absolut nicht günstig. Aber wenns wirklich so kommt, dass die 1180 nicht wirklich nennenswert besser ist und damit erst die Ti oder gar eine 1280er Karte wirklich was drauflegen kann was bedeutet dass ich wohl weitere Jahre nichts kaufen will, war die TitanX schon fast ne günstige Karte. :ugly:
 
Die 1080 hat die 980 Ti klar geschlagen, gleiches gilt für die 980 zur 780 Ti. Dementsprechend sollte man eindeutig die von @Wanderer1980 erwarteten ~20% Mehrleistung als realistisch betrachten, die Titan wird eher auf +50% kommen.

Zudem war die Entwicklungszeit viel länger, und es gibt neben größerer Architekturänderungen, noch den verbesserten Node oben drauf

Also vergleichbar einem Tick/Tock Doppelsprung wie Intel ihn für zwei Generationen einsetzt

Wenn sie da weniger wie 20% rausquetschen würden, wäre das schon arg enttäuschend
 
Zuletzt bearbeitet:
ich frag mich auch wieviel Speicher die drauf knallen

in der Vergangenheit wars ja so, dass immer etwas mehr als vorher gab

3GB auf 4GB, 6GB auf 8GB und nun hamm wir 11GB

16GB klingt irgendwie nach overkill und 12GB wären auch mehr als 11GB

alerdings mussten die dann entweder ein 192 Bit oder ein 384 Bit Interface dran knallen

das erste is irgendwie mickrig und das zweite zu viel xD (zumindest für nen GX104)

Beim GP104 waren es doch 256 Bit, beim GP102 der Ti 352 Bit. Mal sehen wie es bei Turing wird. Ich schätze, dass sich bei den SI nicht viel tun wird. 256 Bit beim 104, irgendwas zwischen 320 und 384 Bit beim 102. Bei der Zahl der ALUs wird es wohl auch eine Steigerung geben. Alleine mit optimiertem Fertigungsverfahren und höheren Taktraten wird man nicht auskommen. Ich denke daher, dass mindestens mit einer Steigerung von 25% zu rechnen ist. Das wären beim GT104 dann 3328 und beim GT102 dann 4800 ALUs im Vollausbau. Vielleicht fällt dir Steigerung auch höher aus.
Bei der Fläche wären das knapp 400 mm² für den GT104 und 600 mm² für den GT102. Die Kosten dürften in der Produktion nur unwesentlich steigen, zumal man den 16 nm Prozess besser beherrscht und damit schon Erfahrungen gesammelt hat. Beim VRAM, mal sehn'. 16 GB sind für die 1180/70 denkbar, vielleicht aber auch 12. Bei der Ti sind es dann 15 oder 18 GB.
 
Die 980 war eine komplett neue Architektur gegenüber der 780Ti und die 1080 ist eine 1:1 übernommene Architektur auf Taktsteroiden gegenüber der 980.

Beides haben wir jetzt nicht. Die Taktraten sind mutmaßlich die gleichen, die Architektur wurde optimiert aber nicht wirklich komplett erneuert. Zusätzlich gibts in dem Performancesegment im Gegensatz zu damals keine Konkurrenz mehr - und es ist auch nicht zu erwarten dass sich das die nächste Zeit ändert. Es gibt also weder einen grund besonders schnell neue Grafikkarten zu bringen noch die Leistungssprünge besonders groß zu machen. Deswegen warten wir jetzt bereits doppelt so lange auf eine neue Generation als üblich und deswegen glaube ich auch kaum, dass wir wieder massive Leistungssteigerungen sehen werden.

Ich denke, eine 1180 wird messbar aber nicht fühlbar schneller als eine 1080Ti sein. Denn hier kann man dann wieder sagen wir haben den längsten ohne besonders Pulver rauszuhauen, das ist im aktuellen Markt einfach nicht nötig.
 
So siehts wohl aus. Wenn ich mir die Gerüchtedaten so ansehe (3.584 CUDA-Cores, bis zu 1,8 GHz Takt und 8 oder 16 GiByte, 170 und 200 Watt) siehts so aus, als würde das sowohl Leistungs- als auch effizienztechnisch ziemlich genau da landen, wo ich seit fast zwei Jahren mit der TitanX (Pascal) @80% PT +OC bin.

Das war damals die Option "neu + schnell" und absolut nicht günstig. Aber wenns wirklich so kommt, dass die 1180 nicht wirklich nennenswert besser ist und damit erst die Ti oder gar eine 1280er Karte wirklich was drauflegen kann was bedeutet dass ich wohl weitere Jahre nichts kaufen will, war die TitanX schon fast ne günstige Karte. :ugly:

Es wird vermutlich genauso sein wie beim Wechsel Titan X (Maxwell) -> GTX 1080. Letztere war zwar ~20 Prozent schneller und schön effizient, hatte aber weniger Speicher und ließ sich mit der alten Karte erreichen.

Und ich glaube irgendwie nicht an die 16 GiByte für das High-End-Modell (= GTX xx80, nicht Titan). Nvidia hat sich darüber bestimmt lange den Kopf zerbrochen. Deklassieren wir in Sachen Speichermenge alle bisherigen Modelle inklusive der Titan V oder machen wir's wie gehabt, also mit einer ausreichenden/netten Menge und heben uns das dicke Polster für das Schlachtschiff auf? Andererseits liefert Nvidia seit mehr als drei Jahren (!) 12 GiByte beim Topmodell, also wäre ein Upgrade überfällig. Insofern ist "16 GiByte, aber sündteuer" definitiv eine Option. Wir werden's sehen.

MfG,
Raff
 
Da passt was nicht
die gtx1080ti verbräät 225w und in spitzen 250w
Und nvidia will es geschafft haben beim demselben Prozess (16nm+) glatte 40% Energie effizienter zu sein

das klingt zu schön um wahr zu sein
Oder hat nvidia aufeinmal 7nm vorverlegt

Wenn was kommt ist es ein refresh der pascal serie mit gddr6

neues gibt es erst ab Mitte 2019
 
Da passt was nicht
die gtx1080ti verbräät 225w und in spitzen 250w
Und nvidia will es geschafft haben beim demselben Prozess (16nm+) glatte 40% Energie effizienter zu sein
GDDR6 ist wahrscheinlich deutlich sparsamer als aktuell genutzter hochgezüchteter GDDR5(X). Alleine durch den Speicherwechsel haste da ggf schon 20W weniger.
Wenn du dann im optimierten Prozess noch weitere 30W mit der GPU rausholst wars das schon. ;)
 
Selbstüberschätzung ist auch kein Engineering

Und warum soll Turing nicht "neu" sein und der Vega Clon Navi ,dann plötzlich schon?

Mit anderen Worten AMD entwickelt, und Nvidia "ruht sich aus", baut aber trotzdem den Vorsprung aus?


So einfach geht das also einfach immer nur Maxwell@Pascal@Turing shrinken u AMD ist geliefert :D
 
Wer sagt denn, dass das Ding nicht neu ist? "Neu" ist eine Frage der Definition. Ist Polaris 20 "neu" oder benötigt "neu" so fundamentale Änderungen wie von G71 auf G80 oder von VLIW auf GCN? :-)

MfG,
Raff
 
Nach wie vor ist überhaupt nichts bekannt zu Turing.
Da ist von einem Pascal-Refresh bis hin zu einer extrem überarbeiteten Architektur alles drin.

Zu diesem Gerücht passt auch Huangs Statement, dass der Umsatz nach einem Einbruch in Q2 in Q3 wieder deutlich ansteigen wird, fast so hoch wie im sehr erfolgreichen Q1.
D.h. Nvidia will durch neue GPUs den Markt so beleben, dass man an die durch Mining gepushten Umsätze heran kommt.
Das ist mit einigen Turing-FEs im Nvidia-Shop ab Juli nicht möglich zu erreichen.
Nur wenn ab spätestens August viele Custom-Designs und/oder viele Ref-Designs bei den Händlern sind, kann Huang sein Versprechen an die Shareholder einlösen, dass Q3 wieder sehr erfolgreich wird.
 
Zuletzt bearbeitet:
Wer sagt denn, dass das Ding nicht neu ist? "

MfG,
Raff

Der den ich gequotet habe;)


neues gibt es erst ab Mitte 2019

Damit ist doch klar auf welchen Chip das abzielt


Davon ab heißt der Herr Koduri (und kennt vermutlich Sheldon nicht privat).

MfG,
Raff

Hollywood ist nicht all zu weit weg von Silicon Valley ,und gewisse schauspielerische Begabung besitzt der Gute ja schon

Wer weiß ob da nicht eine Verknüpfung besteht;)
 
Zuletzt bearbeitet:
Zurück