Satire bitte immer Kennzeichnen.
Ne jetzt mal ohne Scheiß, warum sollte Nvidia sowas bringen:
[...]
Sorry das macht NULL Sinn. [...]
In deiner Welt macht das offensichtlich keinen Sinn, nur ist deine Weltsicht für nVidia nicht relevant (übrigens ebensowenig wie deine Preisvorstellungen
).
Noch mal ... zum Dritten oder Vierten ... die in der Tabelle ausgewiesenen Platinen sind bestätigt. Konkret sagte Igor, dass er die Tabelle von Usman erhalten hat und anstatt sie dann einfach zu verwerten, hat er zuerst Rücksprache mit einem seiner Kontakte bei den Boardpartnern gehalten und sich diese Angaben dort bestätigen lassen. 24 und 20 GiB kommen und auch die 16 GiB-Platine existiert, nur der Termin für dieses Modell ist noch unbekannt, da das offensichtlich erst als Antwort auf AMDs Release gedacht ist.
Es ändert sich nichts daran, auch wenn du noch ein weiteres Dutzend Posts hinterlässt, in denen du das für sinnbefreit erklärst.
> "
Warum sollen die ein Mittelklasse-Modell gegen ein Oberklasse-Modell ausspielen?"
Da wird nichts ausgespielt, die vermeintliche 3070 bleibt eine 3070, ob die nun 8 GiB oder 16 GiB hat, die wird dadurch nicht schneller, wie oft denn noch? Bestenfalls dreht man da an 100 MHz mehr Boost Takt, aber das wird es dann schon gewesen sein. Das nennt sich schlicht Produktdiversifikation.
nVidia wird seine Karten schon untereinander sauber absetzen, leistungs- wie auch preistechnisch, da mach dir mal keine Sorgen.
Die vermeintliche 3070 mit 16 GiB wird dazu da sein, ein etwaiges kleineres 12 GiB-Modell von AMD in Schach zu halten, auch relativ absehbar und falls es immer noch nicht angekommen ist ... da der Chip ein 256 Bit-Speicherinterface hat, bleiben nur die beiden sinnvollen Kombinationen mit 8 oder 16 GiB VRAM. Mit letzterer Variante hat nVidia zudem den Vorteil, dass sie durchaus ihre Karte preislich höher ansetzen können, denn sie können immer noch in die Waagschale werfen, dass ihre Karte 4 GiB mehr VRAM hat.
> "
Und warum so stark abweichende Speicherbestückungen? Aus welchem Grund?"
Auch das hat man dir schon x-fach erklärt. Das ist schlicht ein direktes Resultat der vorgesehene Interfacebreiten sowie der benötigten, minimalen Speicherbandbreiten. Da ist nichts mystisches dran, eher im Gegenteil, geradlinig und leicht nachvollziehbar.
Ich befürchte auch. Ich tippe sogar auf 2000-2500€ für die 48GB 3090Ti-Variante und 1500-1700€ für 3080Ti bzw. 3090(ohne Ti)... wenn's denn so kommt.
Einziger Trost. Nach diesen Karten kann technologisch mit Single-GPU-Lösungen nicht mehr viel kommen, sodaß deren Einsatzdauer evtl. den Preis wieder reinholen wird, wenn die Karten nicht an Überzüchtung sterben.
Ich glaube nicht, dass nVidia sein Titan-Brand aufgeben wird, schlicht weil die außerhalb des regulären Consumer-Portfolios aufgehängt ist. Die Karte schließt die Lücke zwischen dem oberen Consumer-Segment und dem professionellen HighEnd-Segment und richtet sich eher an semiprofessionelle Nutzer.
Bei der Titan RTX konnte man zumindest zur überschaubaren Mehrleistung noch die 24 GiB ggü. den 11 GiB der RTX 2080 Ti in die Waagschale werfen. Die nun voraussichtlich kommenden 48 GiB sind für Gamer jedoch vollkommen irrelevant und da greift dann doch mal deady1000's "
völliger Overkill" und wenn die Karte als Vollausbau (?) dann ebenfalls nur geringfügig schneller ist als das größte Consumer-Modell, wird die kommende Titan für Gamer uninteressanter sein, als jede vorherige Titan.
Darüber hinaus, warum sollte die Karte gar günstiger werden als ihr aktuelles Modell. nVidia fordert aktuell 2749 € für die Titan RTX. Die neue Titan Ampere wird wird ein gutes Stück leistungsfähiger sein, bestätigt bspw. schon bei den Tensor Cores, die beträchtlich zulegen (
auch bereits ohne Sparsity Feature) und da gibt es nicht wirklich einen Grund für einen niedrigeren Preis, zumal AMD der voraussichtlich nichts entgegenzustellen hat.
Btw, "Single-GPU" ist eine Definitionsfrage und ein in diesem Fall ein kaum anwendbarer Begriff. Du meintest MCM-Designs? Und die sind bei allen drei Herstellern in Arbeit, zwangsweise, denn die großen monolithischen Chips werden immer aufwändiger in der Fertigung.
Darüber hinaus denke ich nicht, dass es eine "3090 Ti" geben wird. Ich vermute eher, dass nVidia den Namen "3090" in den Raum gestellt hat, weil sie am oberen Ende von dem "Ti" loskommen wollen, das für ein temporär aufgesetztes Zusatzmodell ggf. praktikabel ist, mittlerweile aber zu einer Standardkarte im Portfolio wurde.
Ich vermute dass es am oberen Ende entweder beim bekannten Schema bleiben wird (weil man die Veränderung scheut), also einer "3080 Ti" oder aber der Name entfällt und man benennt das Modell fortan schlicht "3090".