Die Leistung wird sich relativ (also 1080 zu x80) sicherlich um mehr als 10% steigern. Wie will man die 1080Ti Umsteiger locken, mit 8GB?Wenn die Leistung um 10% steigt, bringt eine Verdopplung der VRAM-Menge dem Pascal- oder Vega-Besitzer exakt nichts und das weiß jemand, der so viel Geld für eine Karte bezahlt, eigentlich auch. Ich kann hier nur noch mal auf Raffs Artikel verweisen, er musste sich schon sehr anstrengen, um überhaupt Unterschiede zwischen 8 und 16 GB-Karten zu provozieren.
Logo. Der Zyklus GeForce10 zur neuen Generation ist relativ lang -> Wahrscheinlichkeit für mehr VRAM steigt.Entweder hast du den Abschnitt nicht gelesen oder nicht verstanden. Für mehr VRAM spricht er jedenfalls nicht.
Ich weiß nicht, ob du es mal schaffst eine sachliche Diskussion zu führen, statt nur zu stichelnIch weiß nicht, ob du noch nie so viel Geld für eine Karte ausgegeben hast oder aus anderen Gründen unrealistische Vorstellungen hast.
Die Leistung wird sich relativ (also 1080 zu x80) sicherlich um mehr als 10% steigern. Wie will man die 1080Ti Umsteiger locken, mit 8GB?
Logo. Der Zyklus GeForce10 zur neuen Generation ist relativ lang -> Wahrscheinlichkeit für mehr VRAM steigt.
Ich weiß nicht, ob du es mal schaffst eine sachliche Diskussion zu führen, statt nur zu sticheln
Der Fanboy hat sich ja weiter im Posting selbst entlarvt, das spart immerhin das langwiedrige "diskutieren" mit einer Taube auf dem Schachbrett
Korrekt, genau diese Enthusiasten sind es aber eben auch, die nach unten hin viele Käufer zum Umschwenken bewegen. Nicht ohne Grund sagt man, dass man oben wenig verkauft, diese aber immer in die unteren Gefilden abstrahlen. Das ist erstes Semester Marketing.Die meisten Umsteiger von einer TI (und das sind ohnehin schon nur wenige) dürften die potentielle 1180 wohl höchstens als Zwischenlösung auf dem Weg zur nächsten TI sehen.
Grafikkarten sind auch Prozessoren. Wahrscheinlich meinst du "CPU", hast aber Probleme dich korrekt auszudrücken. Tatsächlich ist es ebne so, dass es diese Minischritte aus vielen Gründen bei GPUs eher nicht geben wird. Dazu hat NVIDIA auch mehr als ausreichend etwas gesagt, schon zu Zeiten von GT200 und davor. Daher ist es einfach nur pures Bashing, hier den Teufel an die Wand zu malen, genauso wie keinen Fortschritt beim VRAM.Die 10% waren dabei ein Wert, der für Grafikkarten komplett lächerlich erscheint, bei Prozessoren in den letzten Jahren aber gar nicht so weit von der Realität entfernt war. Auch da kam AMD lange nicht hinterher, nur war anstatt NVidia da Intel unangefochten vorne. Daher hoffe ich natürlich auf jedes Prozent Leistungssteigerung, wäre aber von Mini-Schritten nicht im Geringsten überrascht.
Schade, dass du nicht in der Lage oder nicht willens bist, meine Postings zu lesen. Ich schrieb bereits die Widerlegung zu diesem Punkt:Der Satz ist ja noch gar nicht fertig. "Der Zyklus GeForce10 zur neuen Generation ist relativ lang, weil man selbst mit einer 2 Jahre alten Architektur AMD (die durch sündhaft teuren HBM-Speicher nicht einfach mal die doppelte Menge für den selben Preis auf die Karte klatschen können) noch überlegen ist. -> Wahrscheinlichkeit für mehr VRAM sinkt."
Übrigens: Wenn ich mal in die Steam Statistik schaue, dann sind in den Top5 insgesamt 3 Pascal-Karten. In den Top 10 sind es 5.NVIDIA hat sehr wohl eine Konkurrenz: Sich selbst, seine Pascal-Karten. Genau das ist mein Argument. Behaupte bitte nicht, etwas spiele in meinen Beiträgen keine Rolle, wenn du meine Postings offensichtlich nicht verstehst.
Ich mute nur eben sinnvoll, während ihr einfach völligen Unsinn mut maßt.Wir beide mutmaßen NVidias nächste Schritte, wobei sich die ganze Diskussion nur darauf beschränkt, dass du nicht einsehen willst, ebenfalls nur zu vermuten. Unnötig wie ein Kropf das Ganze...
Korrekt, genau diese Enthusiasten sind es aber eben auch, die nach unten hin viele Käufer zum Umschwenken bewegen. Nicht ohne Grund sagt man, dass man oben wenig verkauft, diese aber immer in die unteren Gefilden abstrahlen. Das ist erstes Semester Marketing.
Grafikkarten sind auch Prozessoren. Wahrscheinlich meinst du "CPU", hast aber Probleme dich korrekt auszudrücken. Tatsächlich ist es ebne so, dass es diese Minischritte aus vielen Gründen bei GPUs eher nicht geben wird. Dazu hat NVIDIA auch mehr als ausreichend etwas gesagt, schon zu Zeiten von GT200 und davor. Daher ist es einfach nur pures Bashing, hier den Teufel an die Wand zu malen, genauso wie keinen Fortschritt beim VRAM.
Schade, dass du nicht in der Lage oder nicht willens bist, meine Postings zu lesen. Ich schrieb bereits die Widerlegung zu diesem Punkt:
Übrigens: Wenn ich mal in die Steam Statistik schaue, dann sind in den Top5 insgesamt 3 Pascal-Karten. In den Top 10 sind es 5.
Also kann man ganz klar sagen: NVIDIA wird versuchen primär Kunden von Pascal-Karten zum Umstieg zu bewegen. Erst danach bewegen sich Maxwell (950/960/970) und dann ein bissl Kepler.
Bevor du wieder rumheulst ich würde keine Belege liefern:
Steam Hardware & Software Survey
Ich mute nur eben sinnvoll, während ihr einfach völligen Unsinn mut maßt.
Das restliche Geflame ignoriere ich einfach mal, einer muss ja erwachsen sein
Auch hier wieder die Taube: Nicht auf den Punkt antworten, sondern einfach nur aufs Schachbrett kacken.Ich befasse mich für gewöhnlich mit substantielleren Dingen als Marketing.
Als ich zuletzt geschaut hatte (so vor einer Sekunde), da betrieb auch AMD Marketing. Wo soll das also ein Grund sein? Eher doch ein ausgeglichenes Feld.Da du dich damit aber sicherlich auskennen wirst, hast du dir grade selbst noch einen weiteren Grund für AMDs niedrige Absatzzahlen geliefert, der nichts mit dem Energieverbrauch zu tun hat. Bald ist das halbe Dutzend voll.
Das muss ich leider nicht, weil der Grafikkprozessor - anders als bei den von uns primär genutzten x86 CPUs - de fakto nur als Teil der Grafikkarte erhältlich ist. Anders als bei der CPU, bei der man tatsächlich nur den Prozessor kaufen kann. Hier wäre etwas mehr sprachliche Feinheit bei dir wünschenswert.Wenn du schon klugscheißen willst, dann halte bitte wenigstens den Grafikprozessor und die -karte auseinander. Letztere besteht aus deutlich mehr als nur dem Prozessor.
So machst du dich höchstens lächerlich.
Wo auch immer ich das behauptet haben soll. Aber wieder mal ne tolle Unterstellung von dirIch bin ja mal gespannt, wann du entsetzt feststellst, dass Firmen im Kapitalismus keine Wohlfartsverbände sind und dir alles erzählen, damit du deren Produkte kaufst. Wird ein schwieriger Moment.
Nein. Euer Punkt, es gäbe keine Konkurrenzsituation, ist einfach falsch. Aus genannten Gründen.Nö, du hast deine eigene Interpretation beschrieben, die meiner widerspricht. Das ist in keinem Sinne eine Widerlegung.
Es macht keinen Sinn - Fun Bild | Webfail - Fail Bilder und Fail Videos[Sinnlose Rabulistik]
Na da bin ich jetzt mal auf deinen Beleg gespannt, wie das NVIDIA mit Maxwell oder Kepler nicht geschafft haben soll. Bitte konkrete Zahlen mit BelegenSelbst wenn man sie aber als Anhaltspunkt für die Marktsituation nimmt, ändert das nichts an den schon genannten Punkten. Natürlich würde NVidia gerne diese Käufergruppe erreichen, das haben sie aber bis auf wenige Enthusiasten selbst in Zeiten größerer Leistungssprünge nicht geschafft. So stark kann die neue Generation gar nicht ausfallen, dass eine relevante Masse von Pascal-Käufern auf den Nachfolger wechselt.
Ich mute nur eben sinnvoll, während ihr einfach völligen Unsinn mut maßt.
Das restliche Geflame ignoriere ich einfach mal, einer muss ja erwachsen sein
Meld dich wieder, sobald du mehr kannst als nur fernab jeder Realität zu provozieren.
So viel zum Thema wer hier provoziertFür unseren sprachlichen Feingeist dürfte es übrigens interessant zu erfahren sein, dass Sinn nicht die Tätigkeit, sondern deren Ergebnis ist. Bevor du wieder mal anfängt, offensichtliche Banalitäten auch noch falsch zu korrigieren und dich damit lächerlich zu machen.
Nein, plappere nicht irgendwelchen Stuss nach, nur weil dein Markenkollege unter Feuer geraten ist. Ist ja schlimmer als im Kindergarten hier.Der einzige der flamed bist du.
Nein, ich spekuliere wie ihr. Nur im Gegensatz zu euch mit Verstand und einer realistischen Einschätzung. Die Vorstellung der nächsten NVIDIA-Generation wird das auch zeigen, da warte ich ganz gespannt draufErwachsen verhältst du dich auch nicht und mutmaßen tust du auch nur auf Basis von Wunschvorstellungen. Es kann einfach so vieles passieren. Nvidia lässt sich nun mal nicht in die Karten schauen.