Nvidia Next-Gen: Drei neue Trademarks registriert und vermeintlicher Leak - Turing, RTX statt GTX und Performance

Krumme Upgrades wären ja ok, wenn auch eben krumm - downgrades, zudem krumme, sind allerdings schwerer zu verdauen aber egal, siehe deine letzten 7 Worte...


Aber nicht aus Überzeugung der Community, sondern weil Grün dies genau so argumentieren wird...

Wenn die 2070 wirklich 40% schneller als die 1070 wird, gibt es mehr als genug Käufer dafür. In 1440p braucht es keine 8GB und für 4k war die 1070 auch nie geeignet.
Die 1080 ist ja auch keine 4k Karte.

Und auch mit 40% Mehrleistung im Vergleich zur 1070 wird aus der 2070 keine 100% 4k Karte
 
Krumme Upgrades wären ja ok, wenn auch eben krumm - downgrades, zudem krumme, sind allerdings schwerer zu verdauen aber egal, siehe deine letzten 7 Worte...
Klar wäre das schwer zu verdauen, wird aber von Nvidia sicher über den Preis kommuniziert werden, wenn es denn so kommt "Wir mussten leider einen RAM Chip einsparen, weil die Karte sonst viel zu teuer geworden wäre..."
Für mich macht gerade diese krumme RAM Bestückung den Leak glaubwürdiger, sowas denkt sich doch keiner aus, eben weil es so abwegig ist. Naja, warten wir mal ab, Siggraph und Gamescom sind ja bald, dann hat sich der Spuk um Leaks und Gerüchte erledigt. Ich find es aber eigentlich ganz spannend, man darf nur nicht in Hysterie verfallen :D
 
Richtig viel und schneller Speicher wird nur wieder die Miner anlocken. Wenn man nun erstmal moderne Chips mit akzeptabel ausgestattetem Ram zu vernünftigen Preisen bringt ist das doch schon mal besser als nichts (siehe AMD). Man kann dann ab Midrange noch ein LineUp mit doppelter Speicherbestückung raus hauen, wo sich dann halt beide Parteien ernsthaft überlegen müssen ob das Sinn macht / ob es sich rechnet so viel Geld auszugeben.
 
Ich wette, dass es so kommen wird.
2080 ersetzt die 1080 (Vram bleibt gleich) und ~6 Monate später kommt dann die TI mit 11/12GB Vram für 900€.
 
Wenn die 2070 wirklich 40% schneller als die 1070 wird, gibt es mehr als genug Käufer dafür. In 1440p braucht es keine 8GB und für 4k war die 1070 auch nie geeignet.
Die 1080 ist ja auch keine 4k Karte.

Und auch mit 40% Mehrleistung im Vergleich zur 1070 wird aus der 2070 keine 100% 4k Karte
Auch wenn ich dir grundsätzlich völlig recht gebe, wäre ich da vorsichtig - ein Groß der Karten besitzt nun schon eine Weile 8 GB VRam - üblicherweise passen Entwickler ihre Software in Sachen Speicherbedarf den Gegebenheiten an und sparen gern Optimierungsressourcen ein.

Zudem bleibt downgrade einfach downgrade - Ob es zu vor nen Flaschenhals gab oder nicht, ist vor allem fürs Marketing (im übrigen die gleiche Abteilung, die einem zuvor noch verkaufen wollte, dass es 6 GB braucht) völlig egal. Auf der Packung steht ne kleinere Zahl und nur darum geht's.. Mich würde es nicht wundern, wenn manch einer, bei 2060 mit 5GB GDDR6 und einer 1060 mit 6GB GDDR5 derart verwirrt ist, dass er zur falschen Karte greift... Der gemeine Käufer schert sich doch nicht um Durchsätze.


Klar wäre das schwer zu verdauen, wird aber von Nvidia sicher über den Preis kommuniziert werden, wenn es denn so kommt "Wir mussten leider einen RAM Chip einsparen, weil die Karte sonst viel zu teuer geworden wäre..."
Für mich macht gerade diese krumme RAM Bestückung den Leak glaubwürdiger, sowas denkt sich doch keiner aus, eben weil es so abwegig ist. Naja, warten wir mal ab, Siggraph und Gamescom sind ja bald, dann hat sich der Spuk um Leaks und Gerüchte erledigt. Ich find es aber eigentlich ganz spannend, man darf nur nicht in Hysterie verfallen :D
sehe ich genauso, wie auf der vorigen Seite beschrieben
 
Zuletzt bearbeitet:
Ich hab echt keine Ahnung, warum immer wieder (fälschlicherweose) behauptet wird, die amd Karten könnten nicht mithalten.
Es gibt nur kein Äquivalent zur TI und zur Titan (wobei wohl kaum einer so wahnsinnig ist, sich die Titan V für den Spiele PC zu kaufen).
Es gab generell nicht so viel Bewegung in der Industrie.
Alles unterhalb der 1070 gab es vor 4 Jahren schon mit gleicher Leistung zum gleichen Preis.
Dennoch haben AMD und Nvidia gleich mehrere Generationen an GPUs veröffentlicht und den Preis hochgedreht ( teilweise wegen RAM verdoppelung).
Nvidia hat sogar die 1070 TI veröffentlicht, um ein Kontra zur Vega 56 zu haben.
Die 1080 TI wurde aich mehr oder weniger kurz vor der Vega 64 veröffentlicht.
Und die aktuellen Preise haben weder AMD, noch Nvidia zu verschulden, sondern die Boardpartner und die Händler.

Edit:
@Thorbald

Ein Großteil der Karten ist noch immer bei 1060 und niedriger zu finden.
Selbst auf Steam kommt die 1070 gerade mal auf 4%.
Der 1080 geht es nicht besser.
Von der TI und der Titan mal ganz zu schweigen.

Daher wäten selbst 7 GB noch ein Upgrade.

Und die 3,5GB der 970 wurden ja auch gekauft. Die Leistung war ja offenbar genug...
 
Bezweifle doch stark dass die neue xx60 weniger Vram haben wird wie die aktuelle...

Das wäre zwar zu wünschen, aber aktuell prügelt sie sich häufig mit Karten, die nur 4 GB haben.

Edit:
Aktuell kostet eine 1060 FE noch immer 289€ - ist aber nicht lieferbar.

Das fehlende GB RAM könnte Nvidia als Marketing nehmen, um den Preis um ein paar € zu senken
 
@Thorbald

Ein Großteil der Karten ist noch immer bei 1060 und niedriger zu finden.
Selbst auf Steam kommt die 1070 gerade mal auf 4%.
Der 1080 geht es nicht besser.
Von der TI und der Titan mal ganz zu schweigen.

Daher wäten selbst 7 GB noch ein Upgrade.

Und die 3,5GB der 970 wurden ja auch gekauft. Die Leistung war ja offenbar genug...
Klingt einleuchtend -nur werden AAA Titel mit Ultra Setting (Raytracing inklu) selten für 1050 und co. entwickelt. Für jene gibt es dann Regler... Ein Groß ist euch nicht DER Großteil sondern ein großer Teil - in diesem Fall ein großer Teil der aktuellen Generation...
Und selbst wenn 7 GB ein Upgrade wären, wären 8 ein größeres...

Vermutlich würde der Vram wie er hier veranschlagt wird, wirklich reichen - by the Way wäre es auch wieder etwas mehr Angriffsfläche für AMD- aber es ist eben net fein...
Beim oberen Absatz bin ich voll bei dir...
 
Ist ja trotzdem kein Grund weniger Vram einzubauen, eher wird es mehr geben oder mindestens gleich viel.

Ein Grund wäre schlechte Ausbeute bei der Produktion der Chips - was für 7nm sprechen würde.
Und dann kann Nvidia später noch eine TI Version, oder eine 2065 rausbringen, sobald es genug Chips mit vollem Speicherinterface gibt
 
Ist ja trotzdem kein Grund weniger Vram einzubauen, eher wird es mehr geben oder mindestens gleich viel.

Heute gibt es 1060er mit 3-6 GB Vram. Morgen gibt es die 2060 mit 5-10 GB Vram. Wo ist das Problem ? Das die 10 GB Karte möglicherweise erst später kommt ? Die GTX 580 gab es in einer 3 GB Version. Der namentliche Nachfolger hatte erstmal nur 2 GB. Wie konnten wird das nur aushalten einseinself... :heul:
 
Ich halte die Liste da oben für nen Fake.
Alleine die Speichermengenangaben und die nach unten hin stark abnehmenden Performanceschübe lassen einen sehr stark daran zweifeln.
Wer sollte sich eine 2070 kaufen, wenn diese weniger RAM hat, als für diese Leistungsklasse mindestens gefordert ist?
8GB ist absolutes Minimum. Genügend Spiele können den bereits gut füllen. Wer will eine weitere 970???
Und warum wird die Oberklasse mit der 2080 50% fixer gemacht, die Mittelklasse mit der 2060 aber nur 26%?
Es war bereits vorher schon ein Loch zwischen der 1060 und der 1070, bei den kleinen Staffelungen hätten viele Spieler lieber zu eine nie erschienenen 1060 Ti gegriffen.
Somit würde die neue 2060 ja quasi zu einer LE ("Light Edition") degradiert werden.
Wenn man eine neue Generation rausbringt, versucht man normalerweise in jedem Umfeld ein ordentliches Leistungsplus herauszukitzeln, damit auch jeder Gamer sich eine neue Karte kaufen möchte.
Aber so wie ich das sehe, würde quasi nur noch die 2080 einen Kauf Wert sein, wobei man für den zu erwartenden Preisanstieg dann aber auch schon wieder mehr als genug Mecker für zu wenig Speicher für den Preis sich anhören muss.
Meiner Meinung nach wären die Karten allesamt uninteressant, zu teuer, zu wenig Speicher, zu wenig Leistungsschub, irgendetwas trifft mindestens einmal pro Karte zu.
Dann lieber warten, ob AMD nächstes Jahr die Preise aufmischen kann.
 
Es wäre ja auch nicht das erste Mal, dass Nvidia die Gamergemeinde mit krummer RAM-Bestückung "erfreut", ich erinnere mich an Karten mit 768MB und 1,25GB RAM, die 3,5GB der 970 waren ja auch so ein Knaller.

Das muss man anders sehen:
-Die Speichergröße richtet sich nach der Größe des Speicherinterface (SI).

Bei deinen Beispielen handelt es sich wahrscheinlich um:
768MB = GTX 8800 Ultra .... 384-Bit SI
1,25Gb = GTX 570 ... 320-Bit SI

Die andere Möglichkeit wäre 256-Bit bei 512 bzw.1024MB oder halt 1 oder 2GB im Fall der GTX570. Die Karten wären dann aber auch langsamer gewesen. Die RAM-Preise waren damals auch nicht gerade billig.

Bei der GTX 970 war das anders. Da hat Nvidia im Chip selbst die GPU-cluster beschnitten hat, die mit der neuen Architektur somit aber weniger ROPs und Speicherbandbreite von 256-bit. Die extra 0,5GB waren langsam angebunden aber vorhanden.

Es macht wenig Sinn, wenn Nvidia zwar den teuren GDDR6-Speicher verbaut, diesen aber nicht anbindet. Vor allem nicht in Gigabyte Größe. Da gebe es viel elegantere Lösungen eine Karte zu beschneiden.

Sinnvoller wäre es z.B. die x70 und x80er Karten mit unterschiedlichen GDDR6 Geschwindigkeiten von 12-16 GBps auszustatten. Das macht einen Unterschied!

Das dient alles nur dazu, die Kosten gering und den Gewinn hoch zu halten. Aus unternehmerischer Sicht ist das natürlich vernünftig, gekauft werden die Karten mangels Konkurrenz sowieso.

Das müssten wir hier erst durchrechnen. Vorläufig ist es nur ein Annahme eines dubiosen Youtubers mit fraglichen Quellen. Ich garantiere dir, falls es sich als "fake" herausstellt, wird AdoredTV alles auf seine angebliche Quelle schieben.

Die Käufer werden außerdem nicht aufrüsten, wenn die neue Generation außer Gimmicks kaum Neuerungen bringen würde.

Aber aber es ist doch DDR6. Damit würde sich die Meute schon irgendwie beruhigen lassen.

Das hat AMD bei der lächerlichen 4GB HBM-Bestückung von Fiji auch gedacht. Es kam letztlich anders. Die Käufer sind nicht ganz so doof, wie man sie gerne hinstellt. :daumen:
 
Heute gibt es 1060er mit 3-6 GB Vram. Morgen gibt es die 2060 mit 5-10 GB Vram. Wo ist das Problem ? Das die 10 GB Karte möglicherweise erst später kommt ? Die GTX 580 gab es in einer 3 GB Version. Der namentliche Nachfolger hatte erstmal nur 2 GB. Wie konnten wird das nur aushalten einseinself... :heul:

Was meinst du, wieviel würde Nvidia für eine 2060 mit 10GB GDDR6 nehmen? ~400 / 450 €? Wer soll sowas denn kaufen? Warum sollte es eine GTX 2060 mit mehr Vram als eine RTX 2080 geben? Selbst wenn es von letzterer noch eine 16 GB Version gäbe, würde es keinen Sinn machen...
 
Zuletzt bearbeitet:
Klingt einleuchtend -nur werden AAA Titel mit Ultra Setting (Raytracing inklu) selten für 1050 und co. entwickelt. Für jene gibt es dann Regler... Ein Groß ist euch nicht DER Großteil sondern ein großer Teil - in diesem Fall ein großer Teil der aktuellen Generation...
Und selbst wenn 7 GB ein Upgrade wären, wären 8 ein größeres...

Die Ultra Settings werden inzwischen ja nicht mal für die 80er gemacht, geschweige denn die 70er.
Da geht es mehr um die 80 TI.
 
Das hängt von der Verfügbarkeit, den Kosten, und den Begehrlichkeiten der Miner ab. 50-100€ Aufpreis wären hier für eine 10 GB Karte realisierbar.

Würdest du eine GTX 2060 mit 10 GB für beinahe den gleichen Preis kaufen wie eine 47% (!!!) schnellere RTX 2070 mit 7 GB?


@BxBender Wo ich dass getippt habe - ich hab auch schon immer gesagt, die 1070ti brauchst net, die 1060ti umso mehr aber ne (sollte es so kommen) Lücke von 47% brüllt gerade zu nach ner 2060ti. Auch wenn die norm 2060 endlich die richtige 1080p Performance hätte, welche zur Zeit noch fehlt, genau wie ne echte und nicht überbepreiste Karte in der 300 Euronen Klasse....
 
Zuletzt bearbeitet:
Klingt einleuchtend -nur werden AAA Titel mit Ultra Setting (Raytracing inklu) selten für 1050 und co. entwickelt. Für jene gibt es dann Regler...

Das würde in Sachen Raytracing dann aber auch die 1080ti-Leute treffen, für die der Druck, aufrüsten zu "müssen", dadurch steigt. Sollte das so kommen, ist das ein für Nvidia genialer Marketingcoup: die RTX2080 ist kaum schneller als die 1080ti und hat weniger Speicher, sobald aber die ersten Raytracing-Effekte ins Spiel kommen, muss man eine RTX 2080 haben, wenn man ganz vorne bei den fps dabei sein will. Klar, viele User werden das rational sehen und nicht aufrüsten, viele andere werden es trotzdem tun. Ohne dieses Raytracing-Gedöns würde kaum einer von einer 1080ti auf eine RTX 2080 wechseln.
 
Sorry wenn ich da mal nachfrage aber es wurde und wird immer gesagt das 8 GB zukunftssicherer sei (was immer die Zukunft bringt) und jetzt soll es so sein das man den Speicher, auch wenn es GDDR6 sein soll, beschneidet?
Im Falle der "RTX" 2070 auf 7 GB und der GTX 2060 auf 5 GB? Wie passt das zusammen und was soll das? Finde es eigenartig.
 
Zurück