News Geforce RTX 4060 Ti: Colorful bestätigt Takt und Speicher

Es handelt sich hier doch nur um die VRAM Reservierung auf einer 4090, der tatsächliche Verbrauch wird bei den kleineren Karten geringer ausfallen. Dementsprechend werden dann ja auch 8 GB für 1080 p empfohlen.

FSR 2 ist von DLSS 3 meilenweit entfernt, da es leider kein Frame Generation bietet.
UND Frame Generation braucht anscheinend 1 GB GPU Speicher, plus RT, ja klar reichen die 8 GB völlig
 
Es ist auch meines Erachtens eine Frechheit nach der 3060 Ti nun eine 4060 Ti mit 8 GB für 500 $ ohne Steuern nachzuschieben.

Es wäre besser, wenn AD106 als RTX 4060 Ti zumindest mit 12 GB GDDR6 VRAM ohne X ausgestattet wäre, also die gleiche Menge wie die 4070 bieten würde.
 
Zuletzt bearbeitet:
Ohje. Düstere Zeiten für Mittelklasse-Käufer. Hoffen wir a), dass Nvidia die Option auf Speicherverdoppelung wiederbelebt und b) dass AMD nicht nur ein 12-GiByte-Modell auffahren wird (um mehr Auswahl zu haben). Da stellt sich ein weiteres Mal die Frage, warum kein Speicher-Hersteller 1,5-GiByte-Chips baut, wo der Bedarf größer denn je ist. Die Interfaces wachsen nicht mehr, also muss es die Dichte.

MfG
Raff

Wenn die GPU-Leistung wirklich auf 2080-Ti-Niveau + besseres RT ist, dann wären auch 16 GiB mit leicht verfügbaren 2-GiB-Chips keine Überdimensionierung. Vielleicht etwas mehr auf Zukunftsreserve getrimmt, als in dieser Klasse nötig – aber der Trend geht eindeutig zu schnell zunehmenden Details und wenn weitere Designer zu faul sein sollten, die Direct-Storage-Lösungen der Konsolen durch einen Mechanismus zu ersetzen, der weiß was Arbeitsspeicher ist, können größere Puffer auf der Grafikkarte auch Rechenlast auf der GPU einsparen. 1,5 GiB je Kanal hatte ich bei Ampere als optimale Chipgröße quer durch alle Klassen erachtet. (Kam aber nicht einmal dort, wo Platz für 1-GiB-Chip + 0,5-GiB-Chip gewesen wäre.)
 
Fast so wie bei der RTX 4080 12 GB, die Karte hätte man auch besser gestrischen und vieleicht als 4050ti noch akzeptieren können. Natürlich dann günstiger;)
 
Oh man, wie kann man ein Produkt nur schon vor dem Release so unbeliebt machen. Problem ist, AMD wird sicher das gleiche machen.
 
Nicht beschweren und jammern, einfach eine AMD Karte oder gar keine kaufen.
Nvidia reagiert nur dann wenn der Umsatz fällt.

Schön, damit bleibt die 1080ti definitiv noch ein wenig länger im Einsatz.
Und genau deswegen baut Nvidia nur noch wenig VRAM auf die Karten. Weil Leute wie du nicht jede Generation eine neue GPU kaufen. :devil:
Glaube ich nicht, bis jetzt waren AMD Karten immer Speichermässig im Vorteil.
Ausnahme: rtx 3600 12 GB
Und die kam nur mit 12GB weil selbst Nvidia festgestellt hat, dass im Vergleich 6GB zu wenig sind.
 
UND Frame Generation braucht anscheinend 1 GB GPU Speicher, plus RT, ja klar reichen die 8 GB völlig
Ja sicher reichen die, wenn DLSS eingesetzt wird, da DLSS den VRAM Verbrauch zunächst einmal deutlicher reduziert als Frame Generation diesen erhöht. In der Summe ergibt sich somit eine VRAM Ersparnis beim gleichzeitigem Einsatz von DLSS 3 und Frame Generation.

1681741057779.png
 
Ich sehs schon kommen, die 4060ti wird so einen Shitstorm lostreten, zurecht, dass NVidia die 4060 wieder mit doppelten Speicher ausstatten muss und mit 16GB auf dem Markt kommt :lol:
Aber unter uns, eine 4060er mit 16GB und 3070er Performance für 400-450€. Ich wär dabei.

Für "fachkundige" wie hier im Forum ein Unding.... für Otto-Normal-Media-Markt-Käufer eine super Karte.
Ich kenne einige von diesen Spezis und die gehen davon aus, dass je mehr VRAM, desto schneller und jetzt lasse den 3060/2060er 12GB Nutzer mal vor dem Regal stehen und die 4060ti mit 8GB bewundern, selbst der sollte hier skeptisch werden.

Die Zeiten sind leider vorbei und werden wohl auch nicht so schnell wiederkommen.
In Zeiten, wo Elektronik immer günstiger wird (einfach mal den Fernseher-Markt ansehen), können günstige GPU-Preise schnell wieder kommen. Der Kunde entscheidet.
 
...Wenn Preis/Leistung stagniert, dann denke ich werden die Verkaufszahlen einbrechen.

Ich denke auch das damit zurechnen ist.
Der Markt verändert sich zunehmend, die Kaufkraft lässt ebenfalls nach.
Entweder wird man sich in naher Zukunft mit eine kleineren Cliente zufrieden geben müssen welche diese Preise noch bezahlen können, oder man bietet dem Verbraucher eben mehr fürs Geld.
Man könnte aber auch die GTX Sparte ausbauen, mit dem Hintergrund das man eben auf Raytracing etc. verzichten müsste. Raytracing muss nicht für jeden ein Kaufargument sein.
 
Würde ich mir persönlich nicht kaufen, dafür ist FSR 2 im Vergleich zu DLSS 3 einfach zu schlecht.
Grundsätzlich sehe ich das genauso. Problem dabei ist, dass DLSS 3 auf einer 8GB Karte eh kaum nutzbar ist, da der Speicher auch so schon kaum reicht, selbes gilt für RT und das wird in der nächsten Zeit noch schlimmer werden.

Dann lieber eine RX6000er für das Geld mit genug VRam und mehr Rasterleistung, dann braucht man DLSS / FSR eh nicht und auf RT zu verzichten wäre in dem Fall noch der bessere Kompromiss. Beste Lösung wäre natürlich auf eine 4070 zu gehen, wenn es das Budget hergibt.

Kommt aber natürlich auf die Spiele an.

Und 8 GB VRAM reichen in Full HD doch noch locker aus, bis auf ein paar schlecht optimierte Ausnahmen, wo man dann halt nen Regler nach links schieben muss (https://www.gamestar.de/artikel/hat-eure-grafikkarte-genug-vram-benchmarks,3392742.html)

Das mit den "schlecht optimierten Ausnahmen" ist ein Märchen von Leuten, die es einfach nicht wahr haben wollen. Auf PCGH wird ja mittlerweile vom Kauf einer 8GB Karte ausdrücklich gewarnt und es gibt gute Gründe dafür. Die Leute, die berufsmäßig die GPUs durchtesten bekommen ja einen erstklassischen Einblick darüber wie die Situation tatsächlich ist.

Es wird in der nächsten Zeit immer mehr Spiele geben, die mit 8GB nicht optimal laufen. Das trifft ja jetzt schon auf eine Hand voll kürzlich erschienener Titel zu. Da kann man jetzt auf die Entwickler schimpfen, aber es ist nunmal so, dass es das "perfekt optimierte Spiel" sowieso nicht gibt. Hardwareanforderungen steigen nunmal mit der Zeit und NVidia versucht uns nun schon seit GTX 1000 (2016) in der Mittelklasse mit einer nahezu unveränderten VRam Ausstattung abzuspeisen. In der Hinsicht ist der Bogen langsam überspannt.
 
Das sehe ich anders und die Kollegen bspw. von PCGH und der Gamestar auch.
(https://www.pcgameshardware.de/Graf...iel-Grafikspeicher-brauchen-Sie-2023-1411842/)

Für den überwiegenden Großteil aller Spiele werden 8 GB noch lange in Full HD reichen.
Warum bitte soll ich mich bei dem Preis künstlich auf FHD limitieren bitte?
Das ist eine Einsteiger Grafikkarte die aber vom Preis her in gehobene Mitteklasse einsortiert wurde und für den Preis erwarte ich deutlich mehr als überhaupt geboten wird.
 
Ja sicher reichen die, wenn DLSS eingesetzt wird, da DLSS den VRAM Verbrauch zunächst einmal deutlicher reduziert als Frame Generation diesen erhöht. In der Summe ergibt sich somit eine VRAM Ersparnis beim gleichzeitigem Einsatz von DLSS 3 und Frame Generation.

Das sind 8K-Werte. Die VRam Nutzung bei z.B. WQHD im Vergleich von nativ zu DLSS Quality verändert sich deutlich weniger, weil einfach der Unterschied in der Pixelmenge sehr viel geringen ist. Das ist mit diesem 8K-Werten nicht zu vergleichen. Und DLSS Werte unter Quality will man in WQHD normalerweise erst garnicht verwenden.
 
Eine 60er ist doch nicht die Zielgruppe einer 80ti? Egal wie alt die sind.

Und warum kostet sie dann so viel wie eine? :-o

Ernsthaft: Es gibt durchaus 80ti-Nutzer, die gehören gar nicht zur 80ti-Zielgruppe, sondern haben mal günstig eine gebraucht abgegriffen. Als mir meine 2080ti in den Rechner kam, lagen die eBay-Preise schon deutlich unter RTX-4070-Neu-Niveau (und das hätte und habe ich nicht einmal bezahlt), von daher bin ich wohl auch in der 4060er-Zielgruppe, trotz 80ti-Nutzung.
Oder eben nicht, wenn Nvidia da einen 8 GiB-Waschlappen für 500 Tacken in die Landschaft stellt.
 
Zurück