News Geforce RTX 4060 Ti mit 16 GiByte ... - Das sagen die PCGH-Redakteure dazu

Das halte ich für ausgeschlossen, hängt davon aber davon ab wie Low dann aussieht. Füe den heutigen Matsch, sicher nicht.
 
Also würde es laut dir Sinn ergeben eine 24GB 4070 aufzulegen, weil die 4070 Käufer sich sonst betrogen fühlen?
Dann noch eine 32GB RTX 4080?
Da ist er wieder, der unermüdliche Nvidia-Verteidiger. :schief:

Sorry, aber vollkommen unabhängig vom Interface dürfte sich jeder 70er-Käufer verarscht vorkommen. Ebenso wie schon bei den 3000ern. Ich habe selbst eine 3060 12 GiB und kann jeden Unmut diesbezüglich von Usern verstehen, die nominell stärkere Nvidia-Karten erworben haben, aber mit weniger Speicher auskommen müssen.

Ein super Beispiel hat uns @PCGH_Raff hier glaube ich mal mit Far Cry 6 gezeigt.
Ganz ehrlich, man kann gerne Fan einer Marke sein, das heißt aber nicht, dass man alles fressen muss und nichts kritisieren darf. Du bist leider aber ein Beispiel für dieses Verhalten: Egal was Nvidia macht, selbst wenn es von Fachredakteuren kritisiert wird, ist für Dich super.

So leid es mir tut, aber so wird Dich hier niemand ernst nehmen. Jeder Hersteller macht Fehler und jeder (selbst wenn er diesen Hersteller mag/bevorzugt) sollte diese dann auch benennen. Und Nivida UND AMD begehen hier beide wieder den Fehler der zu geringen Speicherbestückung.
 
Es geht nicht nur um Raytracing, sondern um die Upscalling Technologien, welche auch die aktuellen Konsolen durchgehend nutzen. Das sind die Fortschritte der KI.

Wer heute eine RTX 4060(ti) kauft, der wird nur mit DLSS3 (Frame Generation ist includiert) in aktuellen Spielen richtig Freude haben. Die 15% mehr Rasterleistung zu Ampere sind hingegen völlig uninteressant.

Die Tendenz, denke ich, ist klar und KI-Methodiken sind schon in dieser Generation ab der Einstiegs/Mittelklasse, unerlässlich.
Mit Jedi Survivor und the Last of Us sind die beiden größten Titel der letzten Monate ohne Support für DLSS 3 erschienen. Dieses "Es zählt nur noch Upsampling und keine Rasterleistung mehr" ist nichts weiter als ein Märchen. Ein Märchen, das Nvidia in die Tasche spielt.

DLSS 3 ist genauso wenig Standard wie Raytracing.
 
Also würde es laut dir Sinn ergeben eine 24GB 4070 aufzulegen, weil die 4070 Käufer sich sonst betrogen fühlen?
Dann noch eine 32GB RTX 4080?
Nee, darum geht's nicht. Nvidia hätte die Karten und deren Speicherinterfaces von vorneherein so designen müssen, dass von xx50 bis xx90 mit mehr Leistung auch immer mehr Speicher einhergeht. Ist ja nicht so, als wäre das technisch unmöglich.

An den von Nvidia geschaffenen Fakten lässt sich nun nachträglich natürlich nichts mehr ändern; das Kind ist in den Brunnen gefallen und niemand redet jetzt noch davon, eine 24-GB-4070 oder 32-GB-4080 nachzuschieben.
 
Nee, darum geht's nicht. Nvidia hätte die Karten und deren Speicherinterfaces von vorneherein so designen müssen, dass von xx50 bis xx90 mit mehr Leistung auch immer mehr Speicher einhergeht. Ist ja nicht so, als wäre das technisch unmöglich.

An den von Nvidia geschaffenen Fakten lässt sich nun nachträglich natürlich nichts mehr ändern; das Kind ist in den Brunnen gefallen und niemand redet jetzt noch davon, eine 24-GB-4070 oder 32-GB-4080 nachzuschieben.
4050 6GB
4060 8GB
4070 12GB
4080 16GB
4090 24GB

Mal das Steamsurvey betrachtet


VRAM
1GB 8%
2GB 7%
4GB 14%
6GB 19%
8GB 28%
10GB 3%
12GB 10%
16GB 0,6%
24GB 1,7%

Wir sind weit davon weg, dass ein Spiel mit 8GB nicht läuft.
 
Zuletzt bearbeitet:
Da ist er wieder, der unermüdliche Nvidia-Verteidiger. :schief:
Ich verteidige gar nichts, ich versuche zu verstehen wieso sich 4070 Käufer betrogen fühlen sollen, wenn doch der Aufpreis für die 16GB Variante Apple Like so hoch ist.

Ist ein 128bit SI mit 8 oder 16GB Speicher zu schwer zu verstehen?
Sorry, aber vollkommen unabhängig vom Interface dürfte sich jeder 70er-Käufer verarscht vorkommen.
Interessant dass dich diese 4070 Käufer so interessieren. Ich bin absolut zufrieden mit meiner Karte und sie war für meine Bedürfnisse die bessere Wahl als eine 300 Watt 6900 oder 6800XT.
Ebenso wie schon bei den 3000ern. Ich habe selbst eine 3060 12 GiB und kann jeden Unmut diesbezüglich von Usern verstehen,
Stimmt, vergessen,kann mit 8 GB ja gar nicht mehr spielen. :-S
Ein super Beispiel hat uns @PCGH_Raff hier glaube ich mal mit Far Cry 6 gezeigt.
Stelle den Qualitätsregler eine Stufe zurück. Keine große Sache.
Das HD Texturpack sieht man optisch kaum.
Ganz ehrlich, man kann gerne Fan einer Marke sein, das heißt aber nicht, dass man alles fressen muss und nichts kritisieren darf.
Richtig. Aber deine Kritik ist ja kindisch.
Anderen einreden zu wollen man müsse sich verarscht fühlen, weil eine teurere 4060Ti Variante mit doppeltem Speicher veröffentlicht wird, weil 12GB oder 10GB nicht zum SI passen. Naja:D

Ich habe trotz autistischer Veranlagung so viel Textverständnis und Menschenkenntnis und kann Kritik von Agitation unterscheiden.
Du bist leider aber ein Beispiel für dieses Verhalten:
Ich sehe Nvidia durchaus sehr kritisch, vor allem mit den Preisen und den 8GB Speicher, aber im Rahmen einer gesitteten, vernünftigen, maßvollen, faktenorientierten Betrachtung, ohne so zu übertreiben.
Egal was Nvidia macht, selbst wenn es von Fachredakteuren kritisiert wird, ist für Dich super.
Was für ein BULLSHIT!
So leid es mir tut, aber so wird Dich hier niemand ernst nehmen.
Von Leuten wie dir hätte ich das sowieso nicht erwartet.
Jeder Hersteller macht Fehler und jeder (selbst wenn er diesen Hersteller mag/bevorzugt) sollte diese dann auch benennen.
Damit habe ich kein Problem.
Und Nivida UND AMD begehen hier beide wieder den Fehler der zu geringen Speicherbestückung.
Sicher. Was noch lange nicht Matsch bedeutet oder den Nutzer vor unlösbare Probleme stellt.

Einfach nicht kaufen.
 
4050 6GB
4060 8GB
4070 12GB
4080 16GB
4090 24GB
Das Thema hier sind die 16 GB einer 4060Ti im Vergleich zu den 12 GB einer 4070(Ti). Hat mit dem, was du hier postest, genau gar nichts zu tun. Abgesehen davon glaube ich nicht, dass wir eine 4050 mit nur 6 GB sehen werden

Mal das Steamsurvey betrachtet


VRAM
1GB 8%
2GB 7%
4GB 14%
6GB 19%
8GB 28%
10GB 3%
12GB 10%
16GB 0,6%
24GB 1,7%

Wir sind weit davon weg, dass ein Spiel mit 8GB nicht läuft.
Keine Ahnung, was diese ewige Posterei von irgendwelchen Steam-Surveys soll. Ja, wir haben's verstanden, ein Drittel der Weltbevölkerung spielt auf PCs, die älter sind als der Abakus. Und? Was soll uns das sagen? Soll das der Maßstab für zukünftige Grafikkartengenerationen oder für die Entwicklung aktueller AAA-Titel sein?

Natürlich kann man unglaublich viele Spiele auch mit älteren Karten noch zum Laufen bekommen, wenn RT egal ist, die
Auflösung und die Grafikeinstellungen reduziert werden und man sich gegebenenfalls mit 30 oder 40 FPS begnügt. Nur kann das - seltsam, dass man das immer wieder sagen muss - wohl kaum der Maßstab sein, wenn man sich eine nagelneue Karte für 500 Euro aufwärts in den Rechner steckt.
 
Nee, darum geht's nicht. Nvidia hätte die Karten und deren Speicherinterfaces von vorneherein so designen müssen, dass von xx50 bis xx90 mit mehr Leistung auch immer mehr Speicher einhergeht. Ist ja nicht so, als wäre das technisch unmöglich.

An den von Nvidia geschaffenen Fakten lässt sich nun nachträglich natürlich nichts mehr ändern; das Kind ist in den Brunnen gefallen und niemand redet jetzt noch davon, eine 24-GB-4070 oder 32-GB-4080 nachzuschieben.
Nvidia hat in ihrem Artikel klar gemacht warum die das Interface so wählen wie sie es wählen: Kosten. Nur so groß, dass die Datentransferrate kein Problem darstellt. Und damit man keine anderen Karten kannibalisiert brav sparsam beim VRAM sein.
 
Solange die 16GB mit nur 128Bit Speicherinterface angebunden sind, ist das ja wohl ein schlechter Witz ? Früher hatten NVidia Mittelklassekarten 384Bit Speicherinterface und nur die Lowbudget hatten 64 und 128 ? Gut möglich, dass die Geschwindigkeit einer 4070 im Vergleich zu einer 4060 auch nicht zuletzt durch 192 statt nur 128Bit kommt ?
 
Mit Jedi Survivor und the Last of Us sind die beiden größten Titel der letzten Monate ohne Support für DLSS 3 erschienen. Dieses "Es zählt nur noch Upsampling und keine Rasterleistung mehr" ist nichts weiter als ein Märchen. Ein Märchen, das Nvidia in die Tasche spielt.

DLSS 3 ist genauso wenig Standard wie Raytracing.
Das kann nicht dein Ernst sein logisch das kein Support vorliegt wenn AMD sponored weil AMD das verhindert. Danke übrigens AMD das man nur den Rotz FSR verwenden kann ohne Mods. Auch hätte Fg in Jedi extrem geholfen wegen dem Cpu Limit.
4050 6GB
4060 8GB
4070 12GB
4080 16GB
4090 24GB

Mal das Steamsurvey betrachtet


VRAM
1GB 8%
2GB 7%
4GB 14%
6GB 19%
8GB 28%
10GB 3%
12GB 10%
16GB 0,6%
24GB 1,7%

Wir sind weit davon weg, dass ein Spiel mit 8GB nicht läuft.
Wenigstens einer mit Hirn.
 
Stell die Auflösung auf 4K, dann siehste eh keinen unterschied mehr bei DLSS oder FSR. Ich spiele in 4K und daher interessiert mich das Thema eh nich. ^^
 
Preislich ist die 16 GiB-Variante halt eine "Apple-Grafikkarte", bei denen zahlt man für mehr Speicher (in dem Fall natürlich nicht -V-RAM) auch immer einen unfassbaren Aufpreis, den niemand so recht verstehen kann, der dann aber dennoch von einigen gelöhnt wird.

Naja, man sieht, ich finde den Aufpreis viel zu extrem. Dieser hat natürlich keine vernünftigen Gründe, Nvidia möchte wohl nur erreichen, dass die 8 GiB-Variante überhaupt Käufer findet - daher kommt diese auch früher.

Abseits dessen ist das wieder ein Schlag ins Gesicht für jeden 70er-Käufer...
Jetzt wird sich schon über Optionen beschwert. :stupid:
Stell die Auflösung auf 4K, dann siehste eh keinen unterschied mehr bei DLSS oder FSR. Ich spiele in 4K und daher interessiert mich das Thema eh nich. ^^
Dann bist du halt Blind denn ich Zocke auch in 4k. Aber woher willst du das überhaupt wissen.:schief:
:haha:
 
Mit Jedi Survivor und the Last of Us sind die beiden größten Titel der letzten Monate ohne Support für DLSS 3 erschienen.
Jedi Survivor hat FSR2 Unterstützung und The Last of US DLSS.
Es erscheinen keine Spiele mehr ohne Upscaling Kram.

Nur weil kein DLSS3 unterstützt wird, wird es die Entwicklung auch nicht aufhalten.
Dieses "Es zählt nur noch Upsampling und keine Rasterleistung mehr"
So ist es heute fast in jedem Titel.
In Jedi Survivor ist Upscaling standardmäßig aktiviert.
ist nichts weiter als ein Märchen. Ein Märchen, das Nvidia in die Tasche spielt.
Nö.
DLSS 3 ist genauso wenig Standard wie Raytracing.
Thomas sprach nicht nur von DLSS3.
Falscher Hals und so.
Stell die Auflösung auf 4K, dann siehste eh keinen unterschied mehr bei DLSS oder FSR.
Stimmt. Ich nutze DLSS Performance und du FSR Qualität und ich habe 50% mehr Leistung bei vergleichbarer Qualität. :daumen:
Ich spiele in 4K und daher interessiert mich das Thema eh nich. ^^
Du wûrdest überlegene Features der Konkurrenz nie einräumen.
Genau das ist dein Problem.
AMD hat nicht ein Feature das momentan dem von Nvidia gleich kommt oder überlegen wäre, deshalb ätzt du so verzweifelt bei dem Vram Thema. Dir bleibt einfach nichts anderes.

Eine Runde Mitleid.
 
Zuletzt bearbeitet:
Stimmt, mein Fehler. Gab 1x eine Serie mit 512 und 448bit.
wollte nur schlau sein :D aber in der regel geb ich dir und deiner aussage zu 100% recht .=)

edit: meine radeon 9800pro hatte schon 256bit , was will ich mit 16 gb und 128 bit .. geht mal weg und baut was wie früher wo 1000 Euro gerechtfertigt waren :D
 
Spielt durch die Cache Hitrate keine Rolle. Die effektive Bandbreite steigt sogar. Und bei nur 25% mehr Leistung braucht man keine große Bandbreite.

Nein.384 bit hatte immer der Top Chip.
Das mit den cash und der höhren leistung will ich erst in ne test sehen.

Von daher müßen die Test vorliegen dann können wir darüber diskutieren.
 
Zurück