Da ist er wieder, der unermüdliche Nvidia-Verteidiger.Also würde es laut dir Sinn ergeben eine 24GB 4070 aufzulegen, weil die 4070 Käufer sich sonst betrogen fühlen?
Dann noch eine 32GB RTX 4080?
Mit Jedi Survivor und the Last of Us sind die beiden größten Titel der letzten Monate ohne Support für DLSS 3 erschienen. Dieses "Es zählt nur noch Upsampling und keine Rasterleistung mehr" ist nichts weiter als ein Märchen. Ein Märchen, das Nvidia in die Tasche spielt.Es geht nicht nur um Raytracing, sondern um die Upscalling Technologien, welche auch die aktuellen Konsolen durchgehend nutzen. Das sind die Fortschritte der KI.
Wer heute eine RTX 4060(ti) kauft, der wird nur mit DLSS3 (Frame Generation ist includiert) in aktuellen Spielen richtig Freude haben. Die 15% mehr Rasterleistung zu Ampere sind hingegen völlig uninteressant.
Die Tendenz, denke ich, ist klar und KI-Methodiken sind schon in dieser Generation ab der Einstiegs/Mittelklasse, unerlässlich.
Nee, darum geht's nicht. Nvidia hätte die Karten und deren Speicherinterfaces von vorneherein so designen müssen, dass von xx50 bis xx90 mit mehr Leistung auch immer mehr Speicher einhergeht. Ist ja nicht so, als wäre das technisch unmöglich.Also würde es laut dir Sinn ergeben eine 24GB 4070 aufzulegen, weil die 4070 Käufer sich sonst betrogen fühlen?
Dann noch eine 32GB RTX 4080?
Richtig, DLSS 3 ist zudem auch nur mit Karten der 4xxx-Gen nutzbar. Ein Schelm, wer...DLSS 3 ist genauso wenig Standard wie Raytracing.
4050 6GBNee, darum geht's nicht. Nvidia hätte die Karten und deren Speicherinterfaces von vorneherein so designen müssen, dass von xx50 bis xx90 mit mehr Leistung auch immer mehr Speicher einhergeht. Ist ja nicht so, als wäre das technisch unmöglich.
An den von Nvidia geschaffenen Fakten lässt sich nun nachträglich natürlich nichts mehr ändern; das Kind ist in den Brunnen gefallen und niemand redet jetzt noch davon, eine 24-GB-4070 oder 32-GB-4080 nachzuschieben.
Ich verteidige gar nichts, ich versuche zu verstehen wieso sich 4070 Käufer betrogen fühlen sollen, wenn doch der Aufpreis für die 16GB Variante Apple Like so hoch ist.Da ist er wieder, der unermüdliche Nvidia-Verteidiger.
Interessant dass dich diese 4070 Käufer so interessieren. Ich bin absolut zufrieden mit meiner Karte und sie war für meine Bedürfnisse die bessere Wahl als eine 300 Watt 6900 oder 6800XT.Sorry, aber vollkommen unabhängig vom Interface dürfte sich jeder 70er-Käufer verarscht vorkommen.
Stimmt, vergessen,kann mit 8 GB ja gar nicht mehr spielen.Ebenso wie schon bei den 3000ern. Ich habe selbst eine 3060 12 GiB und kann jeden Unmut diesbezüglich von Usern verstehen,
Stelle den Qualitätsregler eine Stufe zurück. Keine große Sache.Ein super Beispiel hat uns @PCGH_Raff hier glaube ich mal mit Far Cry 6 gezeigt.
Richtig. Aber deine Kritik ist ja kindisch.Ganz ehrlich, man kann gerne Fan einer Marke sein, das heißt aber nicht, dass man alles fressen muss und nichts kritisieren darf.
Ich sehe Nvidia durchaus sehr kritisch, vor allem mit den Preisen und den 8GB Speicher, aber im Rahmen einer gesitteten, vernünftigen, maßvollen, faktenorientierten Betrachtung, ohne so zu übertreiben.Du bist leider aber ein Beispiel für dieses Verhalten:
Was für ein BULLSHIT!Egal was Nvidia macht, selbst wenn es von Fachredakteuren kritisiert wird, ist für Dich super.
Von Leuten wie dir hätte ich das sowieso nicht erwartet.So leid es mir tut, aber so wird Dich hier niemand ernst nehmen.
Damit habe ich kein Problem.Jeder Hersteller macht Fehler und jeder (selbst wenn er diesen Hersteller mag/bevorzugt) sollte diese dann auch benennen.
Sicher. Was noch lange nicht Matsch bedeutet oder den Nutzer vor unlösbare Probleme stellt.Und Nivida UND AMD begehen hier beide wieder den Fehler der zu geringen Speicherbestückung.
Das Thema hier sind die 16 GB einer 4060Ti im Vergleich zu den 12 GB einer 4070(Ti). Hat mit dem, was du hier postest, genau gar nichts zu tun. Abgesehen davon glaube ich nicht, dass wir eine 4050 mit nur 6 GB sehen werden4050 6GB
4060 8GB
4070 12GB
4080 16GB
4090 24GB
Keine Ahnung, was diese ewige Posterei von irgendwelchen Steam-Surveys soll. Ja, wir haben's verstanden, ein Drittel der Weltbevölkerung spielt auf PCs, die älter sind als der Abakus. Und? Was soll uns das sagen? Soll das der Maßstab für zukünftige Grafikkartengenerationen oder für die Entwicklung aktueller AAA-Titel sein?Mal das Steamsurvey betrachtet
VRAM
1GB 8%
2GB 7%
4GB 14%
6GB 19%
8GB 28%
10GB 3%
12GB 10%
16GB 0,6%
24GB 1,7%
Wir sind weit davon weg, dass ein Spiel mit 8GB nicht läuft.
Nvidia hat in ihrem Artikel klar gemacht warum die das Interface so wählen wie sie es wählen: Kosten. Nur so groß, dass die Datentransferrate kein Problem darstellt. Und damit man keine anderen Karten kannibalisiert brav sparsam beim VRAM sein.Nee, darum geht's nicht. Nvidia hätte die Karten und deren Speicherinterfaces von vorneherein so designen müssen, dass von xx50 bis xx90 mit mehr Leistung auch immer mehr Speicher einhergeht. Ist ja nicht so, als wäre das technisch unmöglich.
An den von Nvidia geschaffenen Fakten lässt sich nun nachträglich natürlich nichts mehr ändern; das Kind ist in den Brunnen gefallen und niemand redet jetzt noch davon, eine 24-GB-4070 oder 32-GB-4080 nachzuschieben.
Spielt durch die Cache Hitrate keine Rolle. Die effektive Bandbreite steigt sogar. Und bei nur 25% mehr Leistung braucht man keine große Bandbreite.Solange die 16GB mit nur 128Bit Speicherinterface angebunden sind, ist das ja wohl ein schlechter Witz ?
Nein.384 bit hatte immer der Top Chip.Früher hatten NVidia Mittelklassekarten 384Bit Speicherinterface..
Das kann nicht dein Ernst sein logisch das kein Support vorliegt wenn AMD sponored weil AMD das verhindert. Danke übrigens AMD das man nur den Rotz FSR verwenden kann ohne Mods. Auch hätte Fg in Jedi extrem geholfen wegen dem Cpu Limit.Mit Jedi Survivor und the Last of Us sind die beiden größten Titel der letzten Monate ohne Support für DLSS 3 erschienen. Dieses "Es zählt nur noch Upsampling und keine Rasterleistung mehr" ist nichts weiter als ein Märchen. Ein Märchen, das Nvidia in die Tasche spielt.
DLSS 3 ist genauso wenig Standard wie Raytracing.
Wenigstens einer mit Hirn.4050 6GB
4060 8GB
4070 12GB
4080 16GB
4090 24GB
Mal das Steamsurvey betrachtet
VRAM
1GB 8%
2GB 7%
4GB 14%
6GB 19%
8GB 28%
10GB 3%
12GB 10%
16GB 0,6%
24GB 1,7%
Wir sind weit davon weg, dass ein Spiel mit 8GB nicht läuft.
Jetzt wird sich schon über Optionen beschwert.Preislich ist die 16 GiB-Variante halt eine "Apple-Grafikkarte", bei denen zahlt man für mehr Speicher (in dem Fall natürlich nicht -V-RAM) auch immer einen unfassbaren Aufpreis, den niemand so recht verstehen kann, der dann aber dennoch von einigen gelöhnt wird.
Naja, man sieht, ich finde den Aufpreis viel zu extrem. Dieser hat natürlich keine vernünftigen Gründe, Nvidia möchte wohl nur erreichen, dass die 8 GiB-Variante überhaupt Käufer findet - daher kommt diese auch früher.
Abseits dessen ist das wieder ein Schlag ins Gesicht für jeden 70er-Käufer...
Dann bist du halt Blind denn ich Zocke auch in 4k. Aber woher willst du das überhaupt wissen.Stell die Auflösung auf 4K, dann siehste eh keinen unterschied mehr bei DLSS oder FSR. Ich spiele in 4K und daher interessiert mich das Thema eh nich. ^^
Jedi Survivor hat FSR2 Unterstützung und The Last of US DLSS.Mit Jedi Survivor und the Last of Us sind die beiden größten Titel der letzten Monate ohne Support für DLSS 3 erschienen.
So ist es heute fast in jedem Titel.Dieses "Es zählt nur noch Upsampling und keine Rasterleistung mehr"
Nö.ist nichts weiter als ein Märchen. Ein Märchen, das Nvidia in die Tasche spielt.
Thomas sprach nicht nur von DLSS3.DLSS 3 ist genauso wenig Standard wie Raytracing.
Stimmt. Ich nutze DLSS Performance und du FSR Qualität und ich habe 50% mehr Leistung bei vergleichbarer Qualität.Stell die Auflösung auf 4K, dann siehste eh keinen unterschied mehr bei DLSS oder FSR.
Du wûrdest überlegene Features der Konkurrenz nie einräumen.Ich spiele in 4K und daher interessiert mich das Thema eh nich. ^^
Stimmt, mein Fehler. Gab 1x eine Serie mit 512 und 448bit.@Mironicus1337
hatte die gtx 280 nicht 512 mbit Speicher interface ? als top Modell.
war aber nur ne Ausnahme so weit ich weis ?!
wollte nur schlau sein aber in der regel geb ich dir und deiner aussage zu 100% recht .Stimmt, mein Fehler. Gab 1x eine Serie mit 512 und 448bit.
Das mit den cash und der höhren leistung will ich erst in ne test sehen.Spielt durch die Cache Hitrate keine Rolle. Die effektive Bandbreite steigt sogar. Und bei nur 25% mehr Leistung braucht man keine große Bandbreite.
Nein.384 bit hatte immer der Top Chip.