Special Jetzt offiziell: Geforce RTX 4060 Ti am 24. Mai, RTX 4060 und RTX 4060 Ti 16GB im Juli

....manchmal kommt man sich vor als ob das hier in Wahrheit ein Konsolenforum ist...da gibt es wohl (weiß ich ehrlich gesagt nicht) auch keinerlei Regler.
Klar man spielt auch gerne mit Matsch-Texturen.
Aber klar ist das es trotzdem mehr als 8GB sein müssten dem stimme ich ja zu aber die Vram hysterie ist außer Kontrolle.
Das ist keine Hysterie, sondern ein Paradigmenwechsel, der schon schon 2020 eingeleitet wurde...
Nur da Spiele ein paar Jahre brauchen bis sie fertig, spürt man erst dieses Jahr die ersten Auswirkungen.
RE4, Hogwarts, TLOU1, das sind keine Ausreißer die mal mehr VRAM brauchen, sondern die ersten Spiele der neuen Norm.

Früher hat man gesagt x Pixel auf dem Bildschirm brauchen y VRAM.
Heute kommt nicht nur RT hinzu, sondern auch weitere Sachen wie Texturen die größer sind als die Pixel auf dem Bildschirm, komplexere Geometrie und vieles andere.

Wenn jemand eine neue 400€ GPU kauft, sollte mind 12GB VRAM für 1080p dabei haben. Bei >600€ schon 16GB VRAM für 1440p. Erst so sehe ich die Karte als sicher für 4 Jahre an.
 
TLOU1, das sind keine Ausreißer die mal mehr VRAM brauchen, sondern die ersten Spiele der neuen Norm.
Absolut Falsch. Man kann nicht unfertigen mist als referenz heranziehen.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Sieh dir das an und sag mir das dass eine Referenz sein soll, weil viel zu früh releast. Bedenke dabei das es noch wesentlich besser werden kann in den nächsten Patches ;). Ein Seitenhieb auf HUB ist auch dabei, vollkommen gerechtfertig. Wobei Seitenhieb hier das Falsche Wort ist.

Also was bleibt übrig aus deinem Argument.

Sollten die Karten mehr Vram haben? Ja sollten sie. Ist die Heutige Vram austattung in irgendeiner Weise kritisch? Nein, nicht wirklich.

Außer man will 4k mit 8Gb bewältigen dann gebe ich dir vollkommen Recht, das wird knapp aber auch möglich in den meisten spielen.
 
Da wir ein Oligopol haben, gibt es zwei die sich um die Gunst der Kunden streiten.
Das kannst du nun Whataboutism nennen, das sind die Realitäten.

Am Ende zählt Preis gegen Leistung.

Um die Leistung zur Konkurrenz namentlich kenntlich zu machen. Jo.
Wenn du dir die Geschichte der Produktnamen angesehen hättest, wüsstest du, dass es absolut keinen Unterschied macht... Hauptsache, die Reihen sind in sich konsistent - was bei AMD halt stimmt.
Dann bringt AMD nächstes Jahr eine 10% schnellere 8900XTX heraus, die mit der RTX 4070 konkurriert, also egal wenn der Name nicht zur Leistung passt?
Ähm... dir 7900 XT ist aktuell schon im PCGH Index 13 Punkte über der 4070 TI...
Von den paar existierenden RT Spielen sind für mich gerade mal 2 sehenswert... Minecraft RTX und Quake RTX... alle andren benutzen RT nur für kleinere Effekte. (Mal abgesehen davon, dass Quake von den einfachen Modellen pforitiert.)
Außer 2-3 Spielenutzt niemand RT wirklich konsequent für Spiegelungen und Schatten... und wegen 2 Spielen kauf ich keine teurere Karte.
Nö. Ich kann nicht verstehen wieso du Hersteller mit absolut identischem Verhalten anderweitig bewertest.

Ist die 7900XTX wirklich eine XTX oder ist die 7900XT nicht in Wirklichkeit eine 7800(XT)?
Oder die 7900XTX nicht nur eine 6800XT?
Du hast mir noch nicht erklären können, inwiefern das Verhalten der beiden gleich ist.
Bisher behauptest du es nur, ohne jegliche Beispiele zu nennen.
Denn die beiden 7900er Karten nutzen den big chip.
Die 800er Karten nutzen bei AMD oft eher den zweitgrößten Chip nahe Vollausbau und so weiter...
Bei AMd ist aktuell leider noch zu wenig zu den 800ern und 700ern bekannt... Die müssten nach bisheriger Nutzungsweise den zweitgrößten Chip in verschiedenen Abstufungen nutzen.
 
Wenn bereits die RTX 4060 für 329 Euro (UVP) erscheint, wie soll dann die RTX 4050 absurde 500 Euro kosten? ;) Die Häfte ist realistisch. Nvidia versucht gerade, die Preise gegenüber der Vorgeneration nicht zu erhöhen - man kriegt einfach weniger Mehrwert.

MfG
Raff
äh nein, so war das nicht gemeint.
Die 4060 ist ja eine umgelabelte 4050.
Die 500 bezog ich auf die 4060 Ti 16 GB

BTW hast du eigentlich den Beitrag mal gesehen bezüglich des Voodoo 2 Umbaus mittels Adapter auf PCIe?
Wär das mal ein Retro wert für euch?
 
Absolut Falsch. Man kann nicht unfertigen mist als referenz heranziehen.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Sieh dir das an und sag mir das dass eine Referenz sein soll
Ja wenn du auf die Texturen schaust und die Umgebung, ja ist Referenz würde ich sagen.
 
Klar man spielt auch gerne mit Matsch-Texturen.
Kannst mir ja mal zeigen was Du so aus deiner RTX 4090 rausholst. Ich zeig Dir dann mit weit weniger VRam, dass das bei weitem kein Matsch zu sehen ist.
Dass man in 4K vielleicht einen Unterschied sieht, aber alles darunter...da muss ich bloß lachen. In einem Blindtest würden die meisten keinen Unterschied sehen.
Man kann sich naürlich auch ein Eck suchen und es ranzoomen und seine 24GB feiern...wenn ihr euch daran aufhängt...na dann.
 
Er braucht halt seine rechtfertigung weil 24gb absolut nutzlos sind wenn man nicht damit arbeitet.
Ich seh die RTX 4090 mit ihren 24GB VRam schon als absolut geile Karte...nur so zu tun als ob man nur noch mit Matsch spielen kann, wenn man nicht die vorgegebene Menge an VRam hat ist halt einfach lächerlich. Am besten sind ja noch die Screens, in denen extra viel VRam verbraucht wird und dann jeglicher Matschfilter an ist...es muss ja max sein.


 
Zuletzt bearbeitet:
Verstehe ich, dann würde ich entweder nach einem Schnapper bei der 3060 12GB schauen oder auf ne 4070 sparen.
Hab mich jetzt entschieden. Es wird definitiv ne RTX 4070 aber...

die gaming X Trio ist 2mm(!) zu lang für mein Case. Ich hoffe da kommt noch ne Dual Fan Variante. Es wäre doch problemlos möglich -.-.

Ein Adapter für den Stromanschluss liegt ja bei, soweit ich gesehen habe...

Günstigere Varianten wie die Palit haben zwar einen "8 Pin Classic Connector" und passen auch easy ins case aber ich bin schon bereit bei soviel Geld 75€ mehr für ne Traum Graka hinzublättern. Die Palit ist mir schon etwas zu einfach und wird lauter unter last sein (früher oder später), echt ärgerlich.

Egal muss ja nicht gleich heute sein. Die Karte ist ja super "frisch". Mal sehen was so die Zeit bring. Muss ich mich wohl noch bisschen gedulden. Am Ende hab ich am meisten was davon. Ich will nämlich eigentlich auch einige Jahre Ruhe haben. Dann am Kühler sparen is auch wieder mist. Mein Rechner ist super leise auch unter last, hört man fast gar nix.

Oder neues Case holen? Finde ich auch nicht clever. Viel Zeit, Arbeit und mehr kosten. Mensch wieso passt das alles nie ahhh xD.
 
... nach euer Logik damit leben alles auf min zu stellen statt das die GPU Hersteller den stillstand seid mind. 8 Jahren bei 8gb zu beheben
Du bist der Meister des sophistischen Schein-Argumentes.
Niemand, aber auch wirklich niemand findet schmale Speicherausbauten auf aktuellen GPUs toll und im Zweifel werden 8GB auf einer AMD Karte noch mehr Probleme verursachen.

Dennoch sind Spiele die so viel Speicher adressieren und dann wirklich benötigen in der krassen Minderheit und man wird auch weiterhin mit entsprechenden Qualitätseinstellungen problemlos damit auskommen können.
 
Kannst mir ja mal zeigen was Du so aus deiner RTX 4090 rausholst. Ich zeig Dir dann mit weit weniger VRam, dass das bei weitem kein Matsch zu sehen ist.
Dass man in 4K vielleicht einen Unterschied sieht, aber alles darunter...da muss ich bloß lachen. In einem Blindtest würden die meisten keinen Unterschied sehen.
Man kann sich naürlich auch ein Eck suchen und es ranzoomen und seine 24GB feiern...wenn ihr euch daran aufhängt...na dann.
Schau dir forspoken oder Hogwarts mit 8gb Karten an..
Ja die Texturen sind Matsch..
Auch in full hd
 
Klar man spielt auch gerne mit Matsch-Texturen
Wieder klare Falschaussage.
Warum ist es so schwer in die Thematik zu gehen und sich zu informieren, was das Spiel im konkreten für Anforderungen stellt, bevor man seinen Senf ablässt?

Das Spiel lässt sich problemlos mit ultra Texturen und SSR statt RT Reflexionen spielen.
sondern auch weitere Sachen wie Texturen die größer sind als die Pixel auf dem Bildschirm, komplexere Geometrie und vieles andere.
Genau das haben Resident Evil und The Last of US nicht.
Resident Evil hat sogar so schwache und verwaschene Texturen, dass es als PS4 Spiel durchgehen könnte.
 
Du bist der Meister des sophistischen Schein-Argumentes.
Niemand, aber auch wirklich niemand findet schmale Speicherausbauten auf aktuellen GPUs toll und im Zweifel werden 8GB auf einer AMD Karte noch mehr Probleme verursachen.

Dennoch sind Spiele die so viel Speicher adressieren und dann wirklich benötigen in der krassen Minderheit und man wird auch weiterhin mit entsprechenden Qualitätseinstellungen problemlos damit auskommen können.
Noch in der Minderheit...
Die letzten AAA Veröffentlichungen haben gezeigt wohin die Reise geht

Vor allem kosten hochauflösende Texturen keine Rechenleistung, brauchen aber massig Vram
 
Schau dir forspoken oder Hogwarts mit 8gb Karten an..
Ja die Texturen sind Matsch..
Auch in full hd
Jup...nichts zu erkennen...vollkommen matschig in 1440p

a.jpg b.jpg
c.jpg d.jpg

kommt von Dir auch mal was, oder bist Du nur am nörgeln.
Wie schon geschrieben worden ist...keiner findet weniger VRam gut. Aber die Hexenjagd die hier betrieben wird ist vollkommen überzogen.
AMD/Nvidia wollen ihre Karten verkaufen, genauso wie die Spieleentwickler ihre Spiele. Von den 2% Highenduser werden würden sie nicht einmal ihre Unkosten decken können.
 
Zuletzt bearbeitet:
Hab mich jetzt entschieden. Es wird definitiv ne RTX 4070 aber...

die gaming X Trio ist 2mm(!) zu lang für mein Case. Ich hoffe da kommt noch ne Dual Fan Variante. Es wäre doch problemlos möglich -.-.

Ein Adapter für den Stromanschluss liegt ja bei, soweit ich gesehen habe...

Günstigere Varianten wie die Palit haben zwar einen "8 Pin Classic Connector" und passen auch easy ins case aber ich bin schon bereit bei soviel Geld 75€ mehr für ne Traum Graka hinzublättern. Die Palit ist mir schon etwas zu einfach und wird lauter unter last sein (früher oder später), echt ärgerlich.

Egal muss ja nicht gleich heute sein. Die Karte ist ja super "frisch". Mal sehen was so die Zeit bring. Muss ich mich wohl noch bisschen gedulden. Am Ende hab ich am meisten was davon. Ich will nämlich eigentlich auch einige Jahre Ruhe haben. Dann am Kühler sparen is auch wieder mist. Mein Rechner ist super leise auch unter last, hört man fast gar nix.

Oder neues Case holen? Finde ich auch nicht clever. Viel Zeit, Arbeit und mehr kosten. Mensch wieso passt das alles nie ahhh xD.


Sonst ist die auch ein Tipp:

 
Die Amd boys noch immer am rumjammern obwohl man es ihnen genauestens durchgekaut hat und sogar mit Video,Fotos oder sonst was wiederlegt trotzdem wird weiter gemacht. Getestet hat es natürlich niemand von denen Digital Foundry sagt auch nur Müll. :stupid:
:haha:

Naja ich gehe wieder Matsch genießen :)
 


Sonst ist die auch ein Tipp:

Ich meinte von der MSI Gaming X. Dass es generell dual fan gibt weiß ich. Aber gut muss ich mal schauen, was sonst noch gut ist.

Die KFA ist nice aber mit 336mm auch zu gerade so passgenau. Ich werde mir lieber was kleineres gönnen. Ohnehin warte ich jetzt ersmal noch etwas ab. Aber Danke dir :)

EDIT: Ok habe mir gerade für 650€ die GIGABYTE RTX 4070 EAGLE gekauft! 3 Lüfter, nicht zu lang, nette Optik! Denke das passt!
 
Zuletzt bearbeitet:
Zurück