Special Jetzt offiziell: Geforce RTX 4060 Ti am 24. Mai, RTX 4060 und RTX 4060 Ti 16GB im Juli

Ich meinte von der MSI Gaming X. Dass es generell dual fan gibt weiß ich. Aber gut muss ich mal schauen, was sonst noch gut ist.

Die KFA ist nice aber mit 336mm auch zu gerade so passgenau. Ich werde mir lieber was kleineres gönnen. Ohnehin warte ich jetzt ersmal noch etwas ab. Aber Danke dir :)
Die ASUS ist im Quiet BIOS sehr leise.
 
Das passt schon. Die Karte wird bei mir eh die nächsten 2 Jahre in 1080p nicht sonderlich ausgelastet werden! Sonst muss man da eben modifizieren. Mach ich sowieso gerne z.B. undervolten, Lüfterkurve anpassen. Klappt schon!
 
Die Amd boys noch immer am rumjammern obwohl man es ihnen genauestens durchgekaut hat und sogar mit Video,Fotos oder sonst was wiederlegt trotzdem wird weiter gemacht. Getestet hat es natürlich niemand von denen Digital Foundry sagt auch nur Müll. :stupid:
:haha:

Naja ich gehe wieder Matsch genießen :)
Tja
Dann lügt cb
Pcgh ubd alle anderen

Aber eigentlich macht Nvidia alles richtig.. Warum sollten die mehr Vram verbauen.. anscheinend reicht 8 GB für immer u ewig

Und wenn mal ein Spiel mehr will ist es nach deiner Aussage einfach kaputt.
Ok
 
Tja
Dann lügt cb
Pcgh ubd alle anderen
Ich glaube einfach, dass dir der Wille dazu fehlt, einen Irrtum einzugestehen.

Kein Spieler ist gezwungen mit Matschtexturen zu spielen, auch muss Raytracing nicht angeschaltet werden, damit die Grafik hübsch ist.

Woher ich das mit Hogwarts Legacy weiß? Habe es auf meiner alten 1070 gespielt.
 
Zuletzt bearbeitet:
Tja
Dann lügt cb
Pcgh ubd alle anderen

Aber eigentlich macht Nvidia alles richtig.. Warum sollten die mehr Vram verbauen.. anscheinend reicht 8 GB für immer u ewig

Und wenn mal ein Spiel mehr will ist es nach deiner Aussage einfach kaputt.
Ok
Die Spiele die in den letzten Wochen diesen hohen VRAM Bedarf hatten, hatten an vielen Stellen Performance Probleme. Dass man da von einer schwachen Optimierung ausgehen konnte und nun nach fixes auch den Beweis hat sollte eigentlich eindeutig sein.
Das die 8gb knapp sind um langfristig alles auf Ultra bei 1080p zu spielen dürfte eigentlich allen klar sein. Nur was passiert dann? Du schaltest von Ultra auf Hoch und hast dann aufm Feld zwei Halme weniger oder mal eine pixeldicke Kontur weniger. Sowas suche ich auf Standbildern mit der Lupe.
Ich kann mit meiner 2080 bis heute ohne große Probleme in WQHD und UWQHD zocken und habe eher Probleme mit der GPU Leistung als mit dem VRAM. Und das Teil wurde seinerzeit als Speicherkrüppel zerissen, so schlimm war es aber nie, wenn es nicht in 4k ging.
Schwieriger wird es wenn du die Karte länger nutzen willst. Also 2-3 Gens dann kann das tatsächlich ein deutlichen Qualitätsnachteil bedeuten. Aber auch hier musst du mit Qualitätseinbußen leben wenn du in der Leistungsklasse kaufst und 16gb VRAM hast. Ich würde dann aber dennoch zu mehr VRAM raten, wenn der Preis in der selben größenordnung liegt.
 
Ich glaube einfach, dass dir der Wille dazu fehlt, einen Irrtum einzugestehen.

Kein Spieler ist gezwungen mit Matschtexturen zu spielen, auch muss Raytracing nicht angeschaltet werden, damit die Grafik hübsch ist.

Woher ich das mit Hogwarts Legacy weiß? Habe es auf meiner alten 1070 gespielt.
Tja da glaube ich aber mehr den test von cb und anderen seiten die genau das sagen
Genauso bei Forspoken oder tlou
 
Ich glaube einfach, dass dir der Wille dazu fehlt, einen Irrtum einzugestehen.

Kein Spieler ist gezwungen mit Matschtexturen zu spielen, auch muss Raytracing nicht angeschaltet werden, damit die Grafik hübsch ist.

Woher ich das mit Hogwarts Legacy weiß? Habe es auf meiner alten 1070 gespielt.
Nur, weil deine Augen da nichts sehen, heißt es nicht, dass mit deiner 1070 alles wunderbar lief. Da bist du wirlich kein Faktor.
 
Tja da glaube ich aber mehr den test von cb und anderen seiten die genau das sagen
Genauso bei Forspoken oder tlou
Alles mit maximalen Details, davon reden wir hier nicht. Ich glaube du weißt eigentlich gar nicht so richtig, wovon du eigentlich redest. Dir geht es rein um Hate und Agitation.

Mit Matschtexturen muss keiner spielen nicht mal User mit 6GB Karten. Erzähl mir doch nicht Geschichten von Axel Stoll mit Reichsflugscheiben.
Nur, weil deine Augen da nichts sehen
Klar gibt es geringfügige Unterschiede zwischen Qualitätsstufen.
Aber ich habe Texturen ohne Probleme auf Ultra in Hogwarts nutzen können, auch in Resident Evil 4 mit SSR.

Die maximale Stufe.
, heißt es nicht, dass mit deiner 1070 alles wunderbar lief.
Ne. Die Leistung war viel mehr das Problem, nicht der Speicher.
Da bist du wirlich kein Faktor.
Du redest Unsinn.
 
Zuletzt bearbeitet:
Tja da glaube ich aber mehr den test von cb und anderen seiten die genau das sagen
Genauso bei Forspoken oder tlou
Du meinst die Seiten die Amd Light Benchmarken damit Nvidia ja nicht zu sehr abhebt? Warum wundert mich das nicht.
Tja
Dann lügt cb
Pcgh ubd alle anderen

Aber eigentlich macht Nvidia alles richtig.. Warum sollten die mehr Vram verbauen.. anscheinend reicht 8 GB für immer u ewig

Und wenn mal ein Spiel mehr will ist es nach deiner Aussage einfach kaputt.
Ok
Bla bla bla. Absichtlich Falsch verstehen. Dann halt nicht. Viel spass noch beim Nvidia Haten wirst brauchen wenn Amd in 5 Jahren an Intels sohlen nuckelt was dedizierte Gpu betrifft mit den letzten 5 % Marktanteilen.
 
Zuletzt bearbeitet:
Klar gibt es geringfügige Unterschiede zwischen Qualitätsstufen.
Aber ich habe Texturen ohne Probleme auf Ultra in Hogwarts nutzen können, auch in Resident Evil 4 mit SSR.

Die maximale Stufe.

Ne. Die Leistung war viel mehr das Problem, nicht der Speicher.

Du redest Unsinn.
Gerade das ist doch der Punkt bei der ganzen Speicherdiskussion.
Die 1070 hatte damals sehr großzügige 8GB und hat genau dadurch selbst heute kaum Probleme großen Texturmengen.

Hätte sie nur 4GB, könntest du dir Hogwarts und TLOU in die Haare schmieren oder müsstest wirklich im Matsch spielen.

Niemand behauptet, dass 12GB heute nicht reichen oder 8GB unspielbar sind, aber überleg mal wie eine 4060ti(8GB) oder 4070 in 5-6 Jahren performen...
Dank DLSS und FG wird Leistung ein geringeres Problem sein als heute bei der 1070. Aber die werden einfach am Speicher zu knabbern haben.

Kann dem Enthusiasten, der eh alle 2 Jahre neu kauft, egal sein aber Grafikkarten lösen sich normalerweise nicht nach 2 Jahren in Luft auf, wie deine (und meine) 1070 zeigt.
 
Zurück