facehugger
Trockeneisprofi (m/w)
Wie war das doch gleich noch von den grünen: 10GB VRAM reichen doch für den Gamer bis 4K dicke aus.
Und diese Aussage stammt nicht von 2016
Gruß
Und diese Aussage stammt nicht von 2016
Gruß
Wie war das doch gleich noch von den grünen:
In aller Regel ja. Andererseits hab ich die 12gb meiner damaligen Titan schon vor vielen Jahren mit Tombraider zum überlaufen gebracht (ja, tatsächlich Nachladeruckler, nicht nur "voll aber nicht nötig").Man muss sich ja schon Mühe geben im Alltag 10-12GB voll zu bekommen.
2,5x Performance....Wenn se nen vernünftiges Produkt anbieten, sollen se es halt machen, aber nicht bei VRAM Krüppeln mit zu hohen Verbrauch
Wenn AD102 so kommt wie Kimi sagte, dann wird ne 4080 ~20 schneller als ne 3090 mit wahrscheinlich 16GB VRAM
je nachdem wie gut 5nm ist, dann vllt auch wieder mit nem vernünftigen Verbrauch von 180W-200W
da fänd ich den Preis jetzt nich so schlimm
AMD wird sicherlich auch die Preise anziehen
wenn das mit 2,5x Performace der 6900XT stimmt, dann kommt da sicherlich der Threadripper der GPUs mit entsprechenden Preisen
Aber jetzt mal im Ernst, wer von uns ist denn schon einmal ins Speicherlimit gelaufen mit 8GB?
von Zen1 zu Zen2 haben se die Perfromace auch mehr als verdoppelt2,5x Performance....
Darf ich deine Frage mal etwas anders formulieren: Aber jetzt Mal im Ernst, wer wird von uns zuerst ins Speicherlimit laufen & welche Karten sind zukunfsttauglicher?Aber jetzt mal im Ernst, wer von uns ist denn schon einmal ins Speicherlimit gelaufen mit 8GB?
In welchem Spiel hast du den VRAM bitte voll bekommen?In aller Regel ja. Andererseits hab ich die 12gb meiner damaligen Titan schon vor vielen Jahren mit Tombraider zum überlaufen gebracht (ja, tatsächlich Nachladeruckler, nicht nur "voll aber nicht nötig").
Die 10gb einer 3080 sind in 4k schon ohne Rtx manchmal arg knapp, mit rtx erst Recht. Da gibts lustige (natürlich passend grenzwertug eingestellte) Benchmarks wo ne 3060 mit 12gb ne 3070 und 3080 abzieht weil letzteren der Speicher ausgeht.
Wenn die Karte wirklich für 700€ kaufbar wäre (bzw je gewesen wäre) würds ja noch gehen aberin den Preisbereichen wo wir aktuell sind erwarte ich einfach den Shitload an vRAM.
(um dein Limit des Lambos kurz aufzugreifen: Die dinger verkaufen sich auch in anderen Ländern als hier wo spätestens bei 130 offiziell eh Schluss ist...)
Hier sei aber auch die Frage gestellt, ob die Entwickler an der Stelle, dass Spiel vernünftig programmiert haben. Wenn da jemand irgendwie Scheiße macht, kann man halt jede Hardware in die Knie zwingen.In aller Regel ja. Andererseits hab ich die 12gb meiner damaligen Titan schon vor vielen Jahren mit Tombraider zum überlaufen gebracht (ja, tatsächlich Nachladeruckler, nicht nur "voll aber nicht nötig").
Dabei sollte man nicht vergessen, dass wir in den Zeiten wo der VRAM stetig, schneller und größer wurde auch immer wieder neue Auflösungen bekommen haben. Derzeit sind wir auch seit Uhrzeiten im Gefilde um 2MP gefangen, mal breiter, mal höher, aber eigentlich immer irgendwas mit Full HD.Trocken von hinten...ganz nach gewohnter Manier von Nvidia. Dabei ist der erste April ja noch gar nicht...
Darf ich deine Frage mal etwas anders formulieren: Aber im Ernst, wer wird von uns zuerst ins Speicherlimit laufen & welche Karten sind zukunfsttauglicher?
Seit knapp 10 Jahren sind 8Gb Speicher auf Grafikkarten vorhanden, seit dieser Zeit wird nachweislich immer mehr Speicher für Texturen und co benötigt, die Spiele werden i.d.R. immer hübscher.
Nun kommt Nvidia mit ach so schönem Raytracing daher und möchte uns ernsthaft erzählen, das 10Gb auf einer 3080 vollends reichen...mit DLSS und einer veranschlagten Halbwertszeit von maximal 2 Jahren, mag die Aussage vielleicht nicht vollends daneben liegen.
Mein nächste Karte bekommt auch mindestens 16GB, auf DLSS & raytracing verzichte ich dabei gerne.
Nicht mit mir Nvidia!
Ich. Deswegen hatte ich ja auf das HBCC gehofft, welches aber leider nicht konsequent weiterverfolgt wurdeAber jetzt mal im Ernst, wer von uns ist denn schon einmal ins Speicherlimit gelaufen mit 8GB?
Das wird auch nicht richtiger wenn mans oft wiederholt.Zukunftssicherer sind 12/16 GB ganz sicher, aber was bringt es mir in zwei Jahren, wenn mein Speicher ausreicht, aber die Karte an der Kotzgrenze ist? Nichts!
Welcher Teil soll das sein?Bei Resident Eval sind schon im load screen die 8 GB Voll Kumpel kann viele Games gar nicht erst starten!
SS4 hat doch meines Wissens nach nur diese Verhalten wenn DX 12 genutzt wird? Mit DX11 lief das Game auf meiner 5700XT wunderbar flüssig.Das wird auch nicht richtiger wenn mans oft wiederholt.
Spiel mal Serious Sam 4 in UHD. Ne TitanXP aus iirc 2016 packt da in aller Regel 60+ fps.
Ne eigentlich viel schnellere 3070 oder 3080 dagegen nicht es sei denn du drehst die Texturen runter.
Das ist nur ein Beispiel von vielen. Wie schon gesagt wurde, für die allermeisten Spieler ist das einfach egal (Regler von ultra auf sehr hoch und fertich) aber das ist einfach nicht mein persönlicher Anspruch an Karten dieser Preisklasse.
Die 8gb meiner 2080 aktuell (die ich mehr oder weniger aus der Not raus eingebaut hatte) waren schon sehr oft das Limit lange bevor die gpu zu langsam wurde.
DLSS verringert den Speicherbedarf ja ordentlich, welche RT Spiele haben kein DLSS? Oh wait, ja, die AMD-sponsored Spiele. Die laufen aber auch nicht so richtig performant auf den AMD Karten weil, oh wait, es kein DLSS Pendant gibt.Nun kommt Nvidia mit ach so schönem Raytracing daher und möchte uns ernsthaft erzählen, dass 10Gb auf einer 3080 vollends reichen...mit DLSS und einer veranschlagten Halbwertszeit von maximal 2 Jahren, mag die Aussage vielleicht nicht vollends daneben liegen.
Mein nächste Karte bekommt auch mindestens 16GB, auf DLSS & raytracing verzichte ich dabei gerne.
Nicht mit mir Nvidia!
Texturen hübschen ein Spiel auf, sie füllen den Speicher, und führen bei zu knappem Speicher zu Nachladerucklern.Das ich in zwei Jahren da sitze und mir denke, geil, mein Speicher reicht, hab aber statt Nachladerucklern eben konstant geringe FPS! Mein nächstes Ziel sind 4/5k und 120Hz auf 34"-37", das werde ich in dieser Generation und in der nächsten vermutlich nicht schaffen (denke hier werde ich 5nm sogar überspringen müssen), dafür brauche ich noch viel mehr Rohleistung und das obwohl ich mit meiner Karte für 3440er Auflösung sicher nicht schlecht aufgestellt bin.