Geforce RTX 3070: Modder verdoppelt Speicher auf 16 GiB

Wieso das schlechteste Beispiel, es ist das beste Beispiel. Ein Spiel wo die RTX-Leistung und DLSS voll greifen, die 3070 8GB aber ab 16 Chunks von Microrucklern getötet wird, weil der VRAM ausgeht.

Was hilft es mir dann, wenn das Spiel auf AMD Karten noch schlechter läuft? An sich ist Minecraft RTX ja das beste Argument keine AMD-Karte zu kaufen.

Für mich ist es das perfekte Beispiel warum 16GB bei einer 3070 Super Sinn machen würden.
Das schlechteste Beispiel weil die AMD Karten trotz mehr VRAM da einfach mal komplett versagen.

Ich habe keine 3070 und auch kein Minecraft RTX, aber laut dem Wccftech Test läuft es auf der Karte in WQHD mit 24 Chunks mit ~50 FPS. Ohne DLSS wohlgemerkt. Mit DLSS dann ~100 FPS.

In 4K ohne DLSS sieht es übel aus für alles unter der 3090, aber die 3070 ist auch keine 4K Karte. Wobei mit DLSS da wieder ~70 FPS rauskommen, 4K, 24 Chunks, auf der 3070...

Hast Du Belege für die 3070 Mikroruckler in dem Spiel?
 
Dann ist aber der Teufel ? woanders vergraben, weil Die CPU definitiv mehr kann wenn der alte Threadripper da bereits mit 145FpS aufwartet.

Festplatte, Arbeitsspeicher ergeben auch schlechte Frame‘s, Mods oder Antivieren Programm können auch sich schlecht auswirken auf die Performance

selbst Notebook CPUs
nutze einen x470 chipstatz mit dem letzten nicht beta bios mit 32gb ddr4 3200 (xmp) und das spiel ist auf einer 1TB ssd antivirus gibs nur den defender hab project lasso aber das konnte nicht wirklich helfen ich hab kein plan wo das problem sein sollte :heul:
 
Mit deiner 3090 hast du Nvidia den größten Gefallen getan, da verdienen sie die größte Marge, sämtliche anderen Karten sind unrunde Angebote, welche dich stets zum größeren Modell verleiten sollen, denn abgesehen vom Preis ist die 3090 die einzig zukunftstaugliche Karte in Bezug zur Leistung und Speicherbestückung.

Hab mir meine für 1100 €auf ebay ersteigert nachdem meine 1070 seit nem halben Jahr im Eimer war. Der Verkäufer war kein scalper! Und wenn ja, hat er drauf gezahlt! War ne Manli 3090,, vermutlich wollte sie deshalb keiner haben! Hab se unter Wasser gesetzt und die rennt problemlos mit 2000 MHz! Bei 40 °! Ich finde es einfach so schlecht, dass nvidia künstlich spart um die obsoleszenz der Karte schon mal festzulegen! Aber was gibt es für Alternativen?
 
Ich war kurz davor meinen Lötkolben aus dem Keller zu holen und meiner 3080 weitere 10Gig zu gönnen... Aber ich warte doch lieber *LOL*

Lieber 2 weitere Gig drauf und RTX 3090-Leistung. Die Positionen sind ja noch frei...:)
Ob die aber funktionieren würden wage ich zu bezweifeln.

1615304524223.png
 
Liest sich ja fast wortgleich wie nebenan. ;)

"3D Mark, Furmark und Cryptomining laufen ohne Einschränkungen, aber die Karte renderte hier und da 3D-Grafiken nicht sauber und erzeugte Blacksreens."

:D

Nur mal so als Tipp. Im Video dazu macht er es nach meiner Erfahrung nach schon richtig, mehrere Benches gleichzeitig laufen zu lassen. Dazu noch ein Video abspielen und etwas mit der Webbrowser GPU-Beschleunigung herumtaben und man erzeugt Grafikfehler und Abstürze viel schneller, als, übertrieben gesagt, erst nach fünf Tagen Glänzen beim echten Spielen.
Die Timings beim Trotteln scheinen hier wohl den (bisherigen) Brick der Karte zu verursachen und für mich ist es soweit gesehen nichts weiter als ein weiterer teurer Backstein auf YT-Klickfang aber so leicht wie er in nullkommanix mit der Heißluftpumpe die Chips ausgetauscht hat, ja alles kein Problem. Bissel Flussmittel draufgefingert und fertig. Im Hintergrund unter dem Fenster liegt btw. ein Stapel Karten und bei dem zugemüllten Desktop..., aber ich will jetzt nicht spekulieren. Ich meine: Respekt, sicher. Gut, wenn es noch glaubwürdige Hardware-Erkunder gibt. Wichtiger dennoch: Erst wenn es wirklich funktioniert, aus dem Fenster lehnen. :)
 
Probiert mal das aktuelle CoD mit den höchsten Einstellungen die es gibt inkl. Renderauflösung... Da werden schon 14GByte angezeigt... bei mir auf jeden Fall... Lässt sich trotzdem in hoher FPS Zahl spielen und es gibt auch keine nennenswerten höhere Ladezeiten.
Das ist das Problem mit den ganzen Usern. Sie haben keine Ahnung.
CoD Cold War belegt 70-90% GPU VRAM. Das kann man im Menü einstellen. Das heißt aber nicht, dass diese auch benötigt werden. Bei mir belegt es in 1080p mehr als 20GB VRAM und nichtmal die Hälfte davon wird benötigt.

Siehe:
Call-of-Duty-Black-Ops-Cold-War-Advanced-Graphics-Settings.jpg


Auf einer GPU mit 48GB VRAM wären das 38,4GB.
 
Das schlechteste Beispiel weil die AMD Karten trotz mehr VRAM da einfach mal komplett versagen.

Ich habe keine 3070 und auch kein Minecraft RTX, aber laut dem Wccftech Test läuft es auf der Karte in WQHD mit 24 Chunks mit ~50 FPS. Ohne DLSS wohlgemerkt. Mit DLSS dann ~100 FPS.

In 4K ohne DLSS sieht es übel aus für alles unter der 3090, aber die 3070 ist auch keine 4K Karte. Wobei mit DLSS da wieder ~70 FPS rauskommen, 4K, 24 Chunks, auf der 3070...

Hast Du Belege für die 3070 Mikroruckler in dem Spiel?

Würde das reichen:


Mit DLSS geht ja auch gut, aber ich bin weiter der Meinung, eine 16GB Version der Karte wäre ein runderes Paket.
 
Würde das reichen:


Mit DLSS geht ja auch gut, aber ich bin weiter der Meinung, eine 16GB Version der Karte wäre ein runderes Paket.
Definitiv wäre eine 16 GB Variante mit etwas Aufpreis das rundere Paket, da bin ich absolut bei Dir. Nur darf man nicht das Ampere Portfolio vergessen: der 3080 konnten sie keine 20 GB geben da die 2 GB GDDR6X Bausteine schlicht noch nicht verfügbar sind. Und bei Release war das Lineup 3090 - 3080 - 3070 - 3060 schon festgesetzt mit den jeweiligen Speichermengen.

Für FullHD ist die 3070, mit max Details, RT und DLSS, meiner Meinung nach bestens ausgestattet. Wer WQHD so spielen möchte greift zur 3080, für 4K sollte es dann die 3090 sein. Ja, die 3070 kann auch in WQHD gut performen, genauso wie die 3080 in 4K, aber man sollte sich beim Kauf schon an der Ziel-Auflösung orientieren.

Ich will hier gar nicht verteidigen dass 8 GB zu mager für WQHD sind, nur erklären warum es für NV Sinn gemacht hat die Karten so zu releasen.
 
Hängt halt von der Haltedauer ab. Für 3 Jahre+ finde ich selbst in FHD 8GB zu wenig. Vom Preis her ist es wirklich schwierig, wobei ich auch kein Problem hätte, wenn man sich zwischen 3070 16GB und 3080 10GB entscheiden müsste. Mir wäre dann die 3070 lieber.
 
Nvidia ist einfach zu geldgeil und verkauft eben überteuert wenig Speicher für viel Geld. Unternehmerisch super Entscheidung, weil Nvidia viel Gewinn macht, allerdings schlecht für die Kunden, die eben wenig Speicher haben.
 
Für FullHD ist die 3070, mit max Details, RT und DLSS, meiner Meinung nach bestens ausgestattet. Wer WQHD so spielen möchte greift zur 3080, für 4K sollte es dann die 3090 sein.

Ich habe mit der RTX 2080 ganz gut in UHD spielen können und kann das Gleiche jetzt auch mit der 3080 machen. Der VRAM ist oft gut gefüllt, aber viele Spiele allokieren auch mehr VRAM als eigentlich genutzt wird. Die im Vergleich zur 2080 schnellere 3070 jetzt zur Full-HD-Karte zu degradieren ist da doch verkehrt. Immerhin hat sie in WQHD die gleiche Leistung wie die 2080Ti.
 
Diese Graka Generation überspringe ich. Ist mir alles zu Irre. Teuer und wenig Speicher. Hohe Verlustleistung.
Bei AMD gibts immerhin mehr Speicher, aber dafür kein DLSS. So oder so, beide Seiten haben große Nachteile, und sind trotzdem total überteuert. Ich setz dann auch mal 1-2 Gens aus.

Wüsste eh nicht wofür ich die Leistung brauche, denn der Spiele-Markt sieht genauso düster aus. Fast nur noch unfertiger, überteuerter Fließband-Kram im AAA-Bereich. Nein, danke.
 
Liest sich ja fast wortgleich wie nebenan. ;)

"3D Mark, Furmark und Cryptomining laufen ohne Einschränkungen, aber die Karte renderte hier und da 3D-Grafiken nicht sauber und erzeugte Blacksreens."

:D

Nur mal so als Tipp. Im Video dazu macht er es nach meiner Erfahrung nach schon richtig, mehrere Benches gleichzeitig laufen zu lassen. Dazu noch ein Video abspielen und etwas mit der Webbrowser GPU-Beschleunigung herumtaben und man erzeugt Grafikfehler und Abstürze viel schneller, als, übertrieben gesagt, erst nach fünf Tagen Glänzen beim echten Spiele
Im erstem Video betrieb er mehrere benches, weil sonst nachdem 3DMark beendet wird ein Blackscreen gibt.
Die Timings beim Trotteln scheinen hier wohl den (bisherigen) Brick der Karte zu verursachen und für mich ist es soweit gesehen nichts weiter als ein weiterer teurer Backstein auf YT-Klickfang aber so leicht wie er in nullkommanix mit der Heißluftpumpe die Chips ausgetauscht hat, ja alles kein Problem. Bissel Flussmittel draufgefingert und fertig. Im Hintergrund unter dem Fenster liegt btw. ein Stapel Karten und bei dem zugemüllten Desktop..., aber ich will jetzt nicht spekulieren. Ich meine: Respekt, sicher. Gut, wenn es noch glaubwürdige Hardware-Erkunder gibt. Wichtiger dennoch: Erst wenn es wirklich funktioniert, aus dem Fenster lehnen. :)

Es ist nicht einfach mit "Heißluftpumpe", unten wird die Platine auch erwärmt, damit geht es viel einfacher und sicherer.
Er betreibt ein Reparaturservice für PCs und Notebooks. Darüber hinaus bittet dieser seinen Kunden schon seit Jahren VRAM upgrades an.


Abgesehen davon, dieser vermuttet bei den Problemen eher Treiberprobleme und keine BIOS.
 
Diese Graka Generation überspringe ich. Ist mir alles zu Irre. Teuer und wenig Speicher. Hohe Verlustleistung.
Dann hoffen wir mal, dass wenn es so weit ist, 12GB oder gar 16GB nicht die neuen 8GB sind. Raytracing wird immer hungriger und sobald die Spiele der Nextgen Konsolen auf dem PC landen wird der Speicherhunger sicherlich nochmal ein gutes Stück höher sein. Dank Geld- und Zeitdruck der Publisher werden Entwickler wohl "noch schlampiger" programmieren müssen. Inwiefern dabei die gesparte Arbeit durch Raytracing irgendwo sonst ankommt außer in Dollars beim Publisher wage ich zu bezweifeln.

Grafikkarten mit immer mehr Speicher werden einfach teurer, egal ob die Leistung vom Vorgänger erreicht wird oder nicht, der VRAM Preis halbiert sich ja nicht einfach so von Generation zu Generation.
 
Dann hoffen wir mal, dass wenn es so weit ist, 12GB oder gar 16GB nicht die neuen 8GB sind. Raytracing wird immer hungriger und sobald die Spiele der Nextgen Konsolen auf dem PC landen wird der Speicherhunger sicherlich nochmal ein gutes Stück höher sein. Dank Geld- und Zeitdruck der Publisher werden Entwickler wohl "noch schlampiger" programmieren müssen. Inwiefern dabei die gesparte Arbeit durch Raytracing irgendwo sonst ankommt außer in Dollars beim Publisher wage ich zu bezweifeln.

Grafikkarten mit immer mehr Speicher werden einfach teurer, egal ob die Leistung vom Vorgänger erreicht wird oder nicht, der VRAM Preis halbiert sich ja nicht einfach so von Generation zu Generation.
Die nächste Generation kommt nächsten Herbst (bei den momentanen 2 Jahres Zyklen..), bis dahin sind 12 und 16 Gb einfach noch Overkill und niemals der neue Standart. Raytracing scheitert übriges zur Zeit nicht am Speicher, sondern an der generellen Performance. 12 Gb und 16Gb sind demnach für alle sinnvoll die ohne Raytracing in 4 Jahren noch mit Texturen Ultra spielen wollen. (Und alle anderen Details of low ??..kleiner Spaß)
 
Bevor es falsch rüberkommt schreibe ich es lieber den Hinweis dazu :D Das kannst du alles nicht wissen. Weder wann die nächste Gen kommt wegen den Weltweiten Situation derzeit. Auch nicht, welche vram Menge Standard sein wird. Was ist den "heute" Standard? 12GB Overkill, nein, zumindest ist Overkill ein zu starkes Wort dafür. Nicht zwingend notwendig trifft es eher. Je mehr vram vorhanden ist, desto verschwenderischer wird damit umgegangen, weil es einfach gesagt eine Verdopplung gibt. Wegen Raytracing ok, da hast wohl recht, aber das wird in Zukunft wohl Hand in Hand mit DLSS kommen. Und was in 4 Jahren sein wird, puh....
 
Zurück