News Streitfall "Grafikspeicher": AMD geht in die Offensive und stichelt gegen Nvidia

Laut der Tabelle sind AMD und NV aber einer Meinung:

8GB reicht für FHD
12 GB reicht für WHQD
16GB+ reicht für 4k

Sie sind sich nur nicht einige bei der Frage wie viel Rechenleistung man bei der jeweiligen Auflösung zur Verfügung haben sollte.
Allerdings sind das auch immer Momentaufnahmen, so Unternehmen sind auch schon mal einen Monat später ganz anderer Meinung.
 
Ahja, sprichst du vom FX9590 und der 7900XTX?

Also ehrlich, was sind das denn bitte für Strohmänner? :haha:
Der FX durfte zwar "nur" 220 Watt verbraten, im Gegensatz zu den ach so effizienten neuen INTEL´s und der 3090/Ti bzw. 4090 mit ihren 400 + Watt max., und ja, man kann fast alles mit UV betreiben (was die Specs allerdings nicht besser macht).

 
Guter Punkt, finde es krass dass ältere Open World Titel teilweise nur 4-5 GB VRAM benötigen in 1080P/1440P. Die heutigen Spiele (nicht mal Open World!) belegen gut und gerne um die 10-12 GB. Sind die Texturen doppelt so gut geworden? Ich behaupte nein.
Doch sind sie. Die Texturen sind im Gegensatz zu älteren Openworld Titeln fast um das 4-8 Fache angestiegen.

Und wir reden hier von allen Texturen.
Damals waren Teilweise nur die wichtigsten Texturen hoch auflösend. Da wo man es halt bemerkt.
 
Schon mit Patch 1.02 wurde es besser...ausserdem macht es nun mal einen Unterschied ob es eine Nvidia oder AMD Karte ist.
Mit den selben Einstellungen.
Anhang anzeigen 1428907Anhang anzeigen 1428908
Anhang anzeigen 1428909Anhang anzeigen 1428910
Anhang anzeigen 1428911Anhang anzeigen 1428912
Anhang anzeigen 1428913Anhang anzeigen 1428914
Anhang anzeigen 1428919Anhang anzeigen 1428920


Da kann mir der schlaue Onkel Steve 10x erzählen man braucht min 12GB VRam für 1080p...ansonsten ruckelt es oder man hat Matsch.
Bei Nvidia will ich für 10GB VRam ein wenig mehr...
...ansonsten wie schon ein paar mal geraten...wer alles glaubt was Tester XY raushaut. Und wer eine Aversion gegenüber Einstellungen hat....Konsole regelt
Wenn du glaubst, dass deine Screenshots representativ sind oder gleiche Settings zeigen.. Never. Mal eben doppelten VRAM Bedarf in gleicher Szene nur weil das eine AMD und das andere nvidia sein soll? Glaub ich dir einach nicht. Es kommt immer drauf an wie lange jemand bereits im Level ist, etc.

Wie gesagt, bei RDR2 mit Max Settings mag der VRAM beim laden und den ersten Minuten nicht voll sein. Aber wenn du eben bisschen durch die Map reitest, schnellreist und so.. Da füllt der sich eben. Und wenn du dann noch mit den Textur mods kommst, die es ja auch noch gibt, die das Spiel nochmal deutlich aufwerten, ist es vorbei mit 8 oder 10 GB. Is einfach so. Und RDR2 is von 2018?

Die Realität ist, dass Spiele mehr Speicher brauchen. Man muss doch völlig hirngewaschen sein, wenn man bei den kommenden Spielen wie die Trailer zeigen, nicht schon kommen sieht, dass selbst 12 GB sicher knap werden wenn nicth zu wenig sein werden.

Man schaue sich mal den Trailer von Avatar an oder auch Star Wars Outlaws oder andere neue Games. Die haben fantastische beleuchtung mit Raytracing, fantastische Charactere mit einer menge Details, die Umgebung ebenfalls. Es wird genau so kommen und dann werden wieder alle jammern weil die 12 GB dann bei der 4070 knapp werden und so. Die Geschichte wird sich wiederholen wie bei der 3070. Das muss man irgendwann mal durchschauen.

Und btw, ich spiele auch gerade Last Of Us zufällig und der Speicherverbrauch hat sich nicht groß geändert in 4K und max details. Liegt immernoch bei 12 GB wie am Anfang auch schon wo ich es bei Release gespielt hab. Soviel dazu. Der Shaderbuild und das Laden der Speicherstände geht nun allerdings deutlich schneller.
Das stimmt schon, aber der Witz an der Geschichte ist ja, dass die meisten Spiele den VRAM Bedarf nach Patches doch zügeln konnten. Bei The Last Of Us ist es ein Unterschied wie Tag und Nacht zwischen der Release Version und der heutigen Version.
Ich sehe da keinen Unterschied in maximalen Details. Mag sein, dass es sich bei niedrigeren Details etwas verbessert hat, aber wenn du die volle Grafikpracht willst, brauchst du VRAM.
 
Zuletzt bearbeitet:
Achtung: 7900xt aktuell wieder für 840 € abzgl. 80 € cashback verfügbar.

Gar nichts ist da im Angebot.
Ich habe mich da gestern abend doch noch dazu hinreißen lassen und heute morgen kam die Stornierung seitens Alternate.
Mit der Begründung: "Aufgrund eines Datenfehlers wurde der von Ihnen bestellte Artikel zu einem falschen Preis beworben."

1686744947884.png


Letzte Woche schieben sie die bestellte MSI RX 6800 auf mitte September und nun das.
Bin langsam echt genervt von diesem unseriösen Scheiß...
Wenn sie nicht liefern können/wollen, dann sollen sie diese dummen Angebote einfach lassen.

Argghhh, sorry. Musste raus
 
Wie gesagt, bei RDR2 mit Max Settings mag der VRAM beim laden und den ersten Minuten nicht voll sein. Aber wenn du eben bisschen durch die Map reitest, schnellreist und so.. Da füllt der sich eben.
Das klingt für mich nach Caching oder einem Speicherleck. Da ich aber in RDR2 nie Probleme mit der Speicherbelegung hatte, tippe ich auf ersteres, auch wenn meine Sessions nicht lange genug waren, um letzteres auszuschließen.
 
Gar nichts ist da im Angebot.
Ich habe mich da gestern abend doch noch dazu hinreißen lassen und heute morgen kam die Stornierung seitens Alternate.
Mit der Begründung: "Aufgrund eines Datenfehlers wurde der von Ihnen bestellte Artikel zu einem falschen Preis beworben."

Anhang anzeigen 1428938

Letzte Woche schieben sie die bestellte MSI RX 6800 auf mitte September und nun das.
Bin langsam echt genervt von diesem unseriösen Scheiß...
Wenn sie nicht liefern können/wollen, dann sollen sie diese dummen Angebote einfach lassen.

Argghhh, sorry. Musste raus
Danke für die Rückmeldung. Das ist mehr wie ärgerlich. Die ASUS Aktion bezieht sich jetzt nur noch auf die teure 7900xtx und 6750xt
 
Zuletzt bearbeitet:
Der FX durfte zwar "nur" 220 Watt verbraten, im Gegensatz zu den ach so effizienten neuen INTEL´s und der 3090/Ti bzw. 4090 mit ihren 400 + Watt max., und ja, man kann fast alles mit UV betreiben (was die Specs allerdings nicht besser macht).

Die 4090 ist schon deutlich effizienter als eine 7900XTX.

Und Intel liegt mit Raptor Lake auf Zen 4 Niveau bei der Effizienz. Erst die X3D Modelle haben da wirklich deutliche Bewegung rein gebracht.

Das ändert natürlich nichts an dem Absurden Stock Betriebspunkten, bei 13900k(s) und auch nichts an irgendwelchen absurden Sonderbetriebsmöglichkeiten bei 320W.


Noch kurz zum Bezug, zum FX9590... Der hat auch in Spielen die 220W gebraucht und war damit weiterhin nicht in der Spitzenleistungsgruppe.

Ein 13900ks braucht in Spielen (immer noch zu viel und zwar deutlich) 150W, in 1080p, wenn eine 7900XtX, oder 4090 zum Einsatz kommt. Ist dabei aber auch nah an den schnellsten CPUs.
 
Ich benutze keinen UHD 120+ Hz Monitor.
Merkst was ?
Du bist also der Nabel der Welt und bestimmst für alle anderen, dass sie entweder die falsche Hardware nutzen oder ihre vorhandene Hardware falsch eingestellt haben?
Du versuchst nur gegen Intel und Nvidia zu stänkern, weil du AMD stark präferierst.
Mir ist der Hersteller egal, deshalb brauch ich nicht zu versuchen, Verbräuche von teilweise 100W im idle zu verteidigen.

Bei den CPUs sieht es dafür umso besser für AMD aus.
 
Die 4090 ist schon deutlich effizienter als eine 7900XTX.

Und Intel liegt mit Raptor Lake auf Zen 4 Niveau bei der Effizienz. Erst die X3D Modelle haben da wirklich deutliche Bewegung rein gebracht.

Das ändert natürlich nichts an dem Absurden Stock Betriebspunkten, bei 13900k(s) und auch nichts an irgendwelchen absurden Sonderbetriebsmöglichkeiten bei 320W.


Noch kurz zum Bezug, zum FX9590... Der hat auch in Spielen die 220W gebraucht und war damit weiterhin nicht in der Spitzenleistungsgruppe.

Ein 13900ks braucht in Spielen (immer noch zu viel und zwar deutlich) 150W, in 1080p, wenn eine 7900XtX, oder 4090 zum Einsatz kommt. Ist dabei aber auch nah an den schnellsten CPUs.
Effizienter ja. Aber bei FPS/€ das bessere Niveau (4090 vs. 7900XT). Denk mal an AMPERE anno Dazumal.

Wenn Du im BIOS nicht selber Hand anlegst und den 13000´ern freien Lauf lässt, saufen die bis zum Nimmerland.

Der FX 9590 war gar nicht so schlecht, wie ihn ein mancher immer hinstellt (siehe Anhang).
Gesoffen hat er, ja, aber interessieren tut es just die INTEL Fraktion auch eher weniger.
Du bist also der Nabel der Welt und bestimmst für alle anderen, dass sie entweder die falsche Hardware nutzen oder ihre vorhandene Hardware falsch eingestellt haben?
Hab ich niemals behauptet. Wenn dann ist dies eine Unterstellung Deinerseits.
Von allen Firmen, von hier bis Kansas, hab ich Hardware am laufen und hab jene völlig OHNE Vorbehalt käuflich erworben.
Du auch ?
 

Anhänge

  • FX 9590 vs i7 4770K.jpg
    FX 9590 vs i7 4770K.jpg
    477,6 KB · Aufrufe: 45
Zuletzt bearbeitet von einem Moderator:
Hab ich niemals behauptet. Wenn dann ist dies eine Unterstellung Deinerseits.
Von allen Firmen, von hier bis Kansas, hab ich Hardware am laufen und hab jene völlig OHNE Vorbehalt käuflich erworben.
Du auch ?
Nö, hab kein Intel, macht keinen Sinn wenn man schon AM4 mit 5800X3D hat.
Aber ist auch völlig egal was ich besitze, ändert ja nichts am schlechten idle Verbrauch der AMD Karten.
Intel Karten sind da übrigens auch nicht besser.
 
Ähm, ich möchte mir an der Stelle erlauben die Damen und Herren bei AMD daran zu erinnern das bereits die 6700 (non-XT) als 1440p-Karte beworben wird.
Wohlgemerkt mit 10 GiB VRAM.

Aber fällt ja sicher keinem auf ;)
 
Du versuchst nur gegen Intel und Nvidia zu stänkern, weil du AMD stark präferierst.
Der Wichtigtuer hat ja sogar ein AMD Logo in seinem Browser. :stupid:
Aber so ist das halt wenn man kein anderes Hobby hat, außer in Foren zu provozieren.
Effizienter ja. Aber bei FPS/€ das bessere Niveau (4090 vs. 7900XT). Denk mal an AMPERE anno Dazumal.
Was auch nur teilweise richtig ist. Bei RT ist das PLV bei Nvidias 4090 sogar besser.
Wenn Du im BIOS nicht selber Hand anlegst und den 13000´ern freien Lauf lässt, saufen die bis zum Nimmerland.
Was falsch ist, wenn man eine non K Variante kauft, oder Teillast anliegt.

Der FX 9590 war gar nicht so schlecht, wie ihn ein mancher immer hinstellt (siehe Anhang).
Wenn man sich irgendetwas zurechtsucht, kann man auch sehr schlechte CPUs im guten Licht präsentieren. Angesichts deiner Bewertung der Core 13 Serie zeigst du halt ein komplett irrationales Verhalten und fehlende Neutralität auf allen Ebenen.

Wenn der FX 9590 nicht so schlecht war, ist die Core 13 Serie der absolute Burner...
 
Zuletzt bearbeitet:
Effizienter ja. Aber bei FPS/€ das bessere Niveau (4090 vs. 7900XT). Denk mal an AMPERE anno Dazumal.
Fps/€ mit RT ist die 4090 besser, ohne nicht. Also jetzt nicht wirklich ein echter Kritikpunkt.
Wenn Du im BIOS nicht selber Hand anlegst und den 13000´ern freien Lauf lässt, saufen die bis zum Nimmerland.
Wenn das Bios ab Werk, die CPU außerhalb der Specs betreibt ja klar... Das ist aber auch nicht der Fehler der CPU.
Der FX 9590 war gar nicht so schlecht, wie ihn ein mancher immer hinstellt (siehe Anhang).
Gesoffen hat er, ja, aber interessieren tut es just die INTEL Fraktion auch eher weniger.
Naja, das war nur in ausgewählten Benchs so, im Mittel dennoch eher schmächtig, statt mächtig.
Nö, hab kein Intel, macht keinen Sinn wenn man schon AM4 mit 5800X3D hat.
Aber ist auch völlig egal was ich besitze, ändert ja nichts am schlechten idle Verbrauch der AMD Karten.
Intel Karten sind da übrigens auch nicht besser.
Da habe ich zum Glück die Situation, das ich zwei Rechner nebeneinander stehen habe. Einmal ein hocheffizienten mini PC. Der kann gar nicht anders als nur bis zu 35W aufzunehmen. Daran hängen drei Bildschirme und dann mein Zock Rechner, der mit einer 7900XTX an nur einem Bildschirm hängt. 85Hz, kein Problem mit dem Idle- Verbrauch ;)
Hab ich niemals behauptet. Wenn dann ist dies eine Unterstellung Deinerseits.
Von allen Firmen, von hier bis Kansas, hab ich Hardware am laufen und hab jene völlig OHNE Vorbehalt käuflich erworben.
Du auch ?
Die Häufigkeit, ändert nichts an den Vorbehalten.

Ich denke, das der absolute Großteil der Nutzer hier angeben würde, ohne Vorbehalte zu bauen / kaufen.

Auch die meisten Grabenkämpfe im Forum, basieren nicht auf Fanboytum, sondern nur darauf das jeder unterschiedliche Information, unterschiedlich gewichtet.
Ähm, ich möchte mir an der Stelle erlauben die Damen und Herren bei AMD daran zu erinnern das bereits die 6700 (non-XT) als 1440p-Karte beworben wird.
Wohlgemerkt mit 10 GiB VRAM.

Aber fällt ja sicher keinem auf ;)
Da möchte ich darauf hinweisen, das diese 10GB Karte im PCGH Test, genauso sichtbare Speicherknappheitzeichen von sich gibt (Ruckler, oder Matsch, Fehler) wie eine RTX3070. Letztendlich verhält sich die auf den Speicher bezogen, genau wie eine RTX3000 mit 8GB.

Dem PCGH Test und allen anderen Tests im Netz dazu, würde ich auch nach wie vor zu dem Schluss kommen, das aktuell 8GB weiterhin ausreichend sind, für 1080p.

Wenn man die verbuggten Spielstarts raus nimmt, gibt es eigentlich nicht wirklich Probleme mit 8GB bei Nvidia. Bei AMD mit 10GB.

Gerade wenn Nvidia bei RTX4000 diese 8GB noch besser genutzt werden, als bei RTX3000, auch wenn RTX4000 nur 100-400MB im VRam sparen kann, sehe ich noch weniger Probleme.

Auch wenn ich mir 16 Spiele anschaue und nur eines dabei ist, bei dem dann wirklich der Speicher zu knapp ist und man mit nicht wirklich sichtbaren Veränderungen (Texturen auf eine niedrigere Stufe) das Problem lösen kann, ändert das nichts daran.

Ich hoffe das PCGH diesen VRam Test regelmäßig wiederholt, denn das Thema hat seine Daseinsberechtigung und ist wichtig.

Wann Ruckler beginnen, oder Matsch kommt, da konnte man schon einen Unterschied zwischen RTX4070ti mit 12GB und 3080ti mit 12Gb ausmachen.

Das alles wäre mit weniger Speichergeiz zwar kein Thema, aber auch 8GB in 1080p reichen noch, wenn man von verbuggten Spielreleases absieht.

Wer also bis zum ersten, oder zweiten Patch warten kann, hat keine echten Probleme.

Was man wem empfiehlt hängt von individuellen Wünschen ab. Wer ein begrenztes Budget hat und sich 1440p ohne RT wünscht ist mit einer 6700XT nicht schlecht beraten, wer Hauptsache RT an in 1080p will mit einer 3060ti(3070, oder 4060ti) und so weiter und so fort...

Keiner bestimmt für wen anders, was wichtig ist.
 
Zuletzt bearbeitet:
@PCGH:
Auf der AMD Folie steht bei 8GB für FHD 2023 eindeutig High/Max.
Man weiß also selber, dass es ein paar Spiele gibt, die dann auf Ultra Settings schon jetzt nicht mehr vollständig rund laufen.
Auf hohem Detailgrad reicht es dann aber wieder so eben gerade.
Im Grunde deckt sich deren Ausssage eigentlich doch zum allergrößten Teil mit Raffs Meinung zum Thema Speichermenge.

Und eben gerade, weil sie sicher wohl seine fachmännische Meinung dazu hier angeschaut haben (^^), haben sie gleich dazu die passende Folie mit Sticheleien gegen nvidia rausgehauen. ;-)
Fehlt eigentlich nur noch die passende 7900XTX als Dankeschön für die wochenlange (Stress)arbeit, die er damit hatte. :-)
Aber da das dann ja bekanntlich als Bestechung und Käuflichkeit gelten würde, sollte er sie dann lieber mir geben. hehe ;-)
Ja ich weiß, schöne Wunschträumerei, bis der Kaffee wirkt, aber man kann's ja mal versuchen. Schönen Arbeitstag dann noch. :-)
 
Bei der letzten Generation hat AMD auch mit 16/12GB gegenüber Nvidia geprallt/geworben um dann kurze Zeit später sogar noch ein Modell mit 4GB herauszubringen. Jetzt packt AMD bei den kleinsten Karten auch wieder 8GB rein und das obwohl ihr Speichermanagment schlechter funktioniert als bei Nvidia. Finde daher solche Aussagen immer etwas komisch.

Abgesehen davon ist es natürlich richtig mehr Speicher zu verbauen.
 
Der Preis der 4090 ist einfach viel zu hoch damit kannste nix über P/L gewinnen.
Eigentlich sollte es gar keine GPU geben mit solchen Preisschildern.

XTX liegt aktuell am günstigsten übrigens bei 999€
RTX bei aktuell am günstigsten bei 1646€

Tut sich aber nichts in der Tabelle mit den Preisen. Der Abstand bleibt quasi identisch.
Man merkt nur wieder das Nvidia das Bepreisen definitiv an der Raytracing Leistung ausmacht.
 
Zuletzt bearbeitet:
Zurück