News Radeon vs. Geforce: AMD stellt den Grafikspeicher in den Fokus und sieht sich gegenüber Nvidia klar im Vorteil

Das ist doch jetzt keine Neuheit, dass mehr Vram immer besser ist und nicht schadet. War vor 20 Jahren schon so und ich hab damals auch immer gerne zu dem Modell mit mehr Vram gegriffen. Einzig beim Abverkauf der GTX 780, da hab ich leider das große Modell nicht mehr bekommen.

Aber aktuell bin ich mit der 6700XT noch zufrieden und bin dann mal gespannt, was die nächsten Generationen von AMD und Nvidia an Vram mit sich bringen werden. An intel als ernsthafte Alternative glaube ich nicht so recht..
 
Die 7900 XTX ist auch stark in Raytracing, wenn diese auf dem selben Niveau performt, wie eine 3090ti. Meine 4070ti ist in Raytracing nicht besser.
Danke, und gebe Dir recht AMD hat auch deutliche Schwächen gerade VR, braucht nicht jeder & Stomverbrauch ? Ja klar aber auch hier besser wie Nvidia 3x

Nvidia ist Rohleistung her ist nach wie vor besser in RT zeigt das Bild. aber es fehlt halt an Ram und/oder aber Speicherinterface bei Nvidia
in FHD ist die 3090ti langsamer wie eine 4070ti ab WQHD dann aber gleich auf und in UHD noch klar in Front.
 

Anhänge

  • 4070.jpg
    4070.jpg
    74,4 KB · Aufrufe: 17
Frage an die RX 7900er Käufer: Hat AMD den Stromverbrauch im Idle/Twitch/Youtube in den Griff bekommen inzwischen?

Ich kaufe nächste Woche ein neues System und mein PC wird auch für Spiele aber eben auch für alles andere benutzt wie Filme/Serien/Surfen usw; ich habe halt keine Glotze. Und da macht es sich schon bemerkbar, wenn das System etwas mehr Strom verbrennt als nötig ...

Vielleicht hat ja mal einer nach gemessen was da verbraucht wird aktuell.
 
Eine Textur ist etwas ganz anderes als die Auflösung.

Normal werden für eine FullHD Auflösung nicht die gleichen hochauflösenden Texturen geladen wie für 4k. Gibt auch nicht umsonst häufiger Texturpacks mit noch höheren Auflösungen für 8k. Am Ende beträgt eben der Unterschied zwischen FullHD und 4k meistens 2GB+. Und runtergebrochen liegt es an der Auflösung.
 
Ja habe ich. Und die Performance ist - im Vergleich zu nvidia - ein Witz. Wenn ich die Wahl zwischen 70 fps und 30-40 fps bei AMD habe, dann nehme ich doch nicht AMD. Auch wenn die GPU dann 200 Euro günstiger ist.

Bezogen auf 3.440 × 1.440. quelle: https://www.pcgameshardware.de/Rade...-XTX-7900-XT-Test-Benchmark-Review-1409055/4/
Genau das ist ja das Problem worum es hier geht.

Die alte Gen vs alte Gen zeigt ganz deutlich bei neueren Spielen aus 2023 das sich der Performance Vorteil dreht - zugunsten von AMD.

Der Witz ist ja das man sich ne 3070TI gekauft hat - 1-2 Jahr lang den Vorteil hatte und dann nur noch weniger FPS sieht...
 
Also, ich bin ja auch ein Freund von AMDs Speicherpolitik.

Die ist eigentlich nichts besonderes, eben gerade so viel Speicher, dass er im Laufe des Grafikkartenlebens nie knapp wird. Soweit so selbstverständlich, wenn man Speicher nicht nachrüsten kann.

Allerdings muss AMD sich da auch vorhalten lassen, dass sie mit manchen Karten wie der 6400 dann genauso geizig sind. Dazu kommt, dass man das etwas schlechtere Speichermanagement hat, also von den 2-4 GB die man mehr hat als die Konkurrenz auch etwa die Hälfte braucht, sodass der letztendliche Vorsprung im Speicherausbau zwar noch da ist, aber nicht so groß ausfällt wie die reinen GiB vermuten lassen.

So oder so, zu wenig Speicher ist geplante Obsoleszenz und mMn verwerflich. Aber man ist nicht der "Gute", nur weil man die schlimmsten Dinge nicht (immer) mitmacht.
 
Zuletzt bearbeitet:
Normal werden für eine FullHD Auflösung nicht die gleichen hochauflösenden Texturen geladen wie für 4k. Gibt auch nicht umsonst häufiger Texturpacks mit noch höheren Auflösungen für 8k. Am Ende beträgt eben der Unterschied zwischen FullHD und 4k meistens 2GB+. Und runtergebrochen liegt es an der Auflösung.
Deswegen stand bei mir ja auch "man kann 4K Texturen in FHD laden."
 
Ja habe ich. Und die Performance ist - im Vergleich zu nvidia - ein Witz. Wenn ich die Wahl zwischen 70 fps und 30-40 fps bei AMD habe, dann nehme ich doch nicht AMD. Auch wenn die GPU dann 200 Euro günstiger ist.

Bezogen auf 3.440 × 1.440. quelle: https://www.pcgameshardware.de/Rade...-XTX-7900-XT-Test-Benchmark-Review-1409055/4/

Hab ich das richtig verstanden du kaufst dir eine 4080 weil die 4090 in CB77 in 4k RT 70 FPS macht aber die AMD nur 31? Klingt logisch
 
Bei Rastergrafik würde ich auf jeden Fall AMD empfehlen, hier ist P/L einfach besser. Mit Raytracing macht man eigentlich auch nichts mit der RX 7000 Serie nichts falsch, auch wenn die RT Leistung geringer ist.
Das Lustige ist Raytracing erhöht den VRAM bedarf oft ordentlich. D.h. die Crux ist Nvidia hätte theoretisch gute raytracing leistung aber der zu geringe VRAM macht das oft zu nicht weil manche Spiele mittlereweile 10GB+ VRAM brauch selbst in 1440p.
Hogwarts hatte Probleme mit dem Videospeicher die längst behoben sind und bei den anderen beiden Titeln handelt es sich um AMD Kooperationen, bei denen der irrationale V-ram Hunger natürlich rein zufällig ist. :confused:

Wenn AMD schon mit dem V-ram wirbt, steht es um die restlichen Punkte nicht so doll.
Die Probleme wurden dadruch gelöst, dass die Texturen gar nicht geladen werden wenn zu wenig VRAM da ist. Sieht sehr hässlich aus (siehe Hardware Unboxed video welches schon auf seite 1 verlinkt wurde).
die stehen doch eigentlich im engen Austausch mit Spieleentwicklern, oder nicht ?
Also dürften die als erstes erfahren, wieviel Vram der Spieler benötigt.
Wie teuer ist eigentlich Speicher. Finde dazu gerade nichts brauchbares im Netz. :-|
Klar gibt es einen Austausch ... ein UE5 entwickler hat mit Moores law is dead gesprochen und der meinte die Spiele ersteller versuchen seit Jahren krampfhaft mit immer mehr kompromissen die Texturen in 8GB zu quetschen. Denen reist so langasam auch der geduldsfaden. Aber Nvidia ist es nur recht müssen sich die Leute früher eine neue Karte kaufen.
Das war doch schon immer so. AMD wirbt mich extrem viel Speicher, der selten etwas bringt. Die Karten sind meist eh viel zu langsam.
Es wäre sinnvoller mal schnelle GPUs zu entwickeln, speicher dran löten kann man dann immer noch.
Naja aus dem "selten" wird momentan "immer öfter" siehe Hardware Unboxed video von der ersten Seite hier verlinkt.
 
Naja Enthusiast PC ist für mich bei Nvidia 4090 und 4080. Alles andere ist Mittelklasse. Und da ist man mit 24 und 16 GB ganz gut aufgestellt.
 
Das Lustige ist Raytracing erhöht den VRAM bedarf oft ordentlich. D.h. die Crux ist Nvidia hätte theoretisch gute raytracing leistung aber der zu geringe VRAM macht das oft zu nicht weil manche Spiele mittlereweile 10GB+ VRAM brauch selbst in 1440p.

.
Da RT auf keiner GPU nativ anständig läuft nutzt man FSR/DLSS/Xess was den zusätzlichen VRAM Verbrauch senkt. Aber das viel beworbene Killerfeature DLSS 3 mit FG braucht ordentlich Speicher. Die erzeugten. Zwischenbilder werden in voller Auflösung gespeichert.
 
AMD ist in jedem Preisbereich schneller als NV, wenns um FPS pro € geht, wenn man auf RT verzichtet. Selbst im RT steht AMD sehr gut da, was Preis pro € angeht. NV ist nur in der Maximalleistung besser als AMD, aber dann halt auch teurer.
Maximale Leistung ist doch genau das, was gebraucht wird.
 
Maximale Leistung will jeder haben, nur kann und/oder will sich das nicht jeder leisten.
P/L ist wieder ne andere Geschichte.
 
Also ich würde mir ziemlich verarscht vorkommen, wenn ich mir vor 2 Jahren, für viel Geld, eine RTX 3070 gekauft hätte und mir jetzt der VRAM ausgeht. Aber hey, dann kaufe ich mir jetzt eine 4070, damit ich mir dann in 2 Jahren doppelt verarscht vorkomme. NVIDIA wins!!!!!!! :lol:
:lol: :lol: :lol:
Maximale Leistung ist doch genau das, was gebraucht wird.
Richtig, aber zu einem vernünftigen Preis! Keinen Elektroschrott für 650€!
 
Frage an die RX 7900er Käufer: Hat AMD den Stromverbrauch im Idle/Twitch/Youtube in den Griff bekommen inzwischen?
Vielleicht hat ja mal einer nach gemessen was da verbraucht wird aktuell.
Wenn Du nur einen einzelnen Monitor nutzt liegt der Verbrauch der AMD Karten bei YT und im Idle Bereich wenn überhaupt nur unwesentlich höher. Erst beim Einsatz von 2 Monitoren gehts los. Bei 2 Monitoren mit unterschiedlichen Hz Werten steigt der Verbrauch leider schon sehr spürbar an. Unangenehm wirds dann bei 2 Monitoren mit 120Hz und sollten sie noch schneller sein 144+Hz dann läufts leider ziemlich aus dem Ruder.

Aber auch bei NV steigt der Verbrauch beim Einsatz von 2 Monitoren überproportional wenn auch nicht im selben Außmas.

MfG
 
NVIDIA wins!!!!!!!
oder legst halt nochmals 600€ drauf und holst dir eine 4080 mit genügend VRam, alles nur Kalkül bei Niewidia

*edit*
und kann man sich auch nur erlauben aufgrund knapp 90% Marktanteil, alles nur Kausalität -
 
Zuletzt bearbeitet:
Zurück